Estatítica Boa

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 294

EXPERIMENTAÇÃO

AGRÍCOLA
Manoel Carlos Gonçalves

7a Edição
Revisada e Ampliada
Manoel Carlos Gonçalves
Professor da FCA/ UFGD

EXPERIMENTAÇÃO
AGRÍCOLA

7a Edição
Revisada e Ampliada

Universidade Federal da Grande Dourados


Faculdade de Ciências Agrárias
2010
APRESENTAÇÃO

Nossa intenção neste livro é descrever e explicar os princípios e


procedimentos estatísticos que acreditamos ser parte fundamental do
conhecimento científico de um pesquisador que trabalha em ciências agrárias.
Os técnicos que trabalham com experimentação agrícola devem ter uma
compreensão clara dos princípios estatísticos que governam o planejamento de
experimentos e a análise e interpretação dos dados. Neste livro, procuramos
ajudar os participantes a entender como e quando os vários métodos devem ser
usados e/ou não usados.
Enfatizamos a importância da clara determinação dos objetivos de cada
experimento, do cuidadoso planejamento e execução, do uso eficiente de
recursos experimentais e de extrair todas as informações relevantes a partir dos
dados. Reforçamos também a necessidade de confirmar qualquer pressuposição
que seja necessária fazer acerca dos dados antes que eles possam ser
analisados.
O conhecimento matemático necessário é deliberadamente mantido num
nível baixo, apesar do custo da omissão de detalhes matemáticos. Em
substituição aos detalhes matemáticos procuramos encorajar os participantes a
pensar mais profundamente sobre a filosofia estatística. As fórmulas são
apresentadas de forma a facilitar o entendimento intuitivo, sem as demonstrações
matemáticas formais.
Apesar de os dados serem atualmente analisados por computador,
acreditamos que apenas trabalhando com no mínimo um exemplo de cada tipo de
análise é possível entender completamente o que está sendo assumido e como a
análise fornece as estimativas de precisão dos resultados experimentais.
Nessa edição o texto foi revisado. Foi acrescentado o Capitulo 9 –
Fundamentos de Regressão e Correlação. No Capitulo 3 foram acrescentadas as
seções 3.3 – Planejamento Experimental e 3.4 – Teoria da Medida. No Capítulo 7
foram acrescentadas as seções 7.1 – Modelos Lineares para Análise de
Variância, 7.2 – Componentes de Variância e novos testes para normalidade e
homogeneidade de variâncias. No Capítulo 8 foi acrescentada a seção 8.4 –
Modelagem da Análise de Variância Conjunta.
Esperamos estar contribuindo com o desenvolvimento da experimentação
agrícola. Desde já, agradecemos as críticas e sugestões que, certamente, irão
contribuir para a melhoria deste trabalho em futuras edições.

O autor.
SUMÁRIO

I - CONCEITOS BÁSICOS DE ESTATÍSTICA ............................................................. 06


1.1. Estatística .......................................................................................................... 06
1.2. Ramos da Estatística ......................................................................................... 06
1.2.1. Probabilidade ........................................................................................... 06
1.2.2. Estatística Descritiva ............................................................................... 06
1.2.3. Delineamento Experimental e Delineamento Amostral ........................... 06
1.2.4. Estatística Inferencial .............................................................................. 07
1.3. Variáveis Aleatórias ........................................................................................... 07
1.4. Distribuições de Probabilidades ........................................................................ 07
1.5. Esperança ......................................................................................................... 07
1.6. Variância ............................................................................................................ 08
1.7. A Distribuição Normal ........................................................................................ 08
1.8. Distribuição Normal Padronizada ...................................................................... 09
1.9. Distribuição Amostral da Média ......................................................................... 09
1.10. A Distribuição t ................................................................................................ 10
1.11. A Distribuição F ............................................................................................... 11
1.12. Inferências para a Variância e o Desvio Padrão (A Distribuição  2 ) .............. 11
1.13. Estimação ........................................................................................................ 12
1.14. Intervalos de Confiança ................................................................................... 13
1.15. Teste de Hipóteses .......................................................................................... 14
1.16. População e Amostra ...................................................................................... 14
II - DESCRIÇÃO DE DADOS ........................................................................................ 16
2.1. Introdução .......................................................................................................... 16
2.2. Distribuição de Freqüências .............................................................................. 16
2.3. Medidas de Posição e de Dispersão ................................................................. 20
2.3.1. Medidas de Posição ou de Tendência Central ........................................ 20
2.3.2. Medidas de Dispersão ............................................................................. 21
2.4. Medidas Descritivas para Dados Grupados ...................................................... 23
2.4.1. Média de uma Distribuição de Freqüência .............................................. 23
2.4.2. Moda de uma Distribuição de Freqüência ............................................... 23
2.4.3. Variância e Desvio Padrão de uma Distribuição de Freqüência ............. 23
III - PLANEJAMENTO DE EXPERIMENTOS AGRÍCOLAS ......................................... 26
3.1. Introdução ......................................................................................................... 26
3.2. Terminologia Básica ......................................................................................... 28
3.2.1. Experimento ........................................................................................... 28
3.2.2. Parcela ou Unidade Experimental .......................................................... 28
3.2.3. Fatores ................................................................................................... 28
3.2.4. Níveis de Fatores ................................................................................... 28
3.2.5. Tratamento ............................................................................................. 28
3.2.6. Repetições (Replicações) ....................................................................... 28
3.2.7. Erro Experimental ................................................................................... 28
3.2.8. Técnica Experimental ........................................................................... . 28
3.3. Planejamento Experimental.............................................................................. 29
3.4. Teoria da Medida.............................................................................................. 36
3.5. Princípios Básicos da Experimentação ............................................................ 45
3.3.1. Repetições ..............................................................................................
3.3.2. Casualização ..........................................................................................
3.3.3. Controle Local ........................................................................................
3.3.4. Sensibilidade ..........................................................................................
3.3.5. Confundimento .......................................................................................
3.3.6. Ortogonalidade .......................................................................................
IV - DELINEAMENTOS EXPERIMENTAIS ................................................................... 48
4.1. Delineamento Inteiramente Casualizado (DIC) ............................................... 48
4.2. Delineamento Blocos Casualizados (DBC) ..................................................... 51
4.3. Delineamento Quadrado Latino (DQL) ........................................................... 55
4.4. Delineamento Semelhante a Blocos Casualizados (DSBC) ........................... 58
4.5. Delineamento Látice (DL) ............................................................................... 60
4.5.1. Látice Balanceado .................................................................................
4.5.2. Látice Parcialmente Balanceado ...........................................................
4.6. Parcelas Pareadas .......................................................................................... 85
4.7. Comparação de Grupos Sorteados ................................................................ 87
V - DELINEAMENTOS DE TRATAMENTOS ................................................................ 92
5.1. Fatoriais ............................................................................................................ 92
5.1.1. Algumas Configurações da Série 2k .......................................................
5.1.2. Algumas Configurações da Série Pura 3k ..............................................
5.2. Estudo da Interação ......................................................................................... 100
5.3. Parcelas Sub-divididas (“Split Plot”) ................................................................. 109
5.4. Faixas (“Split Block”) ........................................................................................ 113
5.5. Parcela Sub-Subdividida .................................................................................. 119
5.6. Parcelas em Faixas Subdivididas ..................................................................... 126
VI - FUNDAMENTOS E APLICAÇÕES DE TESTES DE SIGNIFICÂNCIA .................. 132
6.1. Teste para Análise de Variância - Teste F ...................................................... 132
6.2. Estudo de Contrastes ...................................................................................... 133
6.2.1. Contrastes de Médias ...........................................................................
6.2.2. Variância de Um Contraste ...................................................................
6.2.3. Covariância de Dois Contrastes ............................................................
6.2.4. Contrastes Ortogonais ..........................................................................
6.2.5. Erro Padrão de um Contraste ...............................................................
6.3. Testes para Comparações de Médias ............................................................ 136
6.3.1. Teste t de Student .................................................................................
6.3.2. Teste de Bonferroni ...............................................................................
6.3.3. Teste de Tukey .....................................................................................
6.3.4. Teste de Duncan ...................................................................................
6.3.5. Teste de Student - Newman-Keuls (S-N-K) ..........................................
6.3.6. Teste de Scheffé ...................................................................................
6.3.7. Teste de Dunnett ...................................................................................
6.4. Teste para Agrupamento de Médias ............................................................... 147
6.4.1. Teste de Scott-Knott .............................................................................
VII - DIAGNÓSTICOS E MEDIDAS CORRETIVAS EM ANÁLISE DE VARIÂNCIA .... 153
7.1. Modelos Lineares para Análise de Variância................................................. 153
7.2. Componentes de Variância............................................................................ 164
7.3. Diagnóstico das Pressuposições para a Análise de Variância ..................... 177
7.3.1. Homogeneidade de Variâncias ............................................................
7.3.2. Normalidade .........................................................................................
7.3.3. Aditividade ............................................................................................
7.3.4. Independência
7.3.5. Teste de Homogeneidade de Variâncias
7.3.6. Teste de Aditividade
7.3.7. Teste de Normalidade

7.4. Transformação de Dados ............................................................................... 194


7.4.1. Transformação Raiz Quadrada ( Y ) ..................................................
7.4.2. Transformação Angular (Arcsen Y / 100 ) .........................................
7.4.3. Transformação Logarítmica (Log Y) ....................................................
7.4.4. Transformação Recíproca (1/Y) ...........................................................
VIII - ANÁLISE CONJUNTA DE UMA SÉRIE DE EXPERIMENTOS ........................... 205
8.1. Introdução ...................................................................................................... 205
8.2. Delineamento, Disposição e Uniformidade dos Experimentos ...................... 205
8.3. Análise de Variância Conjunta de uma Série de Experimentos..................... 207
8.4. Modelagem da Análise de Variância Conjunta............................................... 212
8.5. Alguns Critérios Práticos para a Combinação de Experimentos
Numa Análise Conjunta ................................................................................. 238
IX – FUNDAMENTOS DE REGRESSÃO E CORRELAÇÃO........................................ 239
9.1. Regressão Linear Simples............................................................................. 239
9.2. Correlação Simples........................................................................................ 244
9.3. Considerações Gerais sobre Regressão e Correlação ................................. 247
BIBLIOGRAFIA ............................................................................................................. 263
TABELAS ESTATÍSTICAS ........................................................................................... 267
CAPÍTULO I

CONCEITOS BÁSICOS DE ESTATÍSTICA

1.1 - Estatística

É a ciência que se ocupa do desenvolvimento e aplicação de princípios,


métodos e procedimentos para a obtenção, análise e interpretação de dados
provenientes de pesquisa experimental ou observacional (levantamento de
dados), as quais visam obter informações para a avaliação de hipóteses
científicas a respeito de determinada questão (ou problema) de pesquisa. Os
dados são obtidos mediante processos que envolvem a observação e,ou
mensuração de itens (características). Tais itens chamam-se variáveis, porque
originam valores que tendem a apresentar certo grau de variabilidade quando se
fazem mensurações sucessivas. O processamento dos dados, por meio da
análise estatística, elimina detalhes menores, enfatiza os aspectos importantes
dos dados e facilita a constatação de comparações e de relações. A estatística é
reconhecida como uma importante ferramenta de controle de qualidade das
atividades de pesquisa em todos os ramos da ciência.

1.2 - Ramos da Estatística

1.2.1 - Probabilidade
Pode ser conceituada como a parte da estatística que é utilizada para
analisar situações onde a incerteza e o acaso estão presentes. Probabilidade
pode ser conceituada como a possibilidade numérica de ocorrência de
determinado evento.
1.2.2 - Estatística Descritiva
Lida com os métodos estatísticos que sumarizam e descrevem as
características relevantes de um conjunto de dados amostrais.

1.2.3 - Delineamento Experimental e Delineamento Amostral


Lida com o planejamento de experimentos e de amostragens (levantamentos),
com o objetivo de se obter dados informativos.

1.2.4 - Estatística Inferencial


É o principal ramo da Estatística porque lida com a análise e interpretação
dos dados e estabelece limites para a representatividade da informação fornecida
pelos dados. O método inferencial fornece uma base de raciocínio para interpretar
logicamente os fatos observados e para afirmar o quanto estes fatos suportam ou
contradizem o modelo postulado.

1.3 - Variáveis Aleatórias

Variável aleatória é uma função ou uma regra que atribui um número para
cada resultado possível de um experimento. Por exemplo, quando uma moeda é
lançada três vezes, o número de caras que ocorre pode ser considerada uma
variável aleatória, que pode tomar os valores 0, 1, 2 ou 3. Cada um dos
resultados prováveis ocorrerá por chance, ou seja, envolve os fenômenos de
acaso e incerteza.
Chance pode ser entendida como a interação de grande número de fatores
que influem coletivamente no resultado de um experimento ou amostra. Como é
virtualmente impossível controlar todos os fatores ou predizer como eles atuarão
em conjunto para afetar o resultado, não é possível determinar com precisão qual
resultado ocorrerá num experimento. Isto é que caracteriza a variável aleatória.
A variável aleatória discreta pode assumir apenas valores determinados e
inteiros. A variável aleatória contínua pode assumir qualquer valor dentro de um
intervalo de valores. As variáveis aleatórias contínuas são representadas por
dados provenientes de medições enquanto que as discretas são representadas
por dados de contagens. Essas variáveis são de natureza quantitativa.
A distinção clara entre variáveis aleatórias discretas e contínuas é
importante porque a utilização dos diferentes tipos de distribuições de
probabilidades depende do tipo de variável aleatória considerado.
As variáveis aleatórias nominais e ordinais são chamadas de categóricas e
são de natureza qualitativa.

1.4 - Distribuições de Probabilidades


Quando uma medida de probabilidade é atribuída a cada resultado possível
de uma variável aleatória X, produz-se uma distribuição de probabilidade.
A distribuição de probabilidade é simplesmente uma lista de probabilidades
que são atribuídas a cada valor possível de uma variável aleatória discreta. A
distribuição de probabilidade para uma variável aleatória contínua é dada pela
função densidade de probabilidade.

1.5 - Esperança

O valor esperado (ou esperança matemática) de uma variável aleatória


pode ser admitido como a média de um longo ensaio desta variável.
Cientificamente, pode-se dizer que é o que se espera que aconteça, em média.
n
Para uma variável discreta X, a esperança é dada por E ( X )   X i P ( X i ) ,
i 1

onde i identifica cada um dos possíveis valores de X.



O valor esperado de uma variável aleatória contínua é E( X)   X f ( X)dX ,

onde f(X) é a função densidade de probabilidade de X.
As propriedades da esperança são as seguintes:
1) E(C)  C
2) E(CX)  CE( X)
3) E( X  Y )  E( X)  E( Y )

1.6 - Variância

A variância de uma variável discreta ou contínua é a esperança do


quadrado do desvio da variável em relação à esperança desta variável, ou seja:

VAR ( X)  E X  E( X) 2 
Além de medir a dispersão de uma distribuição de probabilidade, o termo
variância pode também ser aplicado em estatística descritiva para uma população
ou amostra.
As propriedades da variância de uma variável são as seguintes:
1) VAR( X  C )  VAR( X )
2) VAR(CX )  C 2 VAR( X )
3) VAR( X  Y )  VAR( X )  VAR(Y )  2 E   X  E ( X ) Y  E (Y ) 
1.7 - A Distribuição Normal

Uma variável aleatória contínua X, com uma faixa de possíveis valores de


  a   e com uma esperança  x e um desvio padrão  x , tem uma distribuição
de probabilidade normal, se e somente se, sua função densidade de
probabilidade é dada por

1   X   x 2 
f (X )  exp.     
2  x   x  
Quando plotamos f(X) contra X obtemos uma figura em forma de sino. A
curva obtida é simétrica em relação ao valor  x e a área sob a curva é igual a 1.

Pode ser verificado que E ( X)   x e E X   x 2   2 x .
A distribuição normal desempenha papel central para os modelos
estatísticos usados em análise de variância e regressão linear múltipla.

1.8 - Distribuição Normal Padronizada

Consideremos a distribuição normal de uma variável aleatória X, com


esperança  x e desvio padrão  x . Podemos definir uma nova variável aleatória z
X  x
onde z  . Uma vez que  x e  x são constantes, z também tem uma
x
distribuição normal e para todo valor de X há um valor correspondente de z.
 X  x 
E ( z )  E    E ( z ) 
1
E X   x   E ( z ) 
1
 E ( X)   x   0
 x  x x

A variância de z é

VAR ( z )  E z  E( z )
2

2
 X  x 
VAR ( z )  E   0 
 x 
1
 x

VAR ( z )  2 E X   x 
2

1
VAR ( z )  2   2 x  1
 x
A variável aleatória z tem média 0 e desvio padrão 1 e é dita ter uma
distribuição normal padronizada. Existem tabelas de probabilidades de z que
podem ser utilizadas para qualquer variável normalmente distribuída.
1.9 - Distribuição Amostral da Média

Nas discussões sobre a análise de variância e de regressão, faz-se uso


constante de variáveis aleatórias denominadas de estatísticas. Uma estatística é
uma variável aleatória cujos valores são calculados a partir de dados amostrais.
Ela é uma variável aleatória porque o mesmo cálculo, para diferentes amostras de
uma mesma população, pode produzir diferentes valores da variável. A variância
deste tipo de variável depende do tamanho da população, da variância da
n
população e do tamanho da amostra. Por exemplo, X   X i é uma estatística
n
i 1
chamada de média da amostra.
Uma estatística, sendo uma variável aleatória terá uma distribuição de
probabilidade, que é chamada de distribuição amostral; seu desvio padrão é o
erro padrão da estatística.
A distribuição da média ( X) é descrita por dois teoremas: um fornece a
esperança e a variância e o outro a forma da distribuição.
Teorema: Se uma população infinitamente grande tem média  x e desvio
padrão  x , então E( X)   x e VAR( X)   2 x   2 x n .

Teorema do Limite Central: Se uma população infinitamente grande tem


média  x e desvio padrão  x , a distribuição da média amostral X aproxima-se da
distribuição normal com média  x e desvio padrão  x   x à medida que o
n

tamanho da amostral (n) aumenta.


Geralmente uma amostra de tamanho 30 é grande o suficiente para X ter
distribuição aproximadamente normal. Se a distribuição da população é normal
então a distribuição de X é exatamente normal, independente do tamanho de n.
X  x
Quando X tem uma distribuição normal, z  tem uma distribuição
x
normal padronizada e pode ser usada para fornecer probabilidades.

1.10 - A Distribuição t
Considere a distribuição z 
X    .
x
Suponhamos que  x não seja
x
conhecido, mas que pode ser estimado a partir do desvio padrão amostral, ou
1

 
 n
2 2

 Xi  X 
seja, usamos S x   i1  para estimar x .
 n 1 
 
 
Porque Sx e X são variáveis aleatórias, usamos um símbolo diferente, t
 X    , logo: t  X    X  
S / n
x x x
para a estatística .
x
S / n x
S x

A distribuição t apresenta-se mais dispersa do que a distribuição z. Isto


ocorre porque a presença de outra variável aleatória S x acrescenta variabilidade
a esta estatística t. A quantidade adicional de variabilidade é função de n. À
medida que o tamanho da amostra aumenta, a estimativa S x torna-se mais
estável. Quando n é maior que 30, o S x torna-se suficientemente estável (próximo
a  x ), de tal forma que z e t são praticamente idênticos.
Tabelas para t não são colocadas em termos de n mas de v, com v  n  1,

uma quantidade que é chamada graus de liberdade para a estatística X   x / S x . 
As tabelas de t geralmente contém valores de v apenas até v  30 . Após este
valor a distribuição normal padronizada é utilizada. Pode ser notado que a tabela
de t é geralmente menos completa do que a tabela normal padronizada porque
ela é usada principalmente para estimação e testes de hipóteses. Nestas
aplicações apenas certos valores de probabilidade são tradicionalmente
utilizados.

1.11 - A Distribuição F

Considere a estatística S 2 y / S 2 x que é calculada a partir de dados


tomando-se uma amostra de tamanho ny da distribuição normal de y e outra de
tamanho nx da distribuição normal de x.
Se ocorre que, S 2 y  S 2 x a estatística S 2 y / S 2 x tem uma distribuição de
probabilidades chamada de distribuição F, cuja forma é função do tamanho das
amostras. A estatística F é uma razão entre duas outras estatísticas, portanto,
tem dois valores de graus de liberdade (um para o numerador e outro para o
denominador).

1.12 - Inferências para a Variância e o Desvio Padrão (A Distribuição 2)


 X  X
n
2
i
i 1
S2  é o estimador de 2 .
n 1
Para fazer inferências (intervalo de confiança, teste de hipóteses) deve ser
considerada a distribuição amostral de S2 que é representada por uma nova
distribuição denominada de  2 (qui-quadrado), cuja forma depende de n-1.

Definição da Distribuição  2 : Seja X1, X 2 , ..., Xn variáveis com distribuição

 X 
n
2
i X
(n  1)S 2
normal, ou seja, N , . Então a distribuição de  2  i1
 é
2 2
chamada de uma distribuição  2 com n-1 graus de liberdade. Isto ocorre porque
na realidade temos que:
se z1, z 2 , ..., z n são variáveis aleatórias independentes, com distribuição
normal padrão, então a distribuição de  2 k  z 21  z 2 2 ...  z 2 k é chamada de uma
distribuição  2 com g.l.=k.
Xi   n
Mas zi 

, i  1, 2, ..., n são independentes N(0,1) , logo z
i1
2
i 

 (X
1
i   ) 2 tem uma distribuição  2 n .
2 i1

Analogamente temos que S 2 (n  1) /  2 tem distribuição  2 com n-1 graus


de liberdade.
A curva densidade de probabilidade de uma distribuição  2 é assimétrica
sobre o lado positivo e tem uma longa cauda. A forma da curva depende do valor
dos graus de liberdade.

P(  2 )

 

 21  2 2

FIGURA 01. Distribuição  2 .

O ponto superior  2  indica o valor de  2 tal que a área à sua direita é  ; o


ponto inferior  21 tem uma área 1   à sua direita.
Seja a determinação probabilística de um intervalo de confiança 95% para
 :
2

 
P  2 0,975  n  1 S 2 /  2 0,025  0,95
Como (n  1) S 2 /  2   2 0,025 eqüivale (n  1) S 2 /  2 0,025   2 e
 2 0,975  (n  1) S 2 /  2 eqüivale  2  (n  1) S 2 /  2 0,975 , temos que

Î0,95  (n  1) S 2 /  2 0,025   2  (n  1) S 2 /  2 0,975

Para o desvio padrão ( ) , o intervalo de confiança 1  torna-se:


 n 1 n 1 
Î0,95   S 2 ,S 2 
  0,025  0,975 
 
Para um teste da hipótese nula H 0 : 2   02 emprega-se naturalmente a
estatística S2 . Se a hipótese alternativa é unilateral H a : 2   02 , então a região de
rejeição consistiria de grandes valores S2 , ou alternativamente de grandes valores
do teste estatístico  2  (n  1) S 2 /  02 . Portanto, a região de rejeição do teste, ao
nível  de probabilidade é:
R : (n  1) S 2 /  02  2 com g.l. = n-1.

Para uma alternativa bilateral, H a :  2   02 , a região de rejeição, ao nível


 de significância é:
(n  1) S 2 (n  1) S 2
R:  12 / 2 ou  12 / 2
 2
0  2
0

Deve ser enfatizado que estes procedimentos de inferência para  2 são


extremamente sensíveis a afastamentos de população normal.

1.13 - Estimação

As estatísticas descritas anteriormente, juntamente com outras que serão


estudadas posteriormente, são as mais adequadas para os propósitos de
estimação de parâmetros populacionais (média, variância) e teste de hipótese
acerca destes parâmetros. As estatísticas são denominadas de estimadores.
Julga-se a qualidade de um estimador (ou estatística) pelos critérios de
tendência (ou viés), quadrado médio do erro, consistência e máxima
verossimilhança:
a) Tendência: Um estimador  , para o parâmetro  , é dito ser não tendencioso
se, e somente se, E( )  , isto é, se num longo ensaio a média da variável
aleatória  é  (o valor do parâmetro). Por exemplo X é um estimador não
tendencioso de  x (a média da população), porque E( X)   x . Da mesma
forma, S2 x é um estimador não tendencioso para 2 x (a variância populacional).
O divisor n-1 é utilizado na equação de estimação da variância porque o
uso de n poderia resultar em um estimador tendencioso. A falta de tendência é
uma propriedade desejável em um estimador, mas não necessariamente
indispensável.
b) Quadrado Médio do Erro: O quadrado médio do erro de um estimador  é
E     , ou seja, é a esperança do quadrado de seu desvio em relação ao
2

parâmetro  . Para um estimador não tendencioso o quadrado médio do erro é


obviamente igual a variância do estimador.
Um estimador não tendencioso com uma menor variância do que outro
estimador não tendencioso é dito ser relativamente mais eficiente (ou de menor
 
variância). Se E  X   x   E M̂   x , diz-se que X é um estimador mais
2 2

eficiente do que M .
c) Consistência: Um estimador é dito ser consistente se, e somente se, valores
de  podem ser convergidos para  pelo aumento do tamanho da amostra. Por
exemplo, ( X  1/ n 2 )   x à medida que n   ; entretanto, ( X  1/ n 2 ) é um
estimador tendencioso para  x porque E ( X  1/ n 2 )   x  1/ n 2   x .

d) Máxima Verossimilhança: Dado um conjunto de observações amostrais


qualquer, escolhemos como seu estimador de  , o estimador  que maximize
a probabilidade (ou densidade de probabilidade) de obter aquelas observações.
Por exemplo, o estimador X é um estimador de máxima verossimilhança para
 X ; entretanto, S2 x não é um estimador de máxima verossimilhança para 2 x ,
mas (n  1) S 2 / n é. O princípio de máxima verossimilhança é um bom método
para se buscar estimadores.

1.14 - Intervalos de Confiança

Sempre que obtemos uma estimativa para um parâmetro nos defrontamos


com a questão central de saber quão boa é a estimativa obtida. Podemos avaliar
indiretamente, cotando as propriedades do estimador, tais como não
tendenciosidade e consistência, mas geralmente a questão é abordada de outra
forma.
Suponhamos um estimador  com desvio padrão   e esperança E(  )   ,
que é usado para obter uma estimativa de  . Consideremos uma nova estatística,
na forma de um intervalo:
 
Î1  ˆ  z  2  ˆ    ˆ  z  2  ˆ .

Se z  2  1,960 , então 95% dos intervalos englobam  . Se z  2  1,645 , então


90% dos intervalos contém  .
A regra é que se z  2 é um valor de z tal que  / 2 (100%) é a
porcentagem da área a direita dele, então (1  ) (100%) dos intervalos contém  .
É mais comum dizer que I1 é o intervalo de  , ao nível de confiança de (1  )
(100%).
Freqüentemente não conhecemos o erro padrão do estimador que
escolhemos para usar, mas pode-se obter uma estimativa dele a partir de uma
amostra. Neste caso, a distribuição t , com os graus de liberdade apropriados, é
 
utilizada para estabelecer o intervalo, que torna-se Î1  ˆ  t  2 Sˆ    ˆ  t  2 Sˆ ,
onde S é um estimador para   .

1.15 - Teste de Hipóteses

Este é um conceito muito importante em estatística. Fazemos uma


suposição acerca de um parâmetro populacional e então calculamos uma
estatística a partir de uma amostra da população. Se o valor da estatística é
improvável, dado a suposição, rejeitamos a suposição ou hipótese.
A hipótese nula sempre é a suposição que está sendo testada e
desejamos saber se há argumento estatístico para rejeitá-la. A hipótese
alternativa oferece uma alternativa para a hipótese nula.
A região crítica é definida como o conjunto dos valores da estatística que
podem levar à rejeição da hipótese nula. Porque a estatística é uma variável
aleatória, é possível que o valor da estatística caia na região crítica mesmo que a
hipótese nula seja verdadeira. É também possível que a estatística não caia na
região crítica quando na realidade a hipótese nula é falsa. Ambos os
acontecimentos levam-nos a tomar uma decisão errada. Estas decisões erradas
são chamadas de erros Tipo I e Tipo II, respectivamente.
A probabilidade do erro Tipo I aceitável num teste de hipótese é chamada
de probabilidade de significância que tem como símbolo  ; a região crítica é
determinada de acordo com o nível de significância escolhido.

Não rejeita Ho Rejeita Ho


Ho é verdadeira Decisão correta Erro Tipo I
Ho é falsa Erro Tipo II Decisão correta

1.16 - População e Amostra

Uma população estatística é uma coleção de números que representam a


totalidade das medições de alguma característica, para o grupo inteiro de
unidades que é o alvo de uma pesquisa.
Uma amostra de uma população é o conjunto de medições que são
realmente coletadas no decorrer de uma pesquisa.
No estudo da produtividade de determinada planta sob uma condição
climática específica, a população estatística de produtividade é a coleção de
todas as medições de produtividade que pudermos apenas imaginar, se a planta
foi extensivamente cultivada em todas as regiões geográficas com a condição
climática particular e este processo foi repetido anos após anos. Uma amostra é
uma parte desta população infinita, ou seja, é o conjunto de medições de
produtividade realmente anotadas no curso de um experimento, que resultaram
do cultivo de um certo número destas plantas, numas poucas localidades com a
dada condição climática.
Obviamente que os dados amostrais variarão quando o experimento for
repetido em diferentes ocasiões, enquanto que a população (mesmo que não
exista na realidade) é vista como um corpo de números estáveis, infinitamente
grande e imensurável.
O processo de pesquisa experimental pode ser visto como um esforço para
se obter o entendimento da população baseando-se na informação incompleta
adquirida pela amostragem.
Define-se várias estatísticas que são calculadas a partir de uma amostra e
utilizadas para descrever um conjunto de dados. Correspondendo a estas
estatísticas existem os parâmetros da população, que são números que
descrevem a população. As estatísticas da amostra são estimativas dos
parâmetros da população.
De um lado tem-se a população e do outro a amostra. O propósito da
inferência estatística é fazer afirmações significantes e apropriadas relacionadas
com os parâmetros da população, quando tudo que se tem disponível são as
estatísticas da amostra, onde está sempre presentes a variação e o acaso.

CAPÍTULO II

DESCRIÇÃO DE DADOS

2.1 - Introdução
O estudo descritivo de dados refere-se à sumarização dos mesmos por
meio do cálculo de algumas medidas numéricas e/ou construção de gráficos. Com
a utilização desta técnica, os dados são resumidos e os aspectos importantes são
evidenciados. São computados indicadores de centro e de variabilidade, bem
como distribuições de freqüências dos dados.

2.2 - Distribuição de Frequências

Distribuição de freqüência é a designação para dados dispostos em grupos


ou categorias, ou seja, para dados grupados. Portanto, uma distribuição de
freqüência é um agrupamento de dados em classes com o número ou
percentagem de observações em cada classe.
Isso proporciona uma forma de visualizar um conjunto de números sem
precisar levar em conta os números individuais e pode ter grande utilidade
quando precisamos lidar com grande quantidade de dados. O número ou
percentagem correspondente a uma classe chama-se freqüência da classe. Uma
distribuição de freqüência pode ser representada sob forma gráfica ou tabular.
Construção de uma distribuição de freqüência para dados contínuos:
1°) Determinar o intervalo dos dados;
2°) Determinar o número de classes (K);
3°) Calcular a amplitude de classe, que é dada por (intervalo) / K. Certifica-se de
que k vezes a amplitude de classe é maior que o intervalo, pois de outra
forma, os valores extremos não serão incluídos;
4°) Estabelecer os limites de classe preliminares, rever os limites que devem
tocar-se sem interceptar-se;
5°) Relacionar os intervalos de classe e fazer a contagem dos ítens por classe;
6°) Construir uma tabela ou um histograma de freqüência.
Para a determinação do número de classes tem-se as fórmulas empíricas
seguintes: K  N , tal que 5  k  15; K  2,54 N , tal que 7  k  20 (fórmula de
Yule); K  1  3,22 log10 N (fórmula de Sturges).
Construção de uma distribuição de freqüência para dados discretos:
Quando da construção de uma distribuição de freqüência para dados
contínuos, perde-se certa quantidade de informações porque os valores
individuais perdem sua identidade quando são grupados em classes. Isto pode ou
não ocorrer para dados discretos, dependendo da natureza dos dados e dos
objetivos do pesquisador. Se construímos intervalos de classe para dados
discretos perdemos informações.
Construção de uma distribuição de freqüência acumulada:
A distribuição de freqüência acumulada tem por objetivo indicar o número
ou percentagem de ítens menor que ou igual a um determinado valor. As
distribuições de freqüência simples podem ser facilmente transformadas em
distribuições acumuladas somando-se sucessivamente os dados das freqüências
de classes. Pode-se indicar também o número de ítens maior que ou igual a
determinado valor. No primeiro caso a acumulação começa do valor mais baixo
para o mais alto e no segundo caso do valor mais alto para o mais baixo.

EXEMPLO DE APLICAÇÃO:

1) Consideremos os dados do quadro a seguir, que representam a safra anual de


quarenta árvores frutíferas.

QUADRO 01. Safra anual (kg/árvore).

11,1 12,5 32,4 7,8 21,0 16,4 11,2 23,3


4,4 6,1 27,1 32,8 18,5 16,4 15,1 6,0
10,7 15,8 25,0 18,2 12,2 12,6 4,7 23,5
14,8 22,6 16,0 19,1 7,4 9,2 10,0 26,2
3,5 16,2 14,5 3,2 8,1 12,9 19,1 13,7

a) Construa um histograma e um polígono de freqüência para os dados.


b) Estabeleça uma distribuição de freqüência acumulada para os dados.

Resolução:
Para determinar o número ideal de classes é necessário:
1°) Determinar o intervalo dos dados  32,8  3,2  29,6 .
2°) Decidir quanto ao número de classes. Regra prática: n, 5 — 15

k  n, 5  k  15

40  6,32 (6 ou 7 classes) Yule: k  2,5 4 N


 5  omitedet alhes
 K (amplitude) > Intervalo, para abranger
 15  muitodet alhada
extremos.
3°) Dividir o intervalo pelo número de classes
Intervalo / k  29,6 / 6  4,93  5 , para obter a amplitude de classe.
4°) Estabelecer os intervalos de classe, começando com um inteiro logo
abaixo do menor valor
1ªclasse : 3 — 8(3a  8)(3 — 8] Intervalo fechado à esquerda e aberto à direita.

2ªclasse : 8 — 13(8a  13)

3ªclasse: 13 — 18(13a  18)


Deve haver uma classe para cada valor e um determinado valor deve
pertencer a uma só classe, ou seja, não deve haver lacunas nem
interceptação de classes.
5°) Fixadas as classes cada item será enquadrado numa classe mediante
contagem; as freqüências podem ser apresentadas na forma de tabelas ou
gráficos.
 No histograma de freqüência as fronteiras das barras coincidem com os
extremos dos intervalos de classe.
k (amplitude de classe) > intervalo

Classes Contagens
3— 8 8
8 — 13 10
13 — 18 9
18 — 23 7
23 — 28 4
28 — 33 2

Produção Número de Árvores Porcentagem de Árvores


(Kg/árvore) (fi) (fr)
<3 0 0,0
3— 8 8 8/40 (100) = 20,0
8 — 13 10 25,0
13 — 18 9 22,5
18 — 23 7 17,5
23 — 28 4 10,0
28 — 33 2 5,0
> 33 0 0,0
Total (n) 40 100,0
fi = freqüência absoluta.
fr = freqüência relativa.
FIGURA 02. Histograma e polígono de freqüência relativa para safra de
40 árvores frutíferas.

Produção Freq. Absoluta Freq. Acumulada Freq. Acumulada


(Kg/árvore) (fi) (fa)b-a (fa)a-b
3— 8 8 8 40
8 — 13 10 18 32
13 — 18 9 27 22
18 — 23 7 34 13
23 — 28 4 38 6
28 — 33 2 40 2

Freqüência Total = 40

Obs.: Na prática não é necessário calcular os dois conjuntos de freqüências


acumuladas.

2.3 - Medidas de Posição e de Dispersão

2.3.1 - Medidas de Posição ou de Tendência Central


As medidas de posição são calculadas para indicar um valor que tende a
tipificar um conjunto de números. As três medidas mais usadas são a média, a
mediana e a moda.
1º) Média: A média de uma amostra é representada por X (ou m̂ ) e seu cálculo
pode expressar-se em notação signos da seguinte forma:
n

X
i 1
1
X  m̂  , com i=1, 2, ..., n.
n
É a medida de tendência central mais utilizada porque:
a) A média de um conjunto de números pode sempre ser calculada;
b) Para um dado conjunto de números a média é única;
c) A média é afetada por todos os valores do conjunto de números;
d) Somando-se, subtraindo-se, multiplicando-se ou dividindo-se cada valor do
conjunto de números por uma constante, a média ficará modificada do
valor desta constante;
e) A soma dos desvios dos números de um conjunto em relação à média do
conjunto é zero;
f) A soma dos quadrados dos desvios em relação à média é mínima.
2º) Média Ponderada: A média ponderada, diferentemente da média aritmética,
supõe que as observações têm importância diferente. O cálculo da média
ponderada deve levar em conta os pesos desiguais dos valores:
n

p X
i1
i i
MP  , onde pi é o peso da observação de ordem i.
p i1
i

3º) Mediana: Sua característica principal é dividir um conjunto ordenado de dados


em dois grupos, de tal forma que a metade terá valores inferiores à mediana e
a outra metade terá valores superiores à mediana. Para encontrar a mediana
deve-se colocar os valores em ordem crescente e em seguida identificar o
valor do meio do conjunto que é a mediana. A mediana não pode ser
calculada; a ordenação pode ser enfadonha; a mediana é relativamente
insensível aos valores extremos de um conjunto de números.
4º) Moda: A moda é o valor que ocorre com maior freqüência num conjunto de
números. A moda funciona como medida descritiva quando se trata de contar
dados, como ocorre nas distribuições de freqüência.

2.3.2 - Medidas de Dispersão


As medidas de dispersão fornecem uma idéia sobre a variabilidade dos
dados. As principais medidas de dispersão são a amplitude, o desvio médio, a
variância e o desvio padrão.

1º) Amplitude Total: É representada pela diferença entre o maior e o menor valor
do conjunto de números.

2º) Desvio Médio Absoluto: É representado pela média dos desvios dos valores
em relação à média. É dado por:
n

X
i1
i X
DMA  , onde n é o conjunto de observações do conjunto de
n
números.

3º) Variância: Calcula-se a variância de uma amostra de forma semelhante ao


cálculo do desvio médio com apenas duas diferenças:
a) Os desvios são elevados ao quadrado antes da soma;
b) Calcula-se a média dos quadrados dos desvios dividindo-se a soma por n-1
em lugar de n, porque isto fornece uma melhor estimativa da variância
populacional.

 X 
n
2
i X
i1
Calcula-se a variância pela seguinte fórmula: S 2  .
n 1
Uma fórmula alternativa para o cálculo da variância é:
X i
2
  X  i
2
/n
S2  . Esta fórmula é mais fácil de usar porque não exige o
n 1
cálculo da média, nem de cada um dos desvios.

4º) Desvio Padrão: O desvio padrão é a raiz quadrada positiva da variância, que
é dado por:

S
 X  X i
2


X i
2
  X 
i
2
/n
n n 1
O desvio padrão é uma das medidas de dispersão mais comumente usadas
para distribuições de probabilidade e desempenha papel relevante em toda a
estatística. A unidade do desvio padrão é a mesma da média enquanto que a
variância se exprime um quadrado da unidade da média.
5º) Erro Padrão da Média: O erro padrão da média informa sobre a precisão da
S
estimativa obtida para a própria média. É dado por S( x )  S(m̂)  , onde n é
n
o número de observações e S o desvio padrão da amostra.

6º) Coeficiente de Variação: Fornece uma idéia sobre a precisão de uma


amostragem e/ou um experimento, numa base relativa (percentagem). É dado
S
por CV  (100) , onde S é o desvio padrão e X a média da amostra.
X

EXEMPLO DE APLICAÇÃO:

1) As produções de alfafa obtidas em 10 parcelas foram: 1,9; 3,2; 3,7; 4,2; 4,2;
4,4; 4,9; 4,9 e 5,4 toneladas por hectare. Calcule as medidas descritivas
seguintes:
a) Estimativa da média;
b) Variância ou quadrado médio;
c) Desvio padrão;
d) Erro padrão da média;
e) Coeficiente de variação.
n

X
i1
i
1,9  3,2    5,4
a) m̂    4,170 t / ha
n 10

b) SQD   Xi 2   Xi  / n
2

X  1,9   3,2    5,4   183,370


2 2 2 2
i

SQD  183,370 
41,70 
2
 9,4810 t / ha 
2

10
S 2  V̂ X    1,05344 t / ha 
SQD 9,4810

2

n 1 10  1

SQD
c) S  S 2   1,05344  1,02637 t / ha
n 1
S 1,02637
d) S (m̂)  S ( X )    0,32457 t / ha
n 10
Assim, uma forma mais correta de expressar a estimativa da média é
4,170  0,3246 t / ha .

100 S 100 1,02637


e) CV    24,61%
m̂ 4,170

2.4 - Medidas Descritivas para Dados Grupados

2.4.1 - Média de uma Distribuição de Freqüência


Usa-se uma variante da fórmula de cálculo da média ponderada, onde os
n

f X
i1
i i
pesos são substituídos pelas freqüências das classes e a fórmula fica X ,
f
i1
i

onde fi é a freqüência da classe de ordem i e f i  n  número de observações.

Se o grupamento causa perda de informação, os X i são dados pelos


pontos médios das classes e a média é uma aproximação.

2.4.2 - Moda de uma Distribuição de Freqüência


Indica a porção da distribuição que tem a maior freqüência de ocorrência.
Quando há perda de informação a moda se refere a uma classe modal e não a
um único valor.

2.4.3 - Variância e Desvio Padrão de uma Distribuição de Freqüência


A variância de dados grupados é dada por:
2
 n 
 f X 
n n

 
fi Xi   fi X i 
2 2
i i X
S 
2 i1

i1  i1 
n 1 n 1
O desvio padrão é a raiz quadrada positiva da variância. Para uma
distribuição sem perda de informações, os valores de variância serão exatos; se
houver perda de informação, os X i serão os pontos médios e os resultados serão
apenas aproximados.
Nesta fase, é necessário relacionar alguns pontos, a serem observados na
escolha da medida apropriada, que são os seguintes:
a) Propósito para o qual o sumário descritivo é realizado;
b) Facilidade de interpretação;
c) Grau de proteção da observação original;
d) Potencial para uso nos processos de inferência estatística;
e) Simplicidade de cálculo.
EXERCÍCIOS DE FIXAÇÃO:

1) No quadro apresentado a seguir tem-se o número de perfilhos em dois tipos


diferentes de plantas de cevada. Um tipo foi uma cevada normal (AcAc) e o
outro uma cevada heterozigota para um fator letal (Acac).

Nº de Perfilhos Plantas Heterozigotas Plantas Normais


por Planta (Frequências) (Frequências)
1 5 7
2 14 9
3 51 28
4 62 33
5 63 31
6 41 19
7 21 12
8 12 4
9 5 1
10 1 0
11 0 1
12 0 0
13 1 0
Totais 276 145

a) Construa os polígonos de freqüência.


b) Calcule a média e o erro padrão da média para os dois conjuntos de dados.
c) Calcule a freqüência relativa acumulada para os dois casos.
d) O fator total parece ter efeito detrimental para o crescimento da cevada?

2) Os dados do quadro seguinte foram coletados por Emerson (1913) para


estudar a herança do tamanho de espiga em milho. As medições são dadas em
comprimento de espigas (cm) para o híbrido 60x54.

15 13 10 12 13 10 13 15 11 10
10 13 15 12 13 14 14 14 11 10
13 12 11 12 11 12 10 13 14 12
11 11 14 10 19 10 11 13 13 14
12 11 10 14 11 13 12 13 13 10
11 12 12 11 13 12 10 13 12 10
11 13 14 13 12 15 14 12 13 10

a) Preparar uma tabela de freqüência para esses dados e calcule a freqüência


relativa.
b) Construa um histograma de freqüência.
c) Calcule a média e o coeficiente de variação.
d) Se o tamanho de espiga desejado no comércio é igual ou maior que 13 cm,
as sementes deste híbrido seriam boas para comercialização?

3) Três diferentes variáveis estão abaixo representadas por uma pequena


amostra:
(X) (Y) (Z)
Produtividade de Peso ao nascer Duração do parto
alfafa (t/ha) de bezerros (kg) em suínos (h)
1,9 47 12
3,9 41 8
3,9 34 9
Continua...
Continuação...
(X) (Y) (Z)
Produtividade de Peso ao nascer Duração do parto
alfafa (t/ha) de bezerros (kg) em suínos (h)
4,9 45 11
4,9 46 12
4,9 25 10
4,9 48 4
4,9 37 7
5,9 47 10
5,9 40 8

a) Caracterize cada uma das variáveis através das estatísticas descritivas


(média e desvio padrão).
b) Quais das variáveis você consideraria a mais instável e a menos instável?
Por quê?

4) Suponha que você solicitado a solucionar as questões apresentadas a seguir,


como você as resolveria?
a) Admitindo-se que seja de 20% o coeficiente de variação relativo ao peso de
cabeças de repolho; pergunta-se quantos repolhos devemos pesar para
obter erro padrão da média igual a 5% dela?
b) Suponha que lhes sejam apresentadas as médias Y1  37, Y2  41, Y3  28 ,
de pesos ao nascer de bezerros, baseadas em 50, 20 e 10 observações,
respectivamente. Se você for solicitado a escolher uma única média como
sendo a melhor, qual seria a sua escolha? Por quê?
c) O que é mais importante: uma população cujo erro da média seja alta ou
uma população com baixo erro da média. Considere exemplos hipotéticos e
discuta-os.
CAPÍTULO III

PLANEJAMENTO DE EXPERIMENTOS AGRÍCOLAS

3.1 - Introdução

A grande importância da estatística para a experimentação agrícola está


relacionada, principalmente, com o fato de que existe um estreito relacionamento
desta com o método científico, o qual consiste das seguintes etapas básicas: (1)
definir cuidadosamente o problema; (2) certificar-se de que é clara a finalidade de
um estudo, ou seja, estabelecer objetivos claros e precisos; (3) formular um plano
para a coleta dos dados adequados ao teste da hipótese formulada; (4) resumir,
analisar e interpretar os dados; e (5) ressaltar as conclusões de maneira que
sejam facilmente entendidas por quem as for utilizar na tomada de decisões. A
estatística tem papel preponderante nas etapas (3) e (4), onde é utilizada de
forma bastante extensa.
No processo de desenvolvimento de pesquisa não experimental (Figura
03) são feitas comparações entre observações iniciais e outras observações feitas
muito tempo depois e, freqüentemente, em locais diferentes. As comparações são
feitas com base na previsão das conseqüências lógicas de uma hipótese
formulada. Deste fato decorre o aparecimento de muitas mudanças
circunstanciais que se somam àquelas escolhidas pelo pesquisador, o que diminui
a precisão da pesquisa.
No caso da pesquisa experimental (Figura 04), ao invés de imaginarmos
previsões que possam ser testadas através da observação, em condições
naturais, podemos impor novas condições experimentalmente, o que apresenta
as seguintes vantagens:
1ª) Podemos delinear o experimento desejado e, em muitos casos, executá-lo
imediatamente;
2ª) Em vez de as observações serem feitas entre dois estágios muito distantes entre si (1 e
4), elas passam a ser feitas no âmbito do estágio 4, tornando-se comparações
experimentais, o que permite maior precisão;
3ª) As condições ou os tratamentos podem ser muito mais abrangentes do que as condições proporcionadas
pela natureza, na pesquisa não experimental.
FIGURA 03. Esquema formal representativo do processo de
pesquisa não-experimental.

FIGURA 04. Esquema formal representativo do processo de


pesquisa experimental.

3.2 - Terminologia Básica


3.2.1 - Experimento
O experimento (ou ensaio) é uma “pergunta” planejada e executada de
propósito, com o objetivo de testar determinada hipótese. Portanto, o experimento
é a unidade fundamental da pesquisa experimental e por isso deve ser planejado,
desenvolvido, analisado e interpretado cuidadosamente, para a obtenção de
informações confiáveis e eficazes.

3.2.2 - Parcela ou Unidade Experimental


É a unidade básica (porção de material experimental) do experimento, na
qual são aplicadas (manipuladas) diferentes formas de um determinado fator (ou
fatores) em estudo e para as quais respostas são avaliadas. A unidade de
observação é a porção da unidade experimental onde são realizadas as
observações e medições. Em alguns casos a unidade de observação é a própria
unidade experimental.

3.2.3 - Fatores
São os diferentes tipos de condições (procedimento ou meio físico) que são
aplicados (manipulados) nas parcelas. Os fatores a serem estudados
(pesquisados) são definidos de acordo com as hipóteses e objetivos do
pesquisador com base na sua experiência e, ou informações da bibliografia
pertinente. Por exemplo: variedades, adubos, pesticidas, métodos de preparo de
solo, métodos de irrigação, lâminas de água, temperatura, tempo, dentre outros.

3.2.4 - Níveis de Fatores


Os diferentes modos de presença de um fator são chamados de níveis do
fator. A escolha dos níveis e do número dos mesmos é de importância
fundamental na consecução dos objetivos do experimento.

3.2.5 - Tratamento
Cada combinação específica dos níveis de diferentes fatores é chamada de
tratamento; o efeito de cada tratamento deve ser medido e comparado com outros
tratamentos. Quando o experimento é realizado com apenas um fator, os níveis
do fator constituem os tratamentos.

3.2.6 - Repetições
O número de parcelas sobre as quais um determinado tratamento é
aplicado é chamado de repetições deste tratamento.

3.2.7 - Erro Experimental


É a variação entre unidades experimentais que receberam o mesmo
tratamento. Ocorre devido aos efeitos de fatores não controlados (controláveis ou
não) sobre a variável resposta.

3.2.8 - Técnica Experimental


A determinação e utilização de uma técnica experimental refinada, para a
condução do experimento são de responsabilidade de cada pesquisador e afeta
diretamente a qualidade dos dados obtidos. O que se pretende com a utilização
de uma boa técnica de experimentação é o seguinte: (1) assegurar uniformidade
na aplicação dos tratamentos; (2) exercer o máximo controle sobre as influências
externas, de modo que os tratamentos produzam efeitos comparáveis; (3) prover
medidas exatas dos efeitos dos tratamentos; (4) evitar erros grosseiros e
enganos, através de cuidadosa supervisão da execução do experimento e de
verificação dos dados obtidos.

3.3. Planejamento Experimental

3.3.1 Plano para um experimento

O protocolo (ou plano) para um experimento deve incluir pelo menos os


tópicos (questões) seguintes, muitos dos quais estão inter-relacionados:
1. Qual é o propósito (objetivos) do experimento?
2. Quais são os tratamentos? Quantos tratamentos existem, e como eles
foram estruturados antes de serem alocados nas unidades experimentais?
3. Quais os métodos utilizados? Essa seção é de responsabilidade do
pesquisador, mas as respostas podem afetar o delineamento, a casualização e a
análise estatística.
4. Quais são as unidades experimentais (parcelas)? Quantas parcelas
existem, e como elas foram estruturadas antes dos tratamentos serem aplicados?
5. Quais são as unidades de observação? Quantas são? Como elas estão
relacionadas com as unidades experimentais?
6. Quais mensurações serão registradas (anotadas)? Como e quando serão
feitas as anotações? Uma planilha de coleta de dados deve ser delineada.
7. Qual é o delineamento para o experimento? Ou seja, qual o delineamento
clássico, especial ou combinação de delineamentos usados?
8. Justificativa para o delineamento adotado. Por que ele foi escolhido?
9. Qual método de casualização foi usado, e por quê?
10. Qual o esquema produzido pelo processo de casualização? Este pode
ser chamado de croqui do experimento.
11. Qual será a estrutura assumida para a resposta esperada? Geralmente
é assumido que isto depende da estrutura de tratamentos.
12. Qual será a estrutura de covariância assumida para as respostas?
Geralmente é assumido que isto depende da estrutura de parcelas.
13. Qual a análise estatística proposta? A análise estatística poderia ser
“rodada” sobre dados hipotéticos antes de iniciar o experimento.

3.3.2. Algumas terminologias

Para tornar claros os termos usados, são dados os seguintes conceitos:


1. Experimento: é um método de pesquisa explicativa em que é imposta
ou controlada a manifestação de uma ou mais características
explanatórias das unidades da amostra, por meio da imposição de
níveis. Tipicamente, as alternativas de uma ou mais características
explanatórias são alocadas às unidades por processo aleatório objetivo.
O objetivo do experimento é a aproximação do conhecimento de
relações causais entre características respostas e características
explanatórias, com o propósito de melhoria do desempenho dos
sistemas sob pesquisa, por meio do controle da manifestação de
características explanatórias e de características estranhas.
2. Fatores experimentais - de tratamentos e intrínsecos: uma
característica explanatória cuja manifestação dos níveis na amostra é
imposta ou controlada pelo pesquisador é um fator de tratamento ou
fator extrínseco; uma característica explanatória que corresponde a
uma propriedade inerente às unidades, fora do controle do pesquisador
ou sujeitas a seu controle limitado, é um fator intrínseco.
3. Fator experimental qualitativo: é o fator que é expresso por uma
variável nominal e os seus níveis na amostra constituem um conjunto de
todos os níveis sob consideração na população objetivo. Nesse caso,
não há qualquer relação de grandeza ou de ordem entre os níveis do
fator.
4. Fator experimental quantitativo: é o fator que é expresso por uma
variável de escala intervalar ou racional, contínua ou discreta, definida
em um intervalo cujos níveis são valores bem definidos dessa variável.
5. Fator experimental misto: compreende subconjuntos de níveis que se
distinguem qualitativamente e cada dos quais constitui uma estrutura de
um fator qualitativo ou quantitativo. Geralmente, um fator misto resulta da
reunião de níveis que constituem estruturas fatoriais qualitativas ou
quantitativas.
6. Fator fixo e fator aleatório: um fator é aleatório, também chamado de
efeito aleatório, quando os seus níveis são amostrados dentre uma
população de níveis; um fator é fixo, também chamado de efeito fixo,
quando os níveis considerados esgotam todas as alternativas de
interesse. Pela própria natureza, as inferências realizadas sobre os
fatores de níveis fixos são válidas somente para os níveis estudados,
enquanto que para níveis aleatórios, as inferências são estendidas à
população de níveis. A caracterização do fator e sua conseqüente
classificação como fixo ou aleatório, é determinada pelos objetivos do
experimento e deve ser estabelecida no plano do experimento. Para fator
fixo, as inferências correspondem à estimação e testes de hipóteses
referentes às verdadeiras médias dos níveis do fator. Para fator aleatório
tais inferências não fazem sentido; o interesse reside em estimação e
testes de hipóteses referentes ao componente de variância
correspondente ao fator. Os procedimentos estatísticos para essas duas
classes de problemas são caracteristicamente distintos.
7. Material experimental: a amostra utilizada no experimento recebe a
designação particular de material experimental. Assim, o material
experimental compreende as três classes de características da amostra,
ou seja, as características respostas, as características explanatórias e
as características estranhas. A representatividade da população objetivo
por meio do material experimental é de fundamental importância para a
validade das inferências derivadas do experimento.
8. Unidade experimental ou parcela: é a fração do material experimental
a qual é feita uma aplicação simples de um nível de um fator por um
processo aleatório. É conveniente considerar uma unidade experimental
como um sistema que recebe um estímulo ou tratamento, processa esse
estímulo e produz uma resposta.
9. Unidade de observação: é a fração do material experimental em que se
registram valores da variável resposta. A unidade de observação pode
ser a própria unidade experimental ou uma fração desta, constituindo-se,
nesse caso, de um conjunto de unidades de observação.
10. Erro experimental: a variação dos valores observados de uma variável
resposta atribuível às características estranhas compreende o erro
experimental (global) para essa variável resposta. Assim, o erro
experimental é a fração da variação total da variável resposta que
exprime o confundimento dos efeitos das características explanatórias
com efeitos de características estranhas. Entretanto, o erro experimental
que afeta as inferências referentes a relações causais entre variáveis
respostas e fatores experimentais em um experimento pode variar com
as inferências particulares. Nessas circunstâncias, é conveniente o
estabelecimento de conceito mais específico de erro experimental.
11. Erro experimental que afeta as inferências relacionadas a um fator
experimental: é a variação dos valores observados da variável resposta
nas unidades experimentais para esse fator, que é atribuível às
características estranhas que não são controladas por controle local e
por controle estatístico.

3.3.3. Requisitos Básicos de um Plano Experimental

O plano experimental deve garantir que o experimento possibilite derivar as


inferências relevantes referentes aos fatores experimentais. Ele deve
assegurar que o experimento seja conduzido de modo a lograr a precisão e
exatidão desejada, economia de material experimental, de tempo, de recursos
financeiros e de pessoal. O propósito de um experimento é prover a
quantidade máxima de informação relevante aos objetivos do experimento, ao
custo mínimo. A observação de alguns requisitos básicos é fundamental para
a consecução dos objetivos de um experimento.

1. Estimação do erro experimental: Como pode o pesquisador decidir se


diferenças de resultados observados em parcelas do material experimental
com diferentes tratamentos são atribuíveis a diferenças reais entre esses
tratamentos? O procedimento lógico é contrastar aquelas diferenças com
diferenças comparáveis de valores da variável resposta que sejam
atribuíveis exclusivamente às características estranhas do material
experimental, ou seja, ao erro experimental. Se aquelas diferenças são
consideravelmente maiores que as diferenças atribuíveis ao erro
experimental, o experimento indica evidência de diferenças reais entre
tratamentos. Logo, é indispensável que o experimento forneça estimativa do
erro experimental apropriada para as inferências que o experimento visa
derivar.
a. Precisão: a precisão do experimento refere-se à variabilidade do
material experimental atribuível às características estranhas não
controladas por controle local ou controle estatístico. Assim, ela está
relacionada com a variância atribuível ao erro experimental,
usualmente denominada de variância do erro, variância aleatória,
ou variância residual. A precisão do experimento é tanto mais
elevada quanto menor for o erro experimental. A influência da
variância residual na estimativa de uma diferença entre efeitos de dois
tratamentos é expressa pelo seu erro padrão. A magnitude do erro
padrão e, portanto, a precisão de qualquer experimento, depende da
variabilidade do material experimental devida a causas estranhas não
controladas e do número de unidades experimentais. Dessa forma, a
precisão experimental pode ser aumentada por meio de
procedimentos e ações seguintes: (a) escolha de material
experimental homogêneo quanto às características estranhas; (b)
aumento do número de repetições, uma vez que o erro padrão da
média é inversamente proporcional à raiz quadrada do número de
unidades experimentais por tratamento; (c) adoção de controle local
ou estatístico; o controle local permite o controle da variação
estranha relevante correspondente a classificações naturais das
características estranhas do material experimental, que usualmente
constituem fatores experimentais intrínsecos; o controle estatístico é
um procedimento alternativo ou complementar ao controle local, que
consiste no registro de dados de covariáveis que exprimam fontes de
variação relevantes do material experimental e sua conseqüente
consideração nos procedimentos de análise estatística.
b. Validade: a capacidade de o plano experimental detectar diferenças
de tratamentos realmente existentes é tanto mais elevada quanto
maior for a exatidão (acurácia) do experimento, ou seja, quanto
maior for sua precisão e menor seu viés. Experimento válido é o que
não é viesado ou tendencioso, ou seja, o material experimental é
representativo da população objetivo e o experimento é planejado e
conduzido de modo que as inferências dele derivadas sejam livres de
tendências. O viés de um experimento tem dois componentes: o viés
extrínseco, que se origina do erro de amostragem, ou seja, dos
desvios da população amostrada (população fictícia que o material
experimental conceitualmente representa) em relação à população
objetivo, e o viés intrínseco, que se origina do erro experimental, isto
é, do confundimento de efeitos de características estranhas relevantes
com os efeitos causais de fatores experimentais sobre as variáveis
respostas. O viés de um experimento é tão menor quanto menor for o
erro de amostragem e quanto menor for o erro experimental. Dessa
forma, pode-se classificar a validade de um experimento como a
seguir.
c. Validade Interna: a validade interna depende da não tendenciosidade
da estimativa do erro experimental e das estimativas dos efeitos de
tratamentos. O uso de repetições “legítimas” é necessário para a
estimação válida, isto é, não tendenciosa do erro experimental. Mas,
apenas a repetição não é suficiente. Para assegurar a validade é
necessário a casualização na atribuição dos tratamentos às unidades
experimentais.
d. Validade externa: a validade externa requer que o material
experimental seja representativo da população objetivo. A validade
externa é um aspecto crucial em experimentos tecnológicos, que
visam inferências para aplicação à situações reais.
e. Simplicidade: o plano do experimento deve ser tão simples quanto
possível, consistente com os objetivos do experimento. Essa
consideração aplica-se igualmente aos métodos de análise dos
dados. Felizmente, os requerimentos de eficiência do delineamento e
simplicidade dos correspondentes métodos de análise são altamente
correlacionados. De modo geral, para todos os delineamentos
experimentais usualmente mais eficientes estão disponíveis
procedimentos apropriados de análise estatística, desde que certas
pressuposições sejam atendidas. Deve-se sempre ter em mente que
estruturas explanatórias complexas tornam complexas também a
compreensão dos procedimentos de inferência, particularmente sob
certas condições das estruturas de dados.
f. Manifestação dos efeitos reais: (a) os tratamentos usados no
experimento devem ser aqueles que o experimento tem como
propósito testar, de modo que as inferências derivadas sejam
apropriadas para os tratamentos de interesse; (b) o plano do
experimento deve assegurar que os efeitos de tratamentos se
existem, se manifestem; um experimento bem elaborado pode revelar-
se pouco efetivo se a amostra não permitir a manifestação dos efeitos
reais dos tratamentos; (c) deve ser garantido que os efeitos de
tratamentos não resultem confundidos com qualquer fonte de
variação sistemática; o plano experimental deve garantir que todas
as características estranhas sejam controladas, por meio de controle
local ou controle estatístico, ou casualizadas, por meio de processo
objetivo de casualização apropriado para o delineamento estatístico
adotado; em particular, deve ser evitada a presença ou introdução de
qualquer fonte de variação estranha durante a execução do
experimento, que constitua variação sistemática.
g. Fornecimento de uma medida da incerteza: este requisito é
eminentemente estatístico; o plano do experimento deve permitir a
determinação do grau de incerteza das estimativas dos efeitos de
tratamentos e das diferenças entre efeitos de tratamentos; isso é
provido pela estimação de erros padrões, a partir dos quais possam
ser calculados limites de erro para os verdadeiros efeitos de
tratamentos e para as verdadeiras diferenças de efeitos de
tratamentos (referentes à população) para qualquer nível de
probabilidade desejado; dessa forma, significâncias estatísticas de
diferenças entre tratamentos também poderão ser estabelecidas; para
obtenção de uma medida de incerteza válida deve-se dispor de uma
estimativa válida do erro experimental, o que requer que o plano do
experimento satisfaça os requisitos da repetição e da casualização.

2. Exemplo de plano – Controle de doenças em trigo com uso de


fungicidas

População objetivo: Conjunto de lavouras de produção de trigo no Planalto


do Rio Grande do Sul que existirão no intervalo de cinco anos após a
conclusão da pesquisa.

Unidade da população objetivo: Uma lavoura particular que,


conceitualmente, constitui a população objetivo.

Problema de pesquisa: Prejuízo à produção de grãos decorrente de


doenças fúngicas foliares (ferrugem, septoriose e helmintosporiose).

Hipótese de pesquisa: A aplicação de fungicidas disponíveis no mercado


controla a incidência das doenças foliares do trigo, evitando o dano decorrente
para a produção.

Ação de pesquisa: Experimento para a comparação dos efeitos de diversos


fungicidas sobre o controle de doenças foliares e a produção de grãos.
Amostra: conjunto constituído pelas três classes de características das
unidades sobre as quais será conduzido o experimento: características
estranhas, características explanatórias (fatores experimentais) e
características respostas. Esses subconjuntos de características são
especificados a seguir.

Características explanatórias na amostra:


1) Fungicida, com 5 níveis: Mancozeb DF 75%, Ciproconazole 10%,
Propiconazole, Dinaconazole 5% CE e Sem fungicida (Controle).
2) Cultivar, com 3 níveis, uma cultivar de cada um de três níveis de
susceptibilidade às doenças fúngicas da folha, escolhidas entre as
cultivares adotadas na região: BR-23, EMBRAPA 24 e Maringá.
3) Local, com 6 níveis: seis locais escolhidos da região de cultivo de trigo.
4) Ano, com 4 níveis: os quatro próximos anos.

Nesse contexto, o experimento compreende 4 fatores de tratamento: dois


extrínsecos - Fungicidas e Cultivar, de efeitos fixos, e dois intrínsecos – Local
e Ano, de efeitos aleatórios.

Características respostas na amostra: peso da produção de grãos; grau de


incidência de ferrugem, de septoriose e de helmintosporiose na folha;
quantidade de espiguetas por planta; quantidade de espigas por espigueta;
quantidade de grãos por espiga; peso médio e densidade do grão.

Características estranhas na amostra: conjunto de todas as características


da amostra que não constituem características explanatórias ou características
respostas, sendo formado por características referentes: à semente (pureza,
vigor, estado sanitário, etc.), ao ambiente (solo, clima, incidência de pragas,
plantas daninhas e outras doenças), ao manejo (semeadura, tratos culturais,
colheita, etc.), à coleta e registro dos dados (métodos e instrumentos
utilizados) e ao tratamento dos dados.

Características estranhas controladas: (a) por controle local:


características referentes ao solo, principalmente fertilidade, umidade e
profundidade, que exprimam diferenças entre os grupos formados pelo
controle local; (b) por controle estatístico: nesses experimentos nenhuma.

Características estranhas casualizadas: componentes das características


do solo e de outras características permanentes do ambiente, entre parcelas
dentro de cada grupo do controle local.

Características estranhas perturbadoras: características estranhas


potencialmente perturbadoras que se tornem relevantes; por exemplo,
acamamento de plantas e predadores de pragas.

Procedimento experimental: O experimento será conduzido em um terreno


de cada um dos seis locais, na seqüência definida de 4 anos. Cada um desses
terrenos será dividido em 60 talhões (parcelas). Para controle da
heterogeneidade do solo, em cada local e em cada ano, as parcelas serão
classificadas em 4 grupos (blocos) de 15 parcelas numa mesma faixa de nível,
nos terrenos em declive. É usualmente esperado que, nessas circunstâncias,
as 15 parcelas de um mesmo grupo sejam mais homogêneas, especialmente
quanto a características do solo, do que o conjunto global dos 60 talhões de
cada local e anos particulares. Bloco é um fator de agrupamento de efeitos
aleatórios. A assinalação dos tratamentos (combinações dos fungicidas e
cultivares) é procedida separada e independentemente para cada combinação
de local e ano. Em cada local, em cada ano, os 15 tratamentos são atribuídos
aos 15 talhões (parcelas) de cada um dos grupos (blocos), por sorteio
efetuado separada e independentemente para cada grupo, de modo que em
cada grupo cada parcela recebe um tratamento diferente dos tratamentos das
demais parcelas. Assim, cada grupo compreende um conjunto completo dos
15 tratamentos.

Material experimental: Compreende o conjunto dos fatores experimentais


(fungicidas, cultivares, anos e locais) e o conjunto das características
estranhas da amostra.

Unidade experimental: (a) para os fatores fungicidas e cultivares: um talhão


(parcela) corresponde ao conjunto constituído pelas características referentes
aos fatores experimentais e as características estranhas; (b) para o fator local:
o conjunto dos 240 (4 x 60) talhões dos 4 anos de um local particular, incluindo
o subconjunto que lhe corresponde das características estranhas e
características referentes aos fatores experimentais; (c) para o fator ano: o
conjunto dos 360 (6 x 60) talhões dos 6 locais de um ano particular, incluindo o
subconjunto que lhe corresponde das características estranhas e
características referentes aos fatores experimentais.

Unidade de observação: As características respostas relevantes serão


mensuradas na parcela. Portanto, a parcela é a unidade de observação. A
produção de grãos será medida globalmente para os grãos colhidos na área
útil da parcela; o número de espiguetas por planta, o número de espigas por
espigueta, o número de grãos por espiga e peso médio de 1000 grãos serão
mensurados em uma amostra de plantas da parcela, previamente definida; os
graus de incidência de doenças na folha também serão medidos em uma
amostra de plantas da parcela.

Erro experimental: (a) para os fatores experimentais fungicidas e cultivares:


o conjunto dos níveis das características do material experimental referente a
um talhão (parcela). É usual identificar a unidade experimental como um
talhão, entretanto, deve ser entendido que essa identificação abreviada
subtende a consideração do conjunto dos níveis das características
explanatórias, estranhas e respostas referentes ao talhão; (b) para o fator
experimental local: o conjunto global dos 240 (4 x 60) talhões dos 4 anos de
um local particular, incluindo os níveis que lhe correspondem das
características do material experimental; (c) para o fator experimental ano: o
conjunto global dos 360 (6 x 60) talhões dos 6 locais de um ano particular com
os níveis que lhe correspondem das características do material experimental.

3.4. Teoria da Medida

3.4.1. Introdução:

A teoria da medida desenvolve uma discussão epistemológica em torno da


utilização do símbolo matemático (o número) no estudo científico de fenômenos
naturais. Trata-se, portanto, de uma interface entre sistemas teóricos de saber
diferentes, cabendo à teoria da medida a função de justificar e explicitar o sentido
que tal interface possui.

A matemática e a ciência empírica são sistemas de conhecimento muito distintos


e, em termos estruturais, não são comensuráveis. Na verdade, os dois sistemas
têm objetos e metodologias próprias, distintas e irreversíveis entre si. A ciência
tem como referente ou objeto os fenômenos da realidade, ao passo que a
matemática estuda como seu objeto o símbolo numérico (que é um conceito e
não uma realidade empírica e nem uma propriedade desta realidade). A
metodologia da ciência é a observação sistemática e a da matemática é a
dedução. O critério de verdade para a ciência é o teste empírico, ao passo que
para a matemática é a consistência interna do argumento.

Apesar dessa distância epistemológica entre ciência e matemática, a primeira se


apercebeu das vantagens consideráveis que ela pode obter ao se utilizar a
linguagem da matemática para descrever seu objeto próprio de estudo. Na
verdade, se o modelo matemático não dita e nem fundamenta o conhecimento
científico, parece que é o uso deste modelo que vem possibilitando distinguir
níveis de progresso no conhecimento científico.

O uso do número na descrição dos fenômenos naturais constitui o objeto da teoria


da medida. A natureza da medida implica em alguns problemas básicos, dentre
os quais, três devem ser mencionados: a representação, a unicidade e o erro.

3.4.2. O problema da representação ou o isomorfismo: O problema central da


medida consiste em justificar a legitimidade de se passar de procedimentos e
operações empíricos (a observação) para uma representação numérica destes
procedimentos. É justificável designar ou expressar sujeitos ou fenômenos
naturais por meio de números? Sim, é justificável se nesta designação se
preservarem tanto as propriedades estruturais do número quanto as
características próprias dos atributos dos fenômenos e sujeitos empíricos. Trata-
se do teorema da representação, isto é, representar com números (objeto da
matemática) as propriedades dos fenômenos naturais (objeto da ciência).

3.4.3. O problema da unicidade da representação: Será que o número é a


única ou a melhor forma de representação das propriedades dos sujeitos
naturais? Sim, mas esta representação, ainda que seja a melhor, apresenta níveis
diferentes de qualidade ou precisão, dependendo do tipo de características dos
sujeitos que se está focalizando. Assim, para o caso da estatura de planta, o
número representa excelente informação (o metro), enquanto que no caso da
tolerância a fitopatógenos, ele já é menos preciso (por exemplo, incidência, ou
escala de notas, ou classificação, ou produtividade relativa). Esta questão da
representação e de seus níveis gera os níveis da escala de medida, ou seja,
define se a escala obtida será intervalar ou categórica.

3.4.4. O problema do erro: A observação (medição) dos fenômenos empíricos é


sempre sujeita aos erros devidos tanto ao instrumental de observação (os
sentidos e suas extensões por meio de instrumentos tecnológicos), quanto a
diferenças individuais dos observadores, além de erros aleatórios, sem causas
identificáveis. Como toda e qualquer medida vem acompanhada de erros, o
número que descreve um fenômeno empírico deve sempre vir acompanhado de
algum indicador do erro provável, o qual será analisado dentro de teorias
estatísticas para determinar se o valor encontrado está dentro dos limites de
aceitabilidade de medida.
3.4.5. O número matemático: O número matemático é um conceito unívoco (sem
variabilidade de interpretação), ou seja, os números são conceitos pontuais, onde
um número não apresenta nenhuma interseção com o próximo. Assim, 1 é
somente 1, 2 é somente 2, e assim por diante, coisa que não ocorre quando o
número é utilizado para descrever fenômenos naturais, porque nesse caso o
número 1 pode ser mais ou menos 1 e, assim, pode ter interseção com o 2, e
assim por diante. Então, na medida dos fenômenos naturais, o número se
adultera um pouco, perdendo sua identidade pontual e absoluta, para se tornar
um intervalo em vez de ser um ponto sem dimensões. O fato de o número, na
medida, se tornar um intervalo indica que ele já tem variabilidade (variância) e isto
é o erro de medida. Desta forma, o número da medida poderia ser chamado de
número estatístico.

3.4.6. A base axiomática da medida: Há legitimidade no uso do número como


descritor de sujeitos e fenômenos naturais se, e somente se, as propriedades
estruturais, tanto do número quanto dos fenômenos naturais, forem
salvaguardadas neste procedimento. Ou seja, deverá haver isomorfismo estrito
(relação de 1 para 1) entre propriedades do número e aspectos da realidade
empírica.As propriedades básicas do sistema numérico são: identidade, ordem e
aditividade. A medida deve resguardar, pelo menos, as duas primeiras
propriedades.

a) Axiomas do sistema numérico:


Os axiomas, que definem as propriedades numéricas importantes para a medida
são:
1. Identidade – Esta propriedade define o conceito de igualdade, ou seja, que um
número é idêntico a si mesmo e somente a si mesmo. Ela apresenta três axiomas
(postulados aceitos e não provados) que expressam a relação de igual a (=):
- reflexividade: a = a ou a ≠ b; números são idênticos ou são diferentes;
- simetria: se a = b, então b = a;
- transitividade: se a = b e b = c, então a = c; duas coisas iguais a uma terceira
são iguais entre si.
2. Ordem – Esta propriedade se baseia na desigualdade dos números. Todo
número é diferente do outro. Essa desigualdade não é somente de qualidade,
mas também em termos de magnitude, ou seja, um número não é somente
diferente do outro, mas um é maior que o outro. Assim, os números podem ser
colocados numa seqüência invariável ao longo de uma escala linear, ou seja, uma
seqüência monotônica crescente. Os três axiomas desta propriedade expressam
a relação não igual ou maior que (>):
- assimetria: se a > b, então b ≠ a; a ordem dos termos não pode ser
invertida;
- transitividade: se a > b e b > c, então a > c;
- conectividade: ou a > b ou b > a;
- um quarto axioma é o de ordem-densa: números racionais são tais que
entre dois números inteiros quaisquer há sempre um número racional, ou seja, o
intervalo entre dois inteiros não é vazio.
3. Aditividade – Os números podem ser somados, ou seja, podem ser
concatenados de modo que a soma de dois números, excetuando o zero, produz
um outro número diferente deles próprios. Isto significa que as quatro operações
(soma, subtração, multiplicação e divisão – as três últimas são redutíveis à
primeira) podem ser aplicadas aos números. Os axiomas desta propriedade são:
- comutatividade: a + b = b + a; a ordem dos termos não altera o resultado da
adição;
- associatividade: (a + b) + c é igual a a + (b + c); a ordem de associação ou
de combinação dos termos não afeta o resultado.
As quatro operações básicas dos números se reduzem à soma:
Soma: 3 + 2 = 5
Subtração: 3 – 2 = 3 + (- 2)
Multiplicação: 3 x 2 = 2 + 2 + 2
Divisão: 4 ÷ 2 = ½ + ½ + ½ + ½ .

b) Axiomas da medida:
Como a medida consiste na atribuição de números às propriedades dos sujeitos
(objetos, indivíduos, processos) segundo certas regras, ela deve garantir que as
operações empíricas salvem os axiomas dos números. A medida que salva todos
esses axiomas é a mais sofisticada possível e, por isso, rara (escala racional). Se
somente os axiomas de identidade forem salvos (escala nominal), a operação não
chega a ser propriamente uma medida, mas trata-se apenas de classificação; o
número neste caso serve apenas de etiqueta para uma classe de sujeitos. A
medida realmente acontece quando se salvam, pelo menos, os axiomas de ordem
dos números.
Todos os números possuem a qualidade de quantidade (ou magnitude); eles
diferem em ordem, porque um é maior que o outro. Por outro lado, os fenômenos
naturais diferem entre si também qualitativamente: a cor é uma qualidade
diferente do peso, que é diferente do tamanho, e assim por diante. Essas
diferenças são de qualidade, pois se tratam de aspectos, qualidades, atributos,
características, diversos e distintos de um mesmo sujeito natural. O isomorfismo
defendido na medida é entre as propriedades do número (principalmente de
ordem e aditividade) com estas mesmas propriedades de cada atributo de um
sujeito natural e não com o próprio sujeito natural.
Os diferentes atributos de um mesmo sujeito não diferem em termos de
quantidade e sim de qualidade. Entretanto, um mesmo atributo de um sujeito
natural pode variar em diferentes momentos, ou condições ou entre sujeitos, e
esta variação é que é definida em termos de magnitude, portanto mensurável. Por
exemplo, da rosa pode-se avaliar diferentes qualidades, tais como, intensidade de
aroma, peso, tamanho, dentre outras. Ocorre que cada uma dessas qualidades
podem se expressar com magnitude diferente, ou seja, pode-se medir a
magnitude de cada qualidade.
1. Axiomas de ordem: afirmam que, na medida, a ordem dada pelos números
atribuídos aos sujeitos (transitividade e conectividade) deve ser a mesma obtida
pela ordenação empírica destes mesmos sujeitos. Existe ordem (maior que) nas
propriedades dos sujeitos. Por exemplo, um metal que arranha um outro e não
pode ser arranhado por este, diz-se que é mais duro. Assim, uma ordem empírica
de dureza pode ser estabelecida a partir da operação empírica de arranhar. As
inversões que ocorrem são consideradas erros de medida, que devem ser
tratados dentro da teoria da consistência, a qual visa mostrar que, apesar desses
erros, há consistência na medida.
2. Axiomas de aditividade: só podem ser demonstrados no caso de atributos
extensivos, como massa, comprimento, duração temporal, dentre outros, bem
como no caso de probabilidade. A aditividade se baseia na idéia de concatenação
– a combinação das medidas de dois sujeitos ou eventos produz uma terceira
medida com as mesmas propriedades das duas mais em grau maior. Assim, se
uma planta produz x quilos de grãos e a outra produz y, juntando (concatenando)
as duas plantas produziram x + y quilos de grãos.

3.4.7. Escalas de medidas: Dependendo da quantidade de axiomas do número


que a medida salva, resulta vários níveis (escalas) de medidas. Quanto mais
axiomas do número a medida salvaguardar, maior será seu nível, ou seja, mais se
aproximará da escala numérica ou métrica e maior será o isomorfismo entre o
número e as operações empíricas. Assim, podem ser considerados cinco
elementos numéricos para definir o nível da medida: identidade, ordem, intervalo,
origem e unidade de medida. Destes, os mais discriminativos são a origem e o
intervalo, uma vez que a ordem é uma condição necessária para que realmente
haja medida.

1. Escala nominal - Se a medida salva apenas a identidade do número, na


realidade não se trata de medida, mas sim de classificação e contagem. Neste
caso (escala nominal), os números não são atribuídos a atributos dos sujeitos,
mas o próprio sujeito é identificado por rótulo numérico. Mede atributos que só
reconhecem relações de equivalência (= ou ≠). Uma escala nominal não tem
sentido de direção, não tem unidade definida e não reconhece um valor zero
(nulo). As propriedades desta escala são: reflexiva x  x  x  , simétrica ( se
x  y , então y  x ) e transitiva ( se x  y e y  z , então x  z ). Essas
propriedades são premissas lógicas cuja pertinência ao fenômeno estudado cabe
ao pesquisador avaliar.

2. Escala ordinal – a origem é arbitrária (não existe o zero natural) e a distância


entre os números não é igual. Mede atributos que se distinguem em grau ou
intensidade, de forma que além das relações de equivalência, podem-se
reconhecer relações de ordem (> ou <). Tem sentido de direção, mas as unidades
de medida são desconsideradas, também não tem valor nulo e nenhuma
operação aritmética será pertinente. As propriedades desta escala são: irreflexiva
( x  x  x  não é verdade), assimétrica (se x  y , então y  x ) e transitiva (se
x  y e y  z , então x  z ). Nessa escala, as oportunidades de análises
estatísticas são maiores.

3. Escala intervalar – a origem é arbitrária (não existe o zero natural) e a


distância entre os números é igual; nesta escala o que muda é apenas a unidade
de medida (tamanho do intervalo). Mede atributos de forma que os intervalos
desta representem quantidades regulares de atributo, ou seja, é uma função
linear dos atributos. A escala intervalar tem um zero, mas ele é um ponto
arbitrado para a origem das unidades de medida e não tem correspondência com
a situação zero de atributo. As propriedades desta escala incluem todas as
propriedades da aritmética, que terão sentido se aplicadas a intervalos, mas não
aos valores propriamente ditos. Todas as análises estatísticas podem ser
implementadas.

4. Escala racional – a origem não é arbitrária (existe o zero natural) e a distância


entre os números é igual. Mede os atributos de forma que os acréscimos em
atributos sejam representados por acréscimos proporcionais em valores da
escala. A razão entre dois valores de atributos, isto é, se um atributo é o dobro do
outro, seu valor na escala é igualmente o dobro do outro. A escala é uma função
linear dos atributos e a origem é comum, ou seja, há um zero real.
Uma escala de maior nível pode utilizar as operações estatísticas de uma escala
inferior, mas perde informação dado que as estatísticas próprias de uma escala
inferior são menos eficientes, isto é, menos robustas. É considerado erro utilizar
estatísticas de uma escala de nível superior numa inferior, dado que esta não
satisfaz os requisitos para se utilizarem os métodos estatísticos superiores. São
chamados de paramétricos os métodos estatísticos da escalar intervalar, porque
os seus números possuem caráter métrico, ou seja, são adicionáveis, enquanto
que os não-paramétricos não são métricos, dado que representam apenas postos
e não quantidades somáveis.

3.4.8. Formas e Unidades de Medida:


Os atributos naturais podem legitimamente serem expressos com base em
escalas de números, as quais apresentam diferentes níveis. Entretanto, uma outra
questão é como se deve atribuir um número a determinado atributo de um
fenômeno natural e por que este número e não outro? Medir visa principalmente
dar maior precisão à descrição de um fenômeno natural, portanto este processo
de escolha não pode ser aleatório. Se cada atributo da realidade empírica
apresentasse uma unidade-base natural específica de magnitude, a sua medida
seria uma tarefa relativamente fácil. Seria suficiente avaliar quantas unidades-
base ele possui e o número de unidades seria a medida do atributo considerado.
Entretanto, nem todos os atributos permitem uma definição de unidade-base
natural específica, como por exemplo, é o caso da taxa fotossintética. Então, deve
haver mais de uma forma de se realizar a medida dos atributos que não seja a
simples enumeração de unidades que o objeto apresenta.
Uma das taxonomias mais úteis consiste em distinguir três formas diferentes de
medição: medida fundamental, medida derivada e medida por teoria:

1. Medida fundamental – É a medida de atributos de sujeitos empíricos para os


quais, além de se poder estabelecer uma unidade-base natural específica, existe
uma representação extensiva. São atributos mensuráveis que permitem
concatenação, ou seja, dois sujeitos podem ser associados formando um terceiro
sujeito de mesma natureza. Isto ocorre com os atributos de massa, comprimento
e duração temporal, os quais permitem uma medida direta fundamental, uma vez
que o instrumento utilizado para medi-los possui a mesma qualidade que se quer
medir neles.

2. Medida derivada – Muitos atributos não são extensivos, ou seja, não possuem
uma unidade-base de medida específica, e, portanto a sua medida fundamental
não é possível. Entretanto, podem medidos indiretamente por meio do
estabelecimento de uma relação envolvendo medidas extensivas. Este
procedimento depende da prova empírica de que estes atributos são afetados
independentemente por dois ou mais componentes. Se estes componentes
permitem medida fundamental, então se pode obter uma medida deriva para
aqueles atributos não-extensivos por meio de uma função de potência entre os
componentes do qual a atributo é constituído.
De outra forma, uma medida é derivada se finalmente ela pode ser expressa em
termos de medidas fundamentais. Por exemplo, sabe-se que a massa varia em
função de volume e de densidade: massa = volume x densidade. Como a massa
permite medida fundamenta (quilos) e o volume também (m 3), então a densidade,
que não possui medida fundamental, pode ser medida indiretamente em função
de massa e volume (d = kg/m3).
Deve ser notado que o fundamento da função existente entre os componentes
constitui uma lei, isto é, deve ser um dado empiricamente demonstrado e não
apenas baseado em alguma teoria. Portanto, entende-se por medida derivada de
um atributo aquela cujos componentes do atributo, estabelecidos por uma lei
empírica, tenham finalmente dimensões extensivas.

3. Medida por teoria – Existem outros atributos que não permitem medida
fundamental e nem derivada e, portanto, são mensuráveis apenas com base em
leis e em teorias científicas. Quando uma lei for empiricamente estabelecida entre
duas ou mais variáveis, a(s) constante(s) do sistema pode(m) ser medidas
indiretamente por meio da relação estabelecida entre estas variáveis. Quando
nem leis existem relacionando variáveis, pode-se recorrer a teorias que
hipotetizam relações entre os atributos da realidade, permitindo assim a medida
indireta de um atributo por meio de fenômenos a ele relacionados via teoria. O
importante neste caso é garantir que haja instrumentos calibrados para medir
(fundamentalmente ou de outra forma válida) os fenômenos com os quais o
atributo em questão esteja relacionado pela teoria.

4. Unidade de medida: Geralmente existe interdependência entre os atributos, ou


seja, ao se variar um deles o outro covaria com ele. Esta covariância pode ser
expressa por alguma constante. A descrição de tais constantes pode constituir
uma medida indireta.
Além de constantes que relacionam dois ou mais atributos, os próprios atributos
variam, assumindo diferentes magnitudes e, portanto, podem ser mensuráveis.
Seria muito útil se houvesse, para cada atributo, uma unidade básica com a qual
se pudesse determinar a magnitude do mesmo. Qualquer unidade que se queira
definir serve aos propósitos da medida, desde que haja consenso sobre a mesma.

3.4.9. Erro de medida:

1. Conceito de erro – A medida é um procedimento empírico e, portanto, sujeito


a erro. Medir consiste na determinação da coincidência de pontos: um sinal no
sujeito a ser medido e um sinal no instrumento de medida. A coincidência não é
no sentido de que os dois pontos se fundem em um ponto único, mas que há
apenas uma justaposição dos dois pontos. Além disso, a coincidência se faz
dentro de um intervalo: o ponto do sujeito medido cai dentro de um intervalo de
pontos no instrumento. Quanto menor este intervalo, maior a precisão da medida.
Pode ser notado que o número utilizado na medida dos fenômenos naturais não é
exatamente o número que os matemáticos estudam, embora ele mantenha
importantes características em comum, tais como ordem e aditividade. O número
estudado pelos matemáticos é um ponto, é um conceito absoluto. Por outro lado,
o número utilizado na medida já não é mais um ponto; ele é um intervalo, o que
significa que ele pode ser mais ou menos ele mesmo, ou seja, admite
variabilidade, o que quer dizer que ele admite erro. O número da medida é
estudado pela estatística.

2. Erros de observação – As principais fontes de erro de observção são as


seguintes: (1) erros instrumentais devidos a inadequações do instrumento de
observação, (2) erros pessoais devidos a diferentes comportamentos das
pessoas, (3) erros sistemáticos devidos a algum fator sistemático não controlado,
(4) erros aleatórios, que não têm causa conhecida; o problema não é tanto a
existência desses erros, que são inevitáveis, mas sim identificar as suas fontes e
propor meios de reduzi-los.
3. Erros de amostragem – A pesquisa empírica não pode ser feita sobre todos os
membros de uma população de sujeitos (objetos, indivíduos, processos), então é
selecionada uma amostra da população. O processo de amostragem é sujeito a
desvios, vieses, ou seja, erros. Se o interesse fosse tirar conclusões sobre a
amostra, o erro não seria problema. Entretanto, o interesse do pesquisador é
fazer inferências sobre toda a população da qual a amostra foi retirada. Assim, o
erro de amostragem causa problema, uma vez que pode ocasionar inferências
errôneas, considerando a presença de vieses da amostra com respeito à
população. A teoria estatística da amostragem procura solucionar o problema de
falta de representatividade da amostra.
3. Teoria do erro – Uma vez que o erro está sempre presente em qualquer
medida e que o mesmo afeta a tomada de decisões científicas, é de fundamental
importância que haja meios de conhecer sua grandeza e de diminuí-lo da melhor
forma possível, para se reduzir o risco de tomadas de decisões baseadas na
medida. Mesmo com todos os esforços para controlar o erro por meio de
procedimentos experimentais, o erro não vai desaparecer, uma vez que nunca é
possível se determinarem todas as causas de todos os erros possíveis numa
medida. Para acomodar essa situação foi desenvolvida a teoria do erro, baseada
na teoria da probabilidade e dos eventos aleatórios. Um evento empírico é
aleatório se sua ocorrência não pode ser predita a partir dos eventos que
ocorreram antes dele, ou seja, ele é totalmente independente com relação ao que
ocorreu antes. Por exemplo, independente de qualquer que tenha sido o resultado
nos lançamentos anteriores de um dado, o resultado do próximo lançamento é
totalmente imprevisível.
Pela teoria do erro, o erro na medida é considerado um evento aleatório. Com
base nessa suposição é possível tratar o erro dentro da teoria da probabilidade,
da lei dos grandes números e da curva normal, que determina a probabilidade de
ocorrência dos elementos da série aleatória composta dos vários tamanhos de
erros cometidos na medida.
A curva normal define que uma seqüência aleatória de eventos empíricos se
distribui normalmente em torno de um ponto modal (média) igual a 0 e uma
variância igual a 1. Este valor modal, no caso de uma distribuição de erros,
significa que estes se cancelam no final, dado que este valor (0) é o que possui a
maior probabilidade na distribuição. Contudo, isto é absolutamente verdadeiro
somente na distribuição de uma série aleatória de um número infinito de eventos.
Segundo o teorema de Bernoulli, os segmentos mais curtos de seqüências
aleatórias mostram, muitas vezes, grandes flutuações, enquanto que os
segmentos longos sempre se comportam de modo que sugerem constância ou
convergência; em suma, o teorema diz que se encontra desordem e aleatoriedade
no pequeno, ordem e constância no grande. A lei dos grandes números se refere
a este comportamento.

3.4.10. Tipos de variáveis: A utilização de diferentes escalas de medidas gera


diferentes tipos de variáveis, que influenciam no plano de análise estatística. A
escolha das variáveis independentes (fatores) e dependentes (respostas) é
realizada de acordo com os objetivos do estudo que está sendo realizado. As
variáveis podem ser classificadas de acordo com os quadros apresentados a
seguir:

Quadro 1. Classificação de variáveis


Tipo de variável Subtipo Características
Discreta Números inteiros, sem frações, como
em contagens. Constituem um conjunto
finito. Exemplos: número de plantas,
número de vagens, número de insetos.

Quantitativa Contínua Números que podem assumir valores


fracionários. Normalmente têm intervalo
de valores conhecido, mas um conjunto
infinito de valores possíveis. Exemplos:
estatura de planta, produtividade de
grãos, teor de proteína.
Categórica Categorias, sendo que cada categoria é
Nominal independente, sem relação com as
outras. Exemplos: variedades, tipos de
pesticidas, tipos de adubos.

Categórica Categorias, sendo que cada categoria


Qualitativa Ordinal mantém uma relação de ordem com as
outras, que pode ser ou não regular.
Exemplos: plantas muito acamada,
pouco acamada, não acamada; plantas
tolerantes, medianamente tolerantes,
susceptíveis a determinado patógeno.

Quadro 2. Tipos de variáveis segundo a função no plano de análise

Tipo de Característica
variável
Mede o fenômeno que se estuda e que se quer explicar.
Dependente Exemplos: estatura de planta, produtividade de grãos, teor
de nutrientes foliares, resistência a patógenos.
São variáveis que se consideram candidatas a explicar a
Independente variável dependente. Exemplos: variedades, adubação,
temperatura, pesticidas, irrigação.
São variáveis que se consideram capazes de interferir na
relação entre a variável dependente e a independente,
De controle podendo sugerir relações falsas que dizem respeito à sua
interferência e não à relação estudada. Exemplos: solo,
precipitação, incidência de pragas e doenças.

Quadro 3. Relação entre plano de análise e tipo de variável

Plano de Análise Variável Variável Variável de


dependente independente controle
Correlação (r de Quantitativa Quantitativa Qualitativa
Pearson) contínua contínua (nominal ou
ordinal) aplicada
em correlações
parciais.
Regressão linear Quantitativa Preferencialmente Preferencialmente
contínua quantitativa qualitativa,
distinguindo
diferentes posições
paralelas de retas
de regressão.
Associação em Qualitativa Qualitativa Qualitativa
tabela de (nominal ou (nominal ou (nominal ou
contingência (χ2) ordinal) ordinal) ordinal), criando
estratificação para
o
contingenciamento.

3.5 - Princípios Básicos da


Experimentação

Os princípios da repetição, casualização e controle local são geralmente


referidos como os três princípios básicos dos delineamentos experimentais e,
portanto, da experimentação. A estes podemos acrescentar três outros princípios
que, se não são básicos, são estreitamente associados com os três princípios
básicos. Estes outros princípios são a sensibilidade, a ortogonalidade e o
confundimento. Desta forma, estes seis princípios são fundamentais para
entendermos o delineamento de experimentos.

3.5.1 - Repetição
É a aplicação de um determinado tratamento a mais de uma unidade
experimental. Um conjunto completo de tratamentos constitui uma repetição do
experimento básico. O aumento do número de repetições é um dos
procedimentos mais eficientes para se melhorar a exatidão e a precisão de um
experimento. Porque permite reduzir o erro experimental.
O princípio da repetição permite:
a) Estimar o erro experimental, que é necessário para avaliar a significância das
diferenças entre as médias de tratamentos;
b) Aumentar a sensibilidade pela redução do erro padrão da diferença entre médias de
tratamentos;
c) Aumentar a abrangência do experimento pela incorporação de uma maior diversidade
de material experimental, se o controle local apropriado é usado para controlar o erro
experimental.
O número de repetições, geralmente, é função de: (a) número de
tratamentos; (b) tipo de material experimental (homogeneidade, conhecimento
do material); (c) custo do experimento (materiais, equipamentos, procedimentos e
métodos); (d) disponibilidade de espaço físico e de mão-de-obra; (e) magnitude
provável da diferença entre médias de tratamento e (f) nível de precisão desejada.
Desta forma, é impossível determinar o número exato de repetições
necessários para um determinado experimento. Uma regra geral prática, é prover
no mínimo 10 graus de liberdade para o erro experimental de qualquer
experimento.
Repetição e tamanho de parcela não são diretamente relacionados, pois
uma redução no tamanho da parcela permite um maior número de parcelas, numa
determinada área de terreno, o que tenderá a aumentar a precisão do
experimento.

3.5.2 - Casualização
Consiste na distribuição dos tratamentos ao acaso nas unidades
experimentais. Tem a função de assegurar que a estimativa do erro experimental
e dos efeitos de tratamentos não tenham tendência ou vício. Apresenta as
seguintes características: (a) garante que os tratamentos sejam casualmente
afetados por fontes desconhecidas de variação, quando eles são distribuídos nas
diversas unidades experimentais; (b) faz com que os erros (desvios) se tornem
aleatórios; (c) faz com que os erros associados aos tratamentos sejam
independentes entre si, permitindo assim a aplicação dos testes estatísticos.
É necessário ter-se casualizações separadas para cada um dentre vários
experimentos. Alguns pesquisadores têm usado o mesmo delineamento, com a
mesma casualização para vários experimentos, o que não é recomendável devido
a possibilidade de uma leve tendência inerente a qualquer tipo de casualização.

3.5.3 - Controle Local


Consiste na estratificação (agrupamento) das unidades experimentais
(material ou local) em grupos homogêneos denominados de blocos, o que permite
a medição e o controle mais adequado do erro experimental.
Em experimentos simples, cada bloco contém o mesmo número de
unidades experimentais sobre os quais todos os tratamentos que estão sendo
comparados são distribuídos de forma aleatória. As diferenças entre parcelas de
um mesmo tratamento num experimento repetido em blocos são parcialmente
devidas ao erro experimental, mas também parcialmente devido à diferença
média entre os blocos. Assim, a variação devida a blocos pode ser removida do
erro experimental. Conseqüentemente, a exatidão e a precisão do experimento
tornam-se maior quando uma quantidade da variabilidade é removida do erro
experimental por meio deste procedimento.

3.5.4 - Sensibilidade
É definida como a capacidade do delineamento para detectar diferenças
reais se elas existem. Dados dois delineamentos experimentais quaisquer, o que
pode detectar a menor diferença entre duas médias tem a maior sensibilidade.
A sensibilidade tem sido considerada em conexão com repetição, da forma
tal que um aumento de quatro vezes no número de repetições aproximadamente
dobra a sensibilidade de um experimento. Nesta conotação, sensibilidade tem
sido definida como 1/ S x , onde S x  ( 2 / n)1/ 2 . Pode ser observado nesta notação
que, em experimentos pequenos, o aumento nos graus de liberdade do erro por
meio do aumento de n (número de repetições), também aumenta a capacidade
para detectar diferenças menores.

3.5.5 - Confundimento
Dois ou mais efeitos são ditos estarem confundidos em um experimento se
é impossível separá-los quando é realizada a análise estatística subsequente.
Uma vez que um dos propósitos do delineamento experimental é fornecer
resultados não ambíguos, que permitam uma análise objetiva, parece bastante
óbvio que um bom delineamento deve evitar o confundimento. Entretanto, o
confundimento pode ser introduzido num delineamento com o objetivo de reduzir
o tamanho do experimento e conseqüentemente o custo do mesmo. Por exemplo,
em blocos incompletos, alguns efeitos de tratamentos são confundidos com o
efeito de blocos. Em experimentos fatoriais com muitos fatores, freqüentemente é
recomendável assumir que as interações de ordem mais alta são desprezíveis e
podem, portanto, serem confundidas com blocos ou outro tratamento.

3.5.6 - Ortogonalidade
Quando as diferenças entre médias de tratamentos são devidas apenas ao
efeito esperado do tratamento mais o erro aleatório, então os efeitos de
tratamentos são ditos serem ortogonais. O conceito de ortogonalidade é
importante tanto no delineamento quanto na análise. A não-ortogonalidade pode
originar-se do delineamento experimental utilizado ou do número desigual de
repetições dos tratamentos (desbalanceamento dos dados).
A presença de não-ortogonalidade devido ao delineamento ou a repetições
desiguais requer interpretação cuidadosa e procedimentos apropriados para a
análise dos dados.

Determinação de Tamanho de Amostra (Número de Repetições) de


Experimentos

A escolha do tamanho da amostra é uma decisão crítica em qualquer


planejamento experimental. A questão sobre qual o tamanho de amostra (número
de repetições) necessário para determinado experimento não é fácil de ser
respondida. Antes de chegar a uma resposta válida, algumas outras questões
devem ser respondidas, como por exemplo:
1) Qual é a hipótese do experimento? Existem possíveis hipóteses alternativas?
2) O que se pretende estimar?
3) Qual a probabilidade de significância (  ) que se pretende utilizar?
4) Qual a magnitude da diferença que se deseja detectar? Com qual
probabilidade ( Poder  1   )?
5) Qual a variabilidade esperada para o conjunto de dados?
Uma vez obtidas as respostas para estas e outras questões é possível determinar
o tamanho de amostra necessário.

Estimação do Tamanho de Amostra com base na Distribuição Normal (Z):

Para o caso de experimento de comparação de dois tratamentos o procedimento


frequentemente usado é o seguinte:
1) Primeiro deve-se decidir sobre um valor que represente o tamanho da
diferença entre os verdadeiros efeitos dos tratamentos (  ).
O pesquisador deseja ter uma alta probabilidade de detectar diferença
estatisticamente significativa entre as médias de tratamentos. Então,
probabilidades ou poder ( 1   ) de 0,80 e 0,90 são comumente usados, em que:
 é a probabilidade de erro Tipo II (probabilidade de não rejeitar H quando
0
H é realmente falsa). Uma probabilidade mais alta tal como 0,95 ou 0,99 podem
0
ser estabelecidas, mas para tais valores o tamanho de amostra necessário pode
ser muito grande.
2) O pesquisador precisa também conhecer a variância da população (  2 ) ou
estimá-la com base em sua experiência. A expressão para estimar o tamanho de
amostra ( n ) necessário é dada por:

2
  2
 Z  Z   2
n  . Neste caso, as duas amostras que representam
2
dois tratamentos a serem comparados são assumidas como sendo
independentes. Para amostras pareadas, 2 2 é substituído por  2 , a variância
D
da população para amostras pareadas. Este tamanho de amostra é para teste
bilateral. Se o teste é unilateral, o tamanho de amostra é calculado usando a
mesma equação, substituindo Z por Z . Por facilidade de uso, pode ser útil
2
2
 
tabular os valores de  Z  Z  para os valores mais comuns de
  e .

Evidentemente que estes valores são multiplicadores de 2  2 em amostras
D
pareadas e 2 2  2 em amostras independentes, para determinar o tamanho de
amostra necessário de cada amostra. Por exemplo, se se deseja que o poder seja
de 0,80 num teste bilateral a 5% de significância, então Z  1, 645 , Z  0,842

2
  2
e  Z  Z   1,645  0,842  6,20 . Para outros exemplos, veja tabela a
 
seguir:

Teste Bilateral (  ) Teste Unilateral (  )


_______________________
Poder  1   0,01 0,05 0,10 ________________________
0,01 0,05 0,10
0,80 11,7 7,9 6,2 10,0 6,2 4,5
0,90 14,9 10,5 8,6 13,0 8,6 6,6
0,95 17,8 13,0 10,8 15,8 10,8 8,6

O mesmo procedimento pode ser usado para calcular o tamanho de amostra para
comparar duas proporções, p e p . Neste caso,   p  p e
1 2 2 1
2
   
2  p 1 p  p 1 p . Então, a equação para o tamanho de amostra
1 1 2 2
necessário é a seguinte:

2
  
  
 Z  Z    p1 1  p1  p2 1  p2 
 
 
n .
 p2  p1
2

Por exemplo, suponha que exista um novo fungicida que é superior a um


fungicida padrão na redução da incidência de determinado fungo em plântulas de
soja. Um fitopatologista deseja determinar o tamanho de amostra necessário para
detectar uma redução de 5% para 2% na incidência do fungo com o poder de 0,80
e probabilidade de significância de 5%. O tamanho de amostra é calculado como
a seguir:

(6,2)[(2)(98)  5(95)]
n  462,24 . Desta forma, seriam necessárias 462
2
 5  2
plântulas para cada fungicida.
Quando a variância da amostra  S 2  dos resultados do experimento é usada
como sendo uma estimativa de  2 , o teste t substitui o teste Z . Entretanto, a
equação para n torna-se uma equação que deve ser resolvida por aproximações
sucessivas.
Estimação do Tamanho de Amostra com base na Distribuição t:

Quando se deseja comparar mais de dois tratamentos, Cochran e Cox (1957)


sugerem a equação a seguir para determinar o número de repetições necessário
para detectar diferença entre pares de tratamentos:

2
 CV   
n  2   t  t2  , em que CV : coeficiente de variação, :
   
percentagem da diferença da média a ser detectada.

Por exemplo, suponha que um Agrônomo deseja conduzir um experimento para


comparar a produtividade de seis variedades de soja, A, B, C, D, E e F.
Experimentos anteriores têm indicado que um delineamento blocos casualizados
com quatro repetições seria satisfatório para o experimento proposto. O
experimento foi realizado e os dados de produtividade (ton.ha -1) são apresentados
a seguir.
Variedade
Bloco ________________________________________________
A B C D E F
I 2,822 2,822 2,755 1,680 2,083 2,419
II 2,218 2,486 2,217 1,814 1,075 0,806
III 2,083 2,486 2,217 2,352 1,948 0,739
IV 1,411 1,277 0,941 0,874 1,142 0,873

A questão é a seguinte: Este experimento teve um número suficiente de


repetições?
A análise de variância fornece as informações básicas iniciais seguintes:

Y..  1,8142; CV %  22,37;  20%deY..;  0,05;   0,10


Adota-se como valor inicial n  4 (quatro blocos como no experimento original), o
que fornece gl  (4 1)(6 1)  15 para o erro (ou resíduo). Então se tem:
t  1,753 e t  0,866 , valores obtidos na Tabela Unilateral do
0,05;15 2(0,10);15
Teste t de Student, o que fornece o valor do número de repetições
2
 22,37 
n  2  (1,753  0,866)2  17 .
 20 
Numa segunda tentativa adota-se o valor n  17 , o que fornece
gl  (17 1)(6 1)  80 para o resíduo. Repetindo o cálculo anterior para gl  80
tem-se: t  1,667; t  0,847 e
0,05;80 2(0,10);80
2
 22,37 
n  2  (1,667  0,847)2  16 .
 20 
Numa terceira tentativa adota-se o valor n  16 , resultando em
gl  (16 1)(6 1)  75 para o resíduo. O novo valor de n é o seguinte:
2
 22,37 
n  2  (1,668  0,847)2  16 . Como foi obtido o mesmo valor para n ,
 20 
para-se o processo e conclui-se que 16 é o número necessário de repetições para
esse experimento.

Estimação de Tamanho de Amostra com base no Teste de Tukey:

A expressão para aplicação do teste de Tukey é dada por:


S2
q , em que  : diferença mínima significativa, q : valores críticos
r
(tabelados) da amplitude estudentizada, S 2 : quadrado médio do resíduo, obtido
na análise de variância e r : número de repetições de cada tratamento.
Para estimar o tamanho de amostra ou número de repetições ( r ) são necessárias
as informações seguintes:
S 2 : quadrado médio do resíduo obtido de um experimento anterior realizado em
1
condições semelhantes àquelas em que será instalado o novo experimento;
 : diferença mínima significativa prevista para o novo experimento;
Neste caso a estatística-teste F é dada por:
S2 2 2 q2 FS 2
F , logo S  FS . Então se tem que r  1 . Observe que r
S2 1 2
1
é função de  e pode ser determinado por aproximações sucessivas (processo
iterativo).

Exemplo de Aplicação: Considere que num experimento de comparação de


variedades de cana-de-açúcar, realizado anteriormente, foi obtida uma estimativa
de desvio padrão residual S  7,4ton.ha 1 com n  60 g.l. Considere ainda
1 1
que um novo experimento de comparação de cinco variedades de cana-de-açúcar
deve comprovar, com base no teste de Tukey, diferenças significativas de
produtividade  15ton.ha1 . Qual o número necessário de repetições para este
experimento?
Essa questão pode ser solucionada da seguinte forma:
Admitindo que o experimento seja instalado segundo o delineamento
experimental blocos casualizados e tomando r  5 repetições como tentativa
inicial, tem-se o esquema de análise de variância seguinte:

Fonte de Variação Graus de Liberdade


Blocos 4
Variedades 4
Resíduo 16
Total 24

Os valores críticos (tabelados) para a amplitude estudentizada ( q ) e para o teste


F , para a probabilidade de significância (  ) de 5%, são q  4,34 e
0,05(5;16)
(4,34)2 (1,81)(7,4)2
F  1,81 . Logo se tem: r   8,3 repetições e o
0,05(16;60) (15) 2
intervalo entre o valor inicial e o valor estimado dado por [5  r  8,3] .
Tomando r  7 repetições como uma segunda tentativa, tem-se o esquema de
análise de variância seguinte:

Fonte de Variação Graus de Liberdade


Blocos 6
Variedades 4
Resíduo 24
Total 34

Os valores críticos de q e F são q  4,17 e F  1,70 .


0,05(5;24) 0,05(24;60)
(4,17)2 (1,70)(7,4)2
Logo se tem r   7,2 repetições com intervalo de
(15) 2
[7  r  7,2] . Como o intervalo de variação entre o valor inicial e o valor estimado
é muito estreito (por arredondamento o intervalo e eliminado), para-se o processo
e conclui-se que 7 é o número necessário de repetições para o novo experimento.
CAPÍTULO IV

DELINEAMENTOS EXPERIMENTAIS

O delineamento de um experimento é a seqüência completa de passos


dados antes de iniciar a instalação de um experimento. O objetivo do
delineamento é assegurar que os dados apropriados sejam obtidos de forma que
permita uma análise objetiva e conduza a inferências válidas, com relação ao
problema estabelecido.
A análise de variância do experimento é feita de acordo com o tipo de
delineamento experimental utilizado. A análise da variância em torno das médias,
consiste na partição da variação total presente no experimento em componentes.
Cada componente é atribuído a uma causa identificável ou fonte de variação; um
dos componentes representa a variação devida a fatores não controlados e erros
aleatórios associados com as medidas da resposta.
Se um conjunto de dados consiste de n medições Y1, Y2 , , Yn e sua média
é Y , a variação total em torno da média está incorporada na soma de quadrados
n
dos desvios  (Y  Y)
i 1
i
2
, que é chamada de soma de quadrados total. A técnica

de análise de variância decompõe esta soma de quadrados total em fontes de


variação conhecidas além do componente erro.
O número de fontes de variação que podem ser identificadas e as fórmulas
para o cálculo das somas de quadrados dos componentes está intrinsecamente
relacionado com o delineamento experimental empregado na coleta dos dados e
com o modelo estatístico considerado apropriado para a análise.

4.1 - Delineamento Inteiramente Casualizado (DIC)

É o delineamento experimental mais simples de todos; envolve apenas dois


princípios básicos da experimentação – repetição e casualização. O delineamento
inteiramente casualizado é análogo a uma amostragem aleatória independente
feita a partir de várias populações, em que cada população é identificada como a
população de respostas sob um determinado tratamento.
Em geral este delineamento é utilizado quando o material e/ou as
condições experimentais são homogêneas. Por exemplo, experimentos de
laboratório ou com animais bastante uniformes. No caso de experimentos com
vasos em casas-de-vegetação, se a posição destes for mudada com certa
freqüência, não se justifica a introdução de blocos.
As vantagens deste delineamento são: (a) o número de repetições pode
ser diferente de um tratamento para outro sem dificultar a análise e (b) apresenta
o maior número de graus de liberdade associado ao resíduo, quando comparado
com os outros delineamentos. As principais desvantagens são: (a) a variância
residual pode estar sendo superestimada porque toda a variação, com exceção
daquela atribuída a tratamento, é tomada como variação casual e (b) se o número
de tratamentos é elevado podem ocorrer problemas de heterogeneidade no
ambiente.
Não existe nenhuma restrição imposta quanto à casualização, ou seja, os
tratamentos e suas repetições são aplicados inteiramente ao acaso nas parcelas
experimentais, através de sorteio ou usando tabelas de números aleatórios.
O modelo linear aditivo é dado por:
Yij     i   ij , onde

Yij  observação individual, i  1, 2, , t e j  1, 2, , r


t  número de tratamentos
r  número de repetições
 i  efeito de tratamento, i  1, 2, , t
 ij  erro experimental

A estrutura de dados para este delineamento apresenta a forma de uma


matriz contendo os tratamentos nas linhas e as repetições nas colunas, como
mostrado no quadro a seguir.

QUADRO 02. Estrutura de dados Yij num quadro de dupla entrada para o
DIC.

Tratamento Repetições (j) Totais Médias


s
(i) 1 2 3 Yi.  Y 
i.

1 Y11 Y12 Y13


2 Y21 Y22 Y23
3 Y31 Y32 Y33
4 Y41 Y42 Y43
Y.. Y..

Este delineamento permite dividir a variação total em dois componentes –


um atribuível à variação entre tratamentos e outro devido à variação das
repetições dentro dos tratamentos.
Desta forma, o quadro de Análise de Variância para o DIC é apresentado
na forma dada a seguir.
QUADRO 03. Análise de Variância do DIC.

F.V. S.Q. G.L. Q.M. F


t
Tratamento Y
i1
i.
2
/r  C t-1 SQTrat/(t-1) QMTrat /
QMRes
t r t

Resíduo 
i1 j1
Yij 
2
Y i1
i.
2
/r t (r-1) SQRes / t(r-1)

t r

Total  Y
i1 j1
ij
2
C r t-1
2
 t r 
Onde C  
  Yij  / r t

 i1 j1 
Se o F calculado for maior ou igual ao F tabelado com (t-1) e t(r-1) graus de
liberdade, declara-se o resultado como sendo significativo, ao nível de
significância, e afirma-se que existe pelo menos uma diferença entre médias de
tratamentos.
O coeficiente de variação, que avalia a precisão do experimento é dado por
QMRe s
CV  (100)
Y..

EXEMPLO DE APLICAÇÃO

De certo experimento conduzido em casa-de-vegetação, foi obtido os


seguintes dados:

QUADRO 04. Peso da matéria seca (em g/vaso) de 5 variedades de feijão,


aos 30 dias após a emergência.
Tratamentos Repetições (j)
(i) 1 2 3 4 5 6
A 2,9 3,5 4,1 3,9 3,0 3,5
B 3,0 3,6 3,7 3,8 3,1 3,3
C 3,1 3,8 4,2 3,1 3,5 3,2
D 4,5 4,4 3,8 4,7 4,1 5,0
E 6,5 8,0 7,4 7,0 8,0 7,0

Computar a Análise de Variância e o Coeficiente de Variação. Apresente a


conclusão estatística e a conclusão prática.
As somas de quadrados utilizados na estimação das variâncias das fontes
de variação são:

C
Y..
2

132,70 2  586,9763
rt 65

SQTrat 
1
r
 Yi.  C 
2 1
6

20,90 2  20,50 2    43,90 2  C  66,91196 
SQTotal  Y  C  2,9   3,5     7,0   C  72,2937
2 2 2 2
ij

SQ Re s  SQTotal  SQTrats  72,2937  66,91196


SQ Re s  5,38174

Logo a análise de variância fica:

F.V. S.Q. G.L. Q.M. F


Tratamento 66,91196 4 16,72799 77,71**
Resíduo 5,38174 25 0,21527
Total 72,29372 29

100 0,21527
O coeficiente de variação é dado por CV   10,50% . O teste
4,42
F foi altamente significativo p  0,01 o que leva a rejeitar a hipótese nulidade e
concluir que existe pelo menos uma diferença significativa entre duas médias de
tratamentos, com uma probabilidade superior a 99%.
A perda de unidades experimentais ou a utilização de número diferente de
repetições para os tratamentos não dificulta a análise do DIC.

4.2 - Delineamento Blocos Casualizados (DBC)

Os blocos casualizados constituem o tipo de delineamento experimental


mais utilizado na experimentação agrícola. Para melhorar a precisão do
experimento podemos blocar o material experimental em grupos homogêneos de
tamanho K, para compararmos K tratamentos. Ora, se cada tratamento é aplicado
a exatamente uma unidade experimental no bloco e se as comparações são feitas
apenas entre respostas de tratamentos do mesmo bloco, a variabilidade não
controlada poderia ser grandemente reduzida. Este é o conceito de blocos
casualizados.
Os blocos representam o controle local e cada um deve incluir todos os
tratamentos. Para que o delineamento seja eficiente, cada bloco deve ser o mais
uniforme possível, mas os blocos podem diferir bastante uns dos outros. Nos
experimentos fitotécnicos, cada bloco deverá ser constituído de uma área de solo
bem uniforme. Nos experimentos zootécnicos, cada bloco deverá ser constituído
de animais com características semelhantes. Dentro de cada bloco os
tratamentos são alocados às parcelas inteiramente ao acaso.
A vantagem deste delineamento é que ele extrai da variação total a
variação devida a blocos, além da variação devida a tratamento. As desvantagens
são: (a) redução do número de graus de liberdade do resíduo e (b) se o número
de tratamentos é muito grande, é difícil conseguir um bom agrupamento das
parcelas em blocos homogêneos.
Os tratamentos são atribuídos às parcelas utilizando-se sorteios
separadamente para cada bloco. Não é indispensável que os blocos estejam
contíguos.
O modelo linear aditivo para o DBC é dado por:

Yij     i   j   ij , onde

  média geral do experimento


 i  efeito de tratamento, com i  1, 2, , t
 j  efeito de bloco, com j  1, 2, , r
t  número de tratamentos
r  número de repetições
 ij  erro experimental

A estrutura de dados para o DBC é:

Tratamento Repetições (j) Totais Médias


s (i) B1 B2 Br Yi.  Y 
i.

T1 Y11 Y12 Y1r Y1. Y1.


T2 Y21 Y22 Y2r Y2. Y2.
Tt Yt1 Yt2 Ytr Yt . Yt.
Totais ( Y. j ) Y.1 Y.2 Y.r Y.. Y..

Este delineamento permite fracionar a variação total em três componentes,


ou seja, em variações devidas a blocos, a tratamentos e ao erro experimental. As
somas de quadrados, os graus de liberdade, os quadrados médios e o F são
calculados e apresentados no quadro a seguir.

QUADRO 05. Análise de Variância do DBC.


F.V. S.Q. G.L. Q.M. F
r

Y
SQBl QMBl
/tC
2
Blocos .j r-1
j1 (r  1) QM Re s
t

Tratamento Y
i1
i.
2
/r  C t-1
SQTrat
( t  1)
QMTrat
QM Re s
t r t t

  Y
SQ Re s
Yij  Y. j / t  /r  C
2 2 2
Resíduo i. (r-1)(t-
i 1 j 1 j 1 i 1 (r  1)( t  1)
1)
t r

Total  Y i1 j1


ij
2
C r t-1

2
 t r 
Onde C  
  Yij  / r t

 i1 j1 

EXEMPLO DE APLICAÇÃO
Os dados de o quadro a seguir referem-se ao conteúdo de óleo nas
sementes de linho, quando as plantas foram inoculadas com Septoria linicola, em
diferentes estádios de desenvolvimentos. O delineamento utilizado foi blocos
casualizados com seis tratamentos e quatro repetições.
QUADRO 06. Conteúdo de óleo nas sementes de linho inoculadas com
Septoria linicola.

Tratamentos Blocos (j)


(i) I II III IV
Plântula 4,4 5,9 6,0 4,1
Início da floração 3,3 1,9 4,9 7,1
Plena floração 4,4 4,0 4,5 3,1
Final da floração 6,8 6,6 7,0 6,4
Maturação 6,3 4,9 5,9 7,1
Não inoculado 6,4 7,3 7,7 6,7

Computar a análise de variância. Discutir.


As somas de quadrados utilizadas na estimação das variâncias das fontes
de variação são as seguintes:

C
2
Y..

132,7 2  733,72042
rt 46
SQTotal  Y  C  4,4   3,3     6,7   C  54,50958
2 2 2 2
ij

SQBlocos 
1
t
Y .j
2
C 
1
6

31,62    34,52  C  3,14125 
SQTrats 
1
r
Y i.
2
C 
1
4

20,42    28,12  C  31,65208 
SQ Re s  SQTotal  SQBlo cos  SQTrats 
SQ Re s  54,50958  3,14125  31,65208 
SQ Re s  19,71625

A análise de variância fica:


F.V. S.Q. G.L. Q.M. F
Blocos 3,14125 3 1,04708
Tratamentos 31,65208 5 6,33042 4,82**
Resíduo 19,71625 15 1,31442
Total 54,50958 23

O coeficiente de variação é dado por:


100 QMRe s 100 1,31442
CV  
Y.. 5,5 .
CV  20,84%
Como F foi significativo conclui-se que pelo menos um contraste entre
médias de tratamentos deverá ser significativamente diferente de zero, ao nível
de 1% de probabilidade.
A precisão do experimento dada pelo coeficiente de variação, pode ser
considerada boa, uma vez que o valor do CV é considerado médio.

No caso do DBC deve-se estimar parcela perdida. Esta estimação não


fornece qualquer informação adicional para o experimento, apenas facilita o
cálculo da análise de variância. O valor que representará a parcela perdida é
dado por
( t )Yi..  (r )Y. j  Y..
Yij 
(r  1)( t  1)
onde t é o número de tratamentos e Yi. é o total do tratamento com parcela
perdida; r é o número de blocos e Y. j é o total do bloco com parcela perdida e Y..
é o total das parcelas disponíveis. A análise é feita como anteriormente com a
única diferença que se perde um grau de liberdade do resíduo para cada parcela
estimada.

4.3 - Delineamento Quadrado Latino (DQL)

No delineamento bloco completo casualizados é removido do erro


experimental o efeito de um único fator. Ocasionalmente, é possível remover os
efeitos de dois fatores simultaneamente no mesmo experimento, usando o
quadrado latino. Para usar este delineamento é necessário assumir que nenhuma
interação existe entre o efeito do tratamento e o efeito do bloco.
Nos quadrados latinos os blocos são organizados de duas maneiras
diferentes, uns constituindo as linhas e outros as colunas. Este delineamento é
utilizado quando a heterogeneidade do material experimental pode ser blocada
em duas direções. Por exemplo, na coleta de amostras foliares para análise de
nutrientes temos variações entre plantas e dentro de uma mesma planta; no caso
de dados sócio-econômicos, onde o preço de hortaliças varia com os dias da
semana e com os diferentes mercados, temos outra aplicação do quadrado latino;
é também utilizado para isolar a heterogeneidade do solo em duas direções
perpendiculares.
A vantagem do DQL é que ele extrai da variação total, a variação devida a
tratamentos, linhas e colunas. As desvantagens são: a) perdem-se graus de
liberdade do resíduo, sacrificando a precisão do experimento; b) o número de
tratamentos é limitado, porque deve ser igual ao número de linhas e de colunas.
Um determinado tratamento deve aparecer apenas uma vez em cada linha e em
cada coluna.
O modelo linear aditivo para este delineamento é dado por:
Y(ij)k     i   j   (k )   ij(k ) , onde

  média geral do experimento


 i  efeito de linha, com i  1, 2, , n
 j  efeito de coluna, com j  1, 2, , n
 ( k )  efeito de tratamento, k  1, 2, , n
 ij(k )  erro experimental

Na estrutura de dados as medições são tabuladas em duas tabelas, uma


para linhas e colunas e outra para totais de tratamentos, como mostrado a seguir.

QUADRO 07. Tabulação de dados para DQL.

Colunas

Linhas 1 2 3 Yi. Trat. Y(k)

1 Y11(A) Y12(B) Y13(C) Y1. A Y(1)


2 Y21(C) Y22(A) Y23(B) Y2. B Y(2)
3 Y31(B) Y32(C) Y33(A) Y3. C Y(3)

Y.j Y.1 Y.2 Y.3 Y..


Este delineamento permite partir a variação total em quatro componentes -
linhas, colunas, tratamentos e resíduo. O esquema da Análise de Variância é o
seguinte:

QUADRO 08. Análise de Variância para DQL.

F.V. S.Q. G.L.


n
Linhas Y
i1
i.
2
/n  C (n-1)
n

Linhas Y
j1
.j
2
/n  C (n-1)
n

Tratamento Y
k 1
(k )
2
/n  C (n-1)
n n n n n

Resíduo 
i1 j1
Yij(k ) 
2

i1
Yi. / n 
2
j1
Y. j / n 
2
Y
k 1
(k )
2
/ n  2C (n-1)(n-2)

n n

Total  Y
i1 j1
ij( k )
2
C n2-1

2
 n n 
Onde C  
  Yij(k )  / n 2

 i1 j1 

EXEMPLO DE APLICAÇÃO
A seguir apresentamos o croqui de campo de um experimento com trigo,
onde comparadas quatro variedades, no delineamento quadrado latino. Os
resultados são dados em Kg/parcela.

Colunas
Linhas
1 2 3 4
1 C=10,5 D= 7,7 B=12,0 A=13,2
2 B=11,1 A=12,0 C=10,3 D= 7,5
3 D= 5,8 C=12,2 A=11,2 B=13,7
4 A=11,6 B=12,3 D= 5,9 C=10,2

Computar a Análise de Variância. Discutir.

Os totais e médias de variedades são:

Variedades A B C D
Totais 48,0 49,1 43,2 26,9
Médias 12,0 12,3 10,8 6,8

As somas de quadrados necessárias para a obtenção das estimativas de


variância das fontes de variação são as seguintes:

 Y  ij( k )
2
167,22
C   1747,2400
n2 16
SQTotal  Y  C  10,5   7,7     10,2   C  90,4000
2 2 2 2
ij( k )

SQTrats 
1
n
Y (k )
2
C 
1
4
 
48,02  49,12  43,22  26,92  C  78,9250

SQLinhas 
1
n
L i
2
C 
1
4
 
43,42  40,92  42,92  40,02  C  1,9550

SQColunas 
1
n
C j
2
C 
1
4
 
39,02  44,22  39,42  44,62  C  6,8000
SQ Re s  SQTotal  SQTrats  SQLinhas  SQColunas 
SQ Re s  90,4000  78,9250  1,9550  6,8000 
SQ Re s  2,7200
O quadro de análise de variância é:

F.V. S.Q. G.L. Q.M. F


Linhas 1,9550 3 0,6516
Colunas 6,8000 3 2,2667
Tratamentos 78,9250 3 26,3083 58,04**
Resíduo 2,7200 6 0,4533
Total 15

Como o teste F foi significativo, rejeita-se a hipótese H0 e conclui-se que


pelo menos um contraste entre médias de tratamentos deverá ser
significativamente diferente de zero, ao nível de 1% de probabilidade.
A estimativa de parcela perdida para o DQL é dada por:

t L i  C j  T(k )  2G 
Yij(k )  , onde
( t  1)( t  2)

t  número de tratamentos.
L i  total da linha que contém a parcela perdida.
C j  total da coluna que contém a parcela perdida.
T( k )  total do tratamento que contém a parcela perdida.
G  total geral  Y ij(k )

Perde-se um grau de liberdade do resíduo para cada parcela perdida.


4.4 - Delineamento Semelhante a Blocos Casualizados (DSBC)

Este delineamento é uma das alternativas para o DBC. Apresenta as


características seguintes: a) utilizado quando o número de tratamentos é pequeno
(três ou menos); b) o objetivo de sua utilização é aumentar o número de graus de
liberdade do resíduo; c) cada bloco inclui todos os tratamentos duas ou mais
vezes; d) o esquema de análise de variância é modificado, mas a análise segue
normas análogas às que se usa para blocos casualizados; e) a vantagem é que
com o mesmo número de parcelas do DBC tem-se maior número de graus de
liberdade associados ao resíduo.
Por exemplo, seja um experimento em blocos casualizados com dois
tratamentos (A e B) e com possibilidade de dez repetições. Os croquis de campo
e os esquemas de análise de variância, comparativos, para o DBC e o DSBC são
os seguintes:

Croqui de Campo Croqui de Campo (DSBC)


(DBC)

1º Bloco A B 1º Bloco A B B A

2º Bloco B A 2º Bloco A A B B

10º Bloco A B 5º Bloco B A B A

Esquema de ANOVA Esquema de ANOVA


F.V. G.L. F.V. G.L.
Blocos 9 Blocos 4
Tratamentos 1 Tratamentos 1
Resíduo 9 Resíduo 14
Total 19 Total 19

O modelo linear aditivo é dado por Yijk     i  j   ijk , onde k representa as


repetições, cujo efeito não é isolado na análise de variância.

EXEMPLO DE APLICAÇÃO
Seja um experimento com dois tratamentos (aradura profunda e aradura
normal) e 12 repetições, instalado no DSBC, ou seja, 2 tratamentos x 6 blocos x 2
repetições/bloco.

Tratamentos Aradura Profunda Aradura Normal


Blocos
1 4,4 5,9 6,0 4,1
2 3,3 1,9 4,9 7,1
3 4,4 4,0 4,5 3,1
4 6,8 6,6 7,0 6,4
5 6,3 4,9 5,9 7,1
6 6,4 7,3 7,7 6,7

Computar a Análise de Variância. Discutir.

As somas de quadrados, necessárias para a obtenção das estimativas de


variância das fontes de variação, são as seguintes:
 Y  ijk
2
149,22
C   927,52667
t br 2 6 2
SQTotal  Y  C  5,5   7,0     4,5   C
2 2 2 2
ijk

SQTotal  27,6933

SQBlo cos 
1
tr
B j
2
C 
1
4

25,32  24,12    24,12  C 
SQBlo cos  13,9233

SQTrats 
1
br
T i
2
C 
1
12
 
77,82  71,42  C  1,7066

SQ Re s  SQTotal  SQBlo cos  SQTrats 


SQ Re s  27,6933  13,9233  1,7066 
SQ Re s  12,0634

O quadro de análise de variância é o seguinte:

F.V. S.Q. G.L. Q.M. F


Blocos 13,9233 5
Tratamentos 1,7066 1 1,7066 2,41ns
Resíduo 12,0634 17 0,7096
Total

Como o teste F foi não-significativo, não se rejeita a hipótese H0 e conclui-


se que nenhum contraste entre duas médias de tratamentos será
significativamente diferente de zero, ao nível de 5% de probabilidade.

4.5 - Delineamento Látice (DL)

O delineamento blocos completos casualizados (DBC) torna-se menos


eficiente à medida que aumentamos o número de tratamentos porque se torna
difícil manter a homogeneidade das unidades experimentais, quando o tamanho
do bloco aumenta. Como alternativa para um grande número de tratamentos
temos os delineamentos blocos incompletos casualizados, dentre os quais o látice
é o mais comumente utilizado na pesquisa agrícola.
No delineamento blocos incompletos casualizados, cada bloco não contém
todos os tratamentos, o que possibilita manter um bloco razoavelmente pequeno,
mesmo com um grande número de tratamentos. Isto possibilita manter a
homogeneidade das unidades experimentais e conseqüentemente aumentar a
precisão do experimento. Entretanto, o delineamento látice (DL) apresenta as
desvantagens seguintes: a) inflexibilidade para o número de
tratamentos e/ou repetições; b) diferentes graus de precisão na comparação dos
tratamentos; e c) análise complexa.
A vantagem do delineamento blocos incompletos sobre o delineamento
blocos completos é aumentada por um decréscimo de variabilidade no material
experimental. Desta forma, uma regra prática útil seria considerar a possibilidade
de uso do látice apenas quando tornar-se difícil manter um nível razoável de
uniformidade entre as unidades experimentais dentro de um mesmo bloco. Os
dois tipos mais comuns de látice são o látice balanceado e o látice parcialmente
balanceado; ambos os delineamentos requerem que o número de tratamentos
seja um quadrado perfeito.

4.5.1 - Látice Balanceado


As características deste delineamento são as seguintes:
a) O número de tratamentos (t) deve ser um quadrado perfeito ( t  k 2 ) ;
b) O tamanho do bloco (k) é igual a raiz quadrada do número de tratamentos
(k  t 1 2 ) ;
c) O número de repetições (r) é um mais o tamanho do bloco (r  k  1) .
A casualização e o croqui será ilustrada para um delineamento látice
balanceado envolvendo nove tratamentos. Portanto, temos quatro repetições,
cada uma consistindo de três blocos contendo três parcelas experimentais. Os
passos a seguir são:
1º) Divida a área experimental em r  (k  1) repetições, cada uma contendo
t  k 2 parcelas experimentais. Para nosso exemplo, a área experimental é
dividida em r  4 repetições, cada uma contendo t  9 parcelas
experimentais;
2º) Divida cada repetição em k blocos incompletos, cada uma contendo k parcelas
experimentais. Para nosso exemplo, cada repetição é dividida em k  3 blocos
incompletos, cada um contendo k=3 parcelas experimentais, como mostrado a
seguir.

Bloco 1 1 2 3 10 11 12 19 20 21 28 29 30

Bloco 2 4 5 6 13 14 15 22 23 24 31 32 33

Bloco 3 7 8 9 16 17 18 25 26 27 34 35 36

Repetição I Repetição II Repetição III Repetição IV


FIGURA 05. Divisão da área experimental que consiste de 36 parcelas 4
repetições com 3 blocos incompletos cada e 3 parcelas por bloco,
para o delineamento látice 3 x 3.
3º) Selecionar em tabelas um plano básico de látice balanceado que corresponda
ao número de tratamentos a ser estudado. Para o nosso exemplo, o modelo
adequado é o do látice 3 x 3, mostrado a seguir.

TABELA 01. Plano básico de um DL balanceado, que envolve 9 tratamentos


em blocos de 3 unidades e 4 repetições.

Número dos Blocos Número dos Tratamentos


Incompletos Rep. I Rep. II Rep. III Rep. IV
1 123 147 159 168
2 456 258 267 249
3 789 369 348 357

4º) Casualize o arranjo de repetições do plano básico selecionado, seguindo, por


exemplo, uma tabela de números aleatórios. Selecione quatro números
aleatórios de três dígitos (372, 217, 963 e 404) e em seguida ordene-os do
menor para o maior; use a seqüência de seleção para representar o número
das repetições existentes no plano básico e a ordem para representar o
número das repetições do novo plano.

Número Aleatório Seqüência Ordem


372 1 2
217 2 1
963 3 4
404 4 3

Desta forma, o novo plano fica:

Número dos Blocos Número dos Tratamentos


Incompletos Rep. I Rep. II Rep. III Rep. IV
1 147 123 168 159
2 258 456 249 267
3 369 789 357 348

5º) Casualize os blocos incompletos dentro de cada repetição, seguindo, um


método apropriado. Para o nosso exemplo, usando-se o mesmo método
anterior para casualizar os 3 blocos incompletos, independentemente, em
cada uma das 4 repetições, tem-se:

Número dos Blocos Número dos Blocos Incompletos


Incompletos no Realocados no Plano Novo
Plano Básico Rep. I Rep. II Rep. III Rep. IV
1 3 2 3 1
2 2 1 1 3
3 1 3 2 2

Após isto o plano novo fica:

Número dos Blocos Número dos Tratamentos


Incompletos Rep. I Rep. II Rep. III Rep. IV
1 369 456 357 159
2 258 123 168 348
3 147 789 249 267

6º) Casualize o arranjo de tratamentos dentro de cada bloco incompleto. Para


nosso exemplo, devemos realocar aleatoriamente os 3 tratamentos de cada
um dos 12 blocos incompletos, seguindo o esquema da tabela de números
aleatórios. Após as 12 casualizações independentes, a seqüência dos
tratamentos realocados pode ser vista como:

Seqüência dos Tratamentos


Seqüência Realocados no Plano Novo
dos
Tratamentos Rep. I Rep. II Rep. III Rep. IV
no Plano Bl. Bl. Bl. Bl. Bl. Bl. Bl. Bl. Bl. Bl. Bl. Bl.
Básico 1 2 3 1 2 3 1 2 3 1 2 3
1 2 3 2 2 3 3 3 3 1 1 3 2
2 3 2 3 1 2 2 2 1 2 3 1 3
3 1 1 1 3 1 1 1 2 3 2 2 1

Então o novo plano fica:

Número dos Blocos Número dos Tratamentos


Incompletos Rep. I Rep. II Rep. III Rep. IV
1 693 546 753 195
2 852 321 816 834
3 471 987 249 672

7º) Aplique o resultado final do processo de casualização anterior ao croqui de


campo da Figura 05, o que resulta na Figura 06, mostrada a seguir.

Bloco 1 T6 T9 T3 T5 T4 T6 T7 T5 T3 T1 T9 T5

Bloco 2 T8 T5 T2 T3 T2 T1 T8 T1 T6 T8 T3 T4

Bloco 3 T4 T7 T1 T9 T8 T7 T2 T4 T9 T6 T7 T2
Repetição I Repetição II Repetição III Repetição IV
FIGURA 06. Croqui de campo de um látice balanceado, envolvendo nove
tratamentos.
É interessante observar que uma característica importante no arranjo de
um látice balanceado é que todos os pares de tratamentos ocorrem juntos apenas
uma vez, no mesmo bloco. Por exemplo, o tratamento 1 aparece apenas uma vez
com os tratamentos 4 e 7 no bloco 3 da repetição I; com os tratamentos 2 e 3 no
bloco 2 da repetição II; com os tratamentos 6 e 8 no bloco 2 da repetição III e com
os tratamentos 5 e 9 no bloco 1 da repetição IV. A conseqüência disto é que o
grau de precisão para comparar cada par de tratamento num delineamento látice
balanceado é o mesmo para todos os pares.
Para a análise de variância devemos considerar quatro fontes de variações
básicas que são: repetição, tratamento, bloco incompleto e erro experimental. Em
relação ao DBC, o bloco incompleto constitui uma fonte de variância adicional que
reflete as diferenças entre blocos incompletos da mesma repetição.

EXEMPLO DE APLICAÇÃO
O procedimento de cálculo da análise de variância do delineamento látice
balanceado será ilustrado por um experimento envolvendo 9 variedades de milho
num látice 3 x 3 (Extraído de Leclerg et al., 1962).

Bloco Total Bloco Total


Incompl Kg/parcela do Incompl Kg/parcela do
eto Bloco eto Bloco
(B) (B)
Rep. I Rep. II
(2) (3) (1) (6) (9) (3)
1 38,9 4 44,0
15,6 12,9 10,4 14,5 15,2 14,3

(7) (9) (8) (1) (7) (4)


2 39,1 5 37,3
11,4 13,4 14,3 10,7 13,7 12,9

(6) (4) (5) (8) (5) (2)


3 41,3 6 43,6
13,2 12,8 15,3 15,0 13,9 14,7

Total de Rep. I 119,3 Total de Rep. II 124,9


Rep. III Rep. IV
(1) (9) (5) (8) (1) (6)
7 32,9 10 39,5
7,7 13,3 11,9 14,5 10,9 14,1

(8) (4) (3) (3) (7) (5)


8 35,9 11 39,7
12,6 11,4 11,9 12,7 13,3 13,7
(2) (6) (7) (9) (2) (4)
9 39,0 12 45,4
12,1 15,6 11,3 13,5 16,6 15,3

Total de Rep. III 107,8 Total de Rep. IV 124,6

O procedimento analítico é o seguinte:


1º) Calcule os totais de blocos (B) e de repetições (R);
2º) Calcule os totais de tratamentos (T) e o total geral (G);
3º) Para cada tratamento, calcule o valor Bt como sendo a soma de totais de
blocos para todos os blocos nos quais um determinado tratamento aparece.
Observe que a soma dos valores Bt, para todos os tratamentos, deve ser igual
a (k) (G), onde k é o tamanho do bloco e G o total geral.
4º) Para cada tratamento, calcule o valor W, que é dado por
W  kT  (k  1) B t  G . Note que a soma dos valores W, para todos os
tratamentos, deve ser zero.
5º) Construa um esquema de análise de variância, como:

Fontes de Variação Graus de Liberdade

Repetição k3
Tratamento (não-ajustado) k 1 8
2

Bloco (ajustado) k2  1 8
Erro Intrabloco (k  1)(k 2  1)  16
Tratamento (ajustado) [( k 2  1)  8]
Erro Efetivo [( k  1)(k 2  1)  16]

Total k 2 (k  1)  1  35
O quadro a seguir fornece os valores calculados de T, Bt e W, para
cada tratamento:

QUADRO 09. Cálculos de T, Bt e W, para os dados do látice balanceado 3


x 3.

Número do Total de Total de W  3T  4B t  G


Tratamento Tratamento (T) Bloco (Bt)
1 39,7 148,6 1,3
2 59,0 166,9 -14,0
3 51,8 158,5 -2,0
4 52,4 159,9 -5,8
5 54,8 157,5 11,0
6 57,4 163,8 -6,4
7 49,7 155,1 5,3
8 56,4 158,1 13,4
9 55,4 161,4 -2,8
Total 476,6 (G) 1.429,8 =0,0

6º) Calcule as somas de quadrados total, de repetição e de tratamento não-


ajustado como:
G2
C
(k 2 )(k  1)
( 476,6) 2
C
(9)( 4)
C  6309,6544

SQTotal  x 2
C
SQTotal  (15,6) 2  (12,9) 2    (15,3) 2  6309,6544
SQTotal  6424,0000  6309,6544
SQTotal  114,3456

SQ Re p 
R C
2

k2
(119,3) 2  (124,9) 2  (107,8) 2  (124,6) 2
SQ Re p  C
9
SQ Re p  6330,9444  6309,6544
SQ Re p  21,29004

SQTrat (não  ajust.) 


T 2

C
(k  1)
(39,7) 2  (59,0) 2    (55,4) 2
SQTrat (não  ajust.)  C
4
SQTrat (não  ajust.)  6376,0250  6309,6544
SQTrat (não  ajust.)  66,3706
7º) Calcule a soma de quadrados de blocos ajustados, isto é, a soma de
quadrados para bloco dentro de repetição, ajustada para efeitos de
tratamentos, que é dada por:

W
i 1
i
2

SQBlo cos (ajust.) 


(k 3 )(k  1)

(1,3) 2  ( 14,0) 2    ( 2,5) 2


SQBlo cos (ajust.) 
(27)( 4)
SQBlo cos (ajust.)  5,6739

8º) Calcule a soma de quadrado do erro intrabloco como:


SQErro Intrabloco  SQTotal  SQ Re p  SQTrat (não  ajust.)  SQBlo cos (ajust.)
SQErro Intrabloco  114,34560  21,29004  66,3706  5,65917  21,02579
SQErro Intrabloco  21,01106

9º) Calcule o quadrado médio de blocos (ajust.) e o quadrado médio do erro


intrabloco como:
SQBlo cos (ajust)
QMBlo cos (ajust) 
k2 1
5,6739
QMBlo cos (ajust) 
8
QMBlo cos (ajust)  0,7092375

SQErro Intrabloco
QMErro Intrabloco 
(k  1)(k 2  1)
21,01106
QMErro Intrabloco 
(2)(8)
QMErro Intrabloco  1,3131913

10º) Para cada tratamento, calcule os totais de tratamentos ajustados (T’) como:
T'  T   W, onde

QMBlo cos (ajust.)  QMErro Intrabloco



k 2 [QMBlo cos (ajust.)]

Deve ser observado que se o QMErro intrabloco for maior que o


QMBlocos (ajust.), o  é tomado como zero e não é necessário nenhum
ajuste para tratamentos. Neste caso, o teste de significância F para
tratamento é feito da maneira usual, ou seja, como a razão entre
QMTratamento (não-ajust.) e QM do Erro Intrabloco.
No nosso exemplo, o fator de ajustamento  é:
0,70736  1,314112

9 (0,70736)
  0,94617
Como o QMErro Intrabloco > QMBlocos (ajust.), tem-se   0 . Se o
fator de ajustamento é zero, então T  T' .

11º) Para cada tratamento, calcule a média de tratamento ajustado (M’) como:

T'
M' 
k 1
Os totais e as médias de tratamentos ajustados constam do quadro a seguir.
QUADRO 10. Totais e médias de tratamentos ajustados.

T'
Número do Tratamento T'  T   Wi M' 
4
1 39,7 9,93
2 59,0 14,75
3 51,8 12,95
4 52,4 13,10
5 54,8 13,70
6 57,4 14,35
7 49,7 12,43
8 56,4 14,10
9 55,4 13,85

12º) Calcule o quadrado médio de tratamentos ajustado como:


  2 G 
2


1
QMTrat (ajust.)    T '  
 (k  1)(k  1)  
2
k2 
 1 
QMTrat (ajust.)    ( 
39,7 ) 2
 ( 59 ,0 ) 2
   ( 55,4 )2

( 4,766) 2 

 ( 4)(8)   9 
 1
QMTrat (ajust.)    25504,100  25238,6178 
 32 
QMTrat (ajust.)  8,29632

13º) Calcule o quadrado médio do erro efetivo como:


QMErro Efetivo  (QMErro Intrabloco )(1  k  )
QMErro Efetivo  (1,3131913)(1)
QMErro Efetivo  1,3131913

14º) Calcule o valor F para testar a significância de tratamentos como:


QMTratamen tos (ajust.)
F
QMErro Efetivo
8,29632
F
1,314112
F  6,32 * *

15º) Compare o valor F calculado com o F tabelado com n1  (k 2  1)  8 e


n 2  (k  1)(k 2  1)  16 graus de liberdade (F1%  3,89) . Porque o valor de F
calculado é maior que o valor de F tabelado, ao nível de significância de 1%,
a diferença entre médias de tratamento é julgada como altamente
significativas.

16º) Construa o quadro de Análise de Variância como:

QUADRO 11. Análise de Variância de um látice 3 x 3 para produção


(kg/parcela) de variedades de milho.
F.V. G.L. S.Q. Q.M. F
Repetição 3 21,2900
Tratamentos (não-ajust.) 8 66,3706
Blocos (ajust.) 8 5,6592 0,707396
Erro Intrabloco 16 21,0258 1,314112
Tratamento (ajust.) (8) - 8,296322 6,31**
Erro Efetivo (16) - 1,314112
Total 35 114,3456

17º) Calcule o valor do coeficiente de variação como:


QMErro Efetivo
CV  100  CV 
1,314112
100  8,66%
Média Geral 13,23889
18º) Estima-se o ganho em precisão de um delineamento látice balanceado em
relação ao DBC como:
100 SQBlo cos (ajust.)  SQErro Intrabloco 
ER 
k (k 2  1)(QMErro Efetivo )
100 (5,6592  21,0258)
ER   84,61%
(3)(8)(1,314112)

Este resultado indica que o uso do látice balanceado 3 x 3 é estimado


como sendo responsável por um decréscimo de 15,4% na precisão
experimental que teria sido obtida com o DBC.

4.5.2 - Látice Parcialmente Balanceado

Este delineamento é semelhante ao látice balanceado, mas apresenta a


característica de ser mais flexível quanto à escolha do número de repetições. Este
delineamento também exige que o número de tratamentos seja um quadrado
perfeito e que o tamanho do bloco seja igual à raiz quadrada do número de
tratamentos, mas não prescreve que o número de repetições seja uma função do
número de tratamentos. Desta forma, qualquer número de repetições pode ser
usado num delineamento látice parcialmente balanceado.
Diz-se que o látice parcialmente balanceado é simples quando tem duas
repetições; triplo com três repetições; quádruplo com quatro repetições e assim
sucessivamente. Entretanto, esta flexibilidade na escolha do número de repetições
tem como conseqüência a perda de simetria no arranjo dos tratamentos sobre os
blocos incompletos (alguns pares de tratamentos nunca vão ocorrer juntos num
mesmo bloco incompleto). Desta forma, os pares de tratamentos que são testados
no mesmo bloco incompleto são comparados com um nível de precisão que é
superior àquele dos tratamentos que não são testados no mesmo bloco incompleto.
Os tratamentos que ocorrem juntos no mesmo bloco incompleto são chamados de
primeiros associados e testados com o QMErro1. Os tratamentos que não ocorrem
juntos em nenhum bloco incompleto são chamados de segundos associados e são
testados com o QMErro2. Porque existe mais de um nível de precisão para comparar
os tratamentos, a análise dos dados torna-se mais complicada.
Os procedimentos para casualização e construção de croquis de campo de
delineamento látice parcialmente balanceado são semelhantes àqueles para
látice balanceado, exceto para a modificação no número de repetições.
Quando o número de repetições (r) de um látice parcialmente balanceado é
maior que três e par, o plano básico pode ser obtido como: a) as primeiras
repetições do plano básico do látice balanceado que tem o mesmo número de
tratamentos; ou b) as primeiras r/p repetições do plano básico do látice
balanceado que tem o mesmo número de tratamentos, repetido p vezes, com p
casualizações separados e independentes. A opção (a) é dita ser sem repetições
do plano básico e a (b) com repetições do plano básico.
Por exemplo, para um látice 5 x 5 quádruplo (látice parcialmente
balanceado com quatro repetições) o plano básico pode ser obtido tanto como as
primeiras quatro repetições do látice 5 x 5 balanceado ou como látice 5 x 5
simples repetido duas vezes (p=2) e com duas casualizações separadas, como se
fosse dois látices 5 x 5 simples. Para o látice triplo (parcialmente balanceado com
três repetições) as três primeiras repetições do plano básico do látice balanceado
correspondente poderiam ser utilizadas. Geralmente, o procedimento que usa o
plano básico sem repetições é ligeiramente preferido porque ele fornece uma
simetria de tratamentos mais próxima daquela encontrada num látice balanceado.
Uma vez escolhido o plano básico, o processo de casualização do croqui
de campo é semelhante ao visto para látice balanceado. Os procedimentos para a
análise de variância de um látice parcialmente balanceado são ligeiramente
diferentes para os casos com repetição e sem repetição do plano básico.

EXEMPLO DE APLICAÇÃO
Ilustraremos a seguir a análise de variância de um látice parcialmente
balanceado sem repetição do plano básico. Trata-se de um látice triplo 9 x 9 que
avaliou o desempenho de 81 variedades de arroz. Os dados de produção estão no
quadro a seguir (Extraído de Gómez & Gómez, 1984).
QUADRO 11. Produção de grãos de um experimento com 81 variedades de arroz
conduzido no delineamento látice triplo 9 x 9.

Blocos Total de
Incompletos Produção de grãos (t/ha) Blocos (B)

Rep. I

(1) (2) (3) (4) (5) (6) (7) (8) (9)


1 28,97
2,70 1,60 4,45 2,91 2,78 3,32 1,70 4,72 4,79

(10) (11) (12) (13) (14) (15) (16) (17) (18)


2 30,40
4,20 5,22 3,96 1,51 3,48 4,69 1,57 2,61 3,16

(19) (20) (21) (22) (23) (24) (25) (26) (27)


3 42,10
4,63 3,33 6,31 6,08 1,86 4,10 5,72 5,87 4,20

(28) (29) (30) (31) (32) (33) (34) (35) (36)


4 38,64
3,74 3,05 5,16 4,76 3,75 3,66 4,52 4,64 5,36
(37) (38) (39) (40) (41) (42) (43) (44) (45)
5 39,68
4,76 4,43 5,36 4,73 5,30 3,93 3,37 3,74 4,06

(46) (47) (48) (49) (50) (51) (52) (53) (54)


6 26,48
3,45 2,56 2,39 2,30 3,54 3,66 1,20 3,34 4,04

(55) (56) (57) (58) (59) (60) (61) (62) (63)


7 34,00
3,99 4,48 2,69 3,95 2,59 3,99 4,37 4,24 3,70

(64) (65) (66) (67) (68) (69) (70) (71) (72)


8 39,51
5,29 3,58 2,14 5,54 5,14 5,73 3,38 3,63 5,08

(73) (74) (75) (76) (77) (78) (79) (80) (81)


9 43,47
3,76 6,45 3,96 3,64 4,42 6,57 6,39 3,39 4,89

Total de Repetição (RI)


323,25
Continua...
Continuação...
Total de
Produção de grãos (t/ha) Blocos (B)

Rep. II

(1) (10) (19) (28) (37) (46) (55) (64) (73)


1 28,47
3,06 2,08 2,95 3,75 4,08 3,88 2,14 3,68 2,85

(2) (11) (20) (29) (38) (47) (56) (65) (74)


2 32,36
1,61 5,30 2,75 4,06 3,89 2,60 4,19 3,14 4,82

(3) (12) (21) (30) (39) (48) (57) (66) (75)


3 34,01
4,19 3,33 4,76 4,99 4,58 3,17 2,69 2,57 3,82

(4) (13) (22) (31) (40) (49) (58) (67) (76)


4 34,18
1,61 5,30 2,75 4,06 3,89 2,60 4,19 3,14 4,82

(5) (14) (23) (32) (41) (50) (59) (68) (77)


5 32,83
3,81 3,48 1,87 4,34 4,36 3,24 3,62 4,49 3,62

(6) (15) (24) (33) (42) (51) (60) (69) (78)


6 37,14
3,34 3,30 3,68 3,84 4,25 3,90 3,64 5,09 6,10

(7) (16) (25) (34) (43) (52) (61) (70) (79)


7 34,28
2,98 2,69 5,55 3,52 4,03 1,20 4,36 3,18 6,77

(8) (17) (26) (35) (44) (53) (62) (71) (80)


8 32,91
4,20 2,69 5,14 4,32 3,47 3,41 3,74 3,67 2,27

(9) (18) (27) (36) (45) (54) (63) (72) (81)


9 34,44
4,75 2,59 3,94 4,51 3,10 3,59 2,70 4,40 4,86
Total de Repetição (RII)
300,62
Rep. III

(1) (12) (20) (34) (45) (53) (58) (70) (77)


1 31,17
3,52 2,18 3,50 3,30 3,88 2,45 3,75 4,45 4,14

(2) (10) (21) (35) (43) (54) (59) (67) (78)


2 35,21
0,79 3,58 4,83 3,63 3,02 4,20 3,59 5,06 6,51

(3) (11) (19) (36) (44) (52) (60) (68) (76)


3 39,53
4,69 5,33 4,43 5,31 4,13 1,98 4,66 4,50 4,50

(4) (15) (23) (28) (39) (47) (61) (72) (80)


4 33,18
3,06 4,30 2,02 3,57 5,80 2,58 4,27 4,84 2,74

(5) (13) (24) (29) (37) (48) (62) (70) (81)


5 27,74
3,79 0,88 3,40 4,92 2,12 1,89 3,73 3,51 3,50

(6) (14) (22) (30) (38) (46) (63) (71) (79)


6 37,13
3,34 3,97 5,72 5,34 4,47 4,18 2,70 3,96 3,48

(7) (18) (26) (31) (42) (50) (55) (66) (74)


7 30,45
2,35 2,87 5,50 2,72 4,20 2,87 2,99 1,62 5,33

(8) (16) (27) (32) (40) (51) (56) (64) (75)


8 32,78
4,51 1,26 4,20 3,19 4,76 3,35 3,61 4,52 3,38

(9) (17) (25) (33) (41) (49) (57) (65) (73)


9 33,99
4,21 3,17 5,03 3,34 5,31 3,05 3,19 2,63 4,06

Total de Repetição (RIII)


301,18

Para computar a Análise de Variância devem ser feitos os cálculos


seguintes:
1º) Calcule os totais dos blocos (B), totais de repetição (R) e o total geral (G):
G  RI  RII  RIII  G  323,25  300,62  301,18  G  925,05

2º) Calcule os totais de tratamentos (T):

Tratamento Tratamento Tratamento Tratamento Tratamento


Nº Total Nº Total Nº Total Nº Total Nº Total
(T) (T) (T) (T) (T)
1 9,28 2 4,00 3 13,33 4 8,96 5 10,38
6 10,00 7 7,03 8 13,43 9 13,75 10 9,86
11 15,85 12 9,47 13 4,89 14 10,90 15 12,29
16 5,52 17 8,47 18 8,62 19 12,01 20 9,58
21 15,81 22 16,67 23 5,75 24 11,18 25 16,30
26 16,51 27 12,34 28 11,06 29 12,03 30 15,49
31 11,19 32 11,28 33 10,84 34 11,34 35 12,59
36 15,18 37 10,96 38 12,79 39 15,74 40 14,34
41 14,97 42 12,38 43 10,42 44 11,34 45 11,04
46 11,51 47 7,74 48 7,45 49 8,22 50 9,65
51 10,91 52 4,38 53 9,20 54 11,83 55 9,12
56 12,28 57 8,57 58 11,49 59 9,80 60 12,29
61 13,00 62 11,71 63 9,10 64 13,49 65 9,35
66 6,33 67 15,88 68 14,13 69 15,24 70 10,07
71 11,26 72 14,32 73 10,67 74 16,60 75 11,16
76 11,46 77 12,18 78 19,18 79 16,64 80 8,40
81 13,25

3º) Construa o esquema de Análise de Variância do látice triplo 9 x 9 como:

Fontes de Variação Graus de Liberdade

Repetição r 1 2
Bloco (ajustado) r (k  1)  24
Tratamento (não-ajustado) k 2  1  80
Erro Intrabloco (k  1)(rk  k  1)  136
Tratamento (ajustado) [( k 2  1)  (80)]

Total (r )(k 2 )  1  242

Obs.: r é o número de repetições e k é o tamanho do bloco incompleto.

4º) Calcule as somas de quadrados total, de repetição e de tratamento (não-


ajustado) da maneira padrão:
G2 (925,05) 2
C   3521,4712
(r )(k 2 ) (3)(81)

SQTotal  x 2
C
 
SQTotal  (2,70) 2  (1,60) 2    ( 4,06) 2  3521,4712
SQTotal  308,9883

SQRe p 
R 2

C  SQRe p 
(323,25) 2  (300,62) 2  (301,18) 2
 3521,4712
k2 81
SQRe p  4,1132

SQTrat (não  ajust.) 


T 2

C
r
(9,28) 2  ( 4,00) 2    (13,25) 2
SQTrat (não  ajust.)   3521,4712
3
SQTrat (não  ajust.)  256,7386

5º) Para cada bloco incompleto, calcule o valor Cb  M  rB , onde M é a soma de


totais de tratamentos para todos os tratamentos que aparecem naquele
determinado bloco e B é o total de bloco, dentro de cada repetição. Por
exemplo, o bloco 2 da repetição II contém os tratamentos 2, 11, 20, 29, 38,
47, 56, 65 e 74; portanto, o valor M para o bloco 2 da repetição II é:
M  T2  T11  T20  T29  T38  T47  T56  T65  T74
M  4,00  15,85    16,60  100,22
E o valor Cb correspondente é dado por:
Cb  100,22  3(32,36)  3,14 .

Os valores Cb, para os 27 blocos incompletos são:

Rep. I Rep. II Rep. III


Bloco Bloco Bloco
Cb Cb Cb
Incompleto Incompleto Incompleto
1 3,25 1 12,55 1 5,34
2 -5,33 2 3,14 2 3,74
3 -10,15 3 1,32 3 -8,62
4 -4,92 4 0,56 4 -2,28
5 -5,06 5 0,55 5 8,70
6 1,45 6 2,92 6 2,97
7 -4,64 7 -8,14 7 6,08
8 -8,43 8 4,18 8 6,41
9 -10,87 9 6,11 9 -0,83
Total -44,70 Total 23,19 Total 21,51

6º) Para cada repetição, calcule a soma de valores Cb sobre todos os blocos:
R c (I)  3,25  ( 5,33)    ( 10,87)  44,70
R c (II)  12,55  3,14    6,11  23,19
R c (III )  5,34  3,74    ( 0,83)  21,51

Observe que os valores Rc devem ter soma igual a zero


(44,70  23,19  21,51  0)

7º) Calcule as SQBlocos (ajustada) como:

SQBlo cos (ajust.) 


C b
2


R c
2

(k )(r )(r  1) (k 2 )(r )(r  1)


(3,25) 2  ( 5,33) 2    ( 0,83) 2 ( 44,70) 2  (23,19) 2  (21,15) 2
SQBlo cos (ajust.)  
(9)(3)(3  1) (81)(3)(3  1)
SQBlo cos (ajust.)  12,1492

8º) Calcule a SQErro Intrabloco como:


SQErro Intrabloco  SQTotal  SQ Re p  SQTrat (não  ajust.)  SQBloco (ajust.)
SQErro Intrabloco  308,9883  4,1132  256,7386  12,1492
SQErro Intrabloco  35,9873

9º) Calcule o Quadrado Médio de Bloco (ajustado) e o Quadrado Médio do Erro


Intrabloco como:
SQBloco (ajust)
QMBloco (ajust) 
r (k  1)
12,1492
QMBlo cos (ajust)   0,5062
3(9  1)
SQErro Intrabloco
QMErro Intrabloco 
(k  1)(r k  k  1)
35,9873
QMErro Intrabloco 
(9  1)  (3)(9)  9  1 
QMErro Intrabloco  0,2646

10º) Calcule o fator de ajustamento  como:


 1 2 
  
QMErro 3QMBloco  QMErro 
  , onde
 2 2 
k  
 QMErro 3QMBloco  QMErro 
QMErro = Quadrado Médio do Erro Intrabloco; e
QMBloco = Quadrado Médio de Bloco (ajustado).

Observe que se QMBloco é menor que QMErro, é tomado como sendo


zero e nenhum ajustamento é feito. Neste caso, o teste de significância F
para o efeito de tratamento é feito da maneira usual como a razão de
QMTratamento (não-ajustado) e QMErro Intrabloco. Para nosso exemplo
temos que
 1 2 
  
 0,2646 3(0,5062)  0,2646 

 2 2 
9   
 0,2646 3(0,5062)  0,2646 
  0,0265

11º) Para cada tratamento, calcule os totais de tratamentos ajustados (T’) como:
T'  T    Cb

Onde  Cb envolve o Cb de todos os blocos nos quais aparece um


determinado tratamento. Por exemplo, o total de tratamento ajustado para o
tratamento número 2 é calculado como:
T2 '  4, 00  0, 0265 (3, 25  3,14  3, 74)  4, 27
Para as comparações de médias deve-se utilizar as médias de
tratamento ajustadas, que são computadas simplesmente dividindo cada
total de tratamento ajustado pelo número de repetições.
12º) Calcule a Soma de Quadrados de Tratamento Ajustada e o valor F do teste
de significância.
SQTrat (ajust.)  SQTrat (não  ajust.)  A , onde

 1 2 
A  
 QMErro (3QMBloco  QMErro) 
  (QMErro) B  (k  1)(QMErro)(rQMBloco  QMErro) 
e B 
B 2


R 2

. Então temos que


k k2
(28,97) 2  (30,40) 2    (33,99) 2 (323,25) 2  (300,62) 2  (301,18) 2
B  
9 81
B   49,4653

 1 2 
A  
 0, 2646 3(0,5062)  0, 2646 
0, 2646 (49, 4653)  8 (0, 2646) 3 (0,5062)  0, 2646  
A  22, 7921
SQTrat (ajust.)  256,7386  22,7921
SQTrat (ajust.)  233,9465
SQTrat (ajust.)
QMTrat (ajust.) 
k2 1
233,9465
QMTrat (ajust.)   2,9243
80
QMTrat (ajust.) 2,9243
F   11,05
QMErro Intrabloco 0,2646
O coeficiente de variação é computado como:
QMErro Intrabloco
CV  (100)
Média Geral
0,2646
CV  (100)  13,5%
3,81
13º) Construa o quadro de Análise de Variância como:

F.V. G.L. S.Q. Q.M. F


Repetição 2 4,1132
Blocos (ajust.) 24 12,1492 0,5062
Tratamentos (não-ajust.) 80 256,7386
Erro Intrabloco 136 35,9873 0,2646
Tratamento (ajust.) (80) 233,9465 2,9243 11,05**
Total 242 308,9883

14º) Calcule o quadrado médio do erro efetivo.


Para um látice parcialmente balanceado, existem dois erros: um para
comparações entre tratamentos que aparecem no mesmo bloco (QMErro 1) e
outro para comparações entre tratamentos que não aparecem no mesmo
bloco (QMErro2), que são dados por
 6 
QMErro  QMErro 
QMErro 1    (k  2)
k  2 2 

 QMErro 3QMBloco  QMErro 
 9 
QMErro  QMErro 
QMErro 2    (k  3)
k  2 2 

 QMErro 3QMBloco  QMErro 

Para um experimento grande, estes dois valores podem não diferir


muito, e por simplicidade, o QMErro Efetivo Médio pode ser usado para
comparar qualquer par de médias:
 9 
QMErro  QMErro 
QMErro Médio    (k  2)
k 1  2 2 

 QMErro 3QMBloco  QMErro 
Para nosso exemplo temos:
 6 
0,2646  0,2646 
QMErro 1    7  0,2786
9  2 2 
 0,2646  3(0,5062)  0,2646 
 

 9 
0,2646  0,2646 
QMErro 2    6  0,2856
9  2 2 
 0,2646  3(0,5062)  0,2646 
 

 9 
0,2646  0,2646 
QMErro Médio    7  0,2835
10  2 2 
 0,2646  3(0,5062)  0,2646 
 
15º) Calcule a eficiência do delineamento látice parcialmente balanceado em
relação à DBC, como:
 SQBloco (ajust.)  SQErro Intrabloco   100 
E.R. Média     QMErro  
 r(k  1)  (k  1)(rk  k  1)  
 12,1492  35,9873   100 
E.R. Média      106,1%
 24  136   0,2835 

OUTRO EXEMPLO DE APLICAÇÃO

Para o caso de um látice parcialmente balanceado com repetição do


plano básico a análise de variância é ilustrada pelo experimento seguinte:
látice quádruplo 5 x 5 cujo plano básico é obtido pela repetição de um látice
simples duas vezes. Os dados de produção de grãos de 25 variedades de
arroz usadas como tratamento (rearranjadas de acordo com o plano básico)
são apresentados no quadro a seguir (Extraído de Gómez & Gómez, 1984).
Observe que as repetições I e II são provenientes das duas primeiras
repetições do plano básico do látice 5 x 5 balanceado e as repetições III e IV
são repetições das repetições I e II.

QUADRO 12. Produção de grãos de um experimento de variedades de arroz


conduzido num Delineamento Látice Quádruplo com repetição.

Rep. I Rep. II Rep. III Rep. IV


Bl Prod. Total Prod. Total Prod. Total Prod. Total
Trat. (kg/ha) Blocos (B) Trat. (kg/ha) Blocos (B) Trat. (kg/ha) Blocos (B) Trat. (kg/ha) Blocos (B)
oc
os
1 4723 1 6262 1 5975 1 5228
2 4977 6 5690 2 5915 6 5302
1 3 6247 11 6498 3 6914 11 5190
4 5325 16 8011 4 6389 16 7127
5 7139 21 5887 5 7542 21 5323
28411 32348 32735 28170
6 5444 2 5038 6 4750 2 5681
7 5567 7 4615 7 5983 7 6146
2 8 5809 12 5520 8 5339 12 6032
9 5086 17 6063 9 4615 17 7066
10 6849 22 6486 10 5336 22 6680
28755 27722 26023 31605
11 5237 3 6057 11 3 6750
12 5174 8 6397 12 6110 8 6567
3 13 5395 13 5214 13 6001 13 5786
14 5112 18 7093 14 5486 18 71159
15 5637 23 7002 15 6415 23 7268
26555 31763 29085 33530
16 5793 4 5291 16 6064 4 6020
17 6008 9 4864 17 6405 9 5136
4 18 6864 14 5453 18 6856 14 6413
19 5026 19 4917 19 4654 19 5760
20 6348 24 6318 20 598 24 6856
30039 26843 29965 30185
21 5321 5 7685 21 5750 5 7173
22 6870 10 5985 22 6539 10 5626
5 23 7512 15 6107 23 7576 15 6310
24 6648 20 6710 24 7372 20 6529
25 6948 25 6915 25 6439 25 6677
33299 33402 33676 32315
147059 152078 151484 155805

QUADRO 13. Totais de tratamentos computados à partir dos dados do quadro


anterior.

Tratamento Tratamento Tratamento Tratamento Tratamento


Número Total (T) Número Total (T) Número Total (T) Número Total (T) Número Total (T)
1 22.188 2 21.611 3 25.968 4 23.025 5 29.539
6 21.186 7 22.311 8 24.112 9 19.701 10 23.796
11 21.998 12 22.836 13 22.396 14 22.464 15 24.469
16 26.995 17 25.542 18 27.972 19 20.357 20 25.573
21 22.281 22 26.575 23 29.358 24 27.194 25 26.979

Os passos da Análise de Variância são:


19º) Calcular os totais de blocos (B) e os totais de repetições (R). O total geral
(G) é dado por G   R  147059  152078  151484 155805  606426
20º) Calcular os totais de tratamentos (T) como mostrados no quadro anterior.
21º) Construir um esquema de Análise de Variância de um delineamento látice
parcialmente balanceado com repetição, como a seguir:

Fontes de Variação Graus de Liberdade


Repetição (n)(p)  1  3
Blocos (Ajust.) (n)(p)(k  1)  16
Componente (a) [n (p  1)(k  1)  8]
Componente (b) [n (k  1)  8]
Tratamentos (Não-ajust.) (k 2  1)  24
Erro Intrabloco (k  1)(npk  k  1)  56
Tratamentos (Ajust.) [k 2  1  24]

Total (n)(p)(k 2 )  1  99

Aqui, n é o número de repetições no delineamento básico e P é o


número de vezes que o delineamento básico é repetido. Como antes, k é o
tamanho do bloco. Neste exemplo, o delineamento básico é látice simples e
portanto n=2 e porque o delineamento básico é usado duas (2) vezes, p=2.
22º) Computar a SQTotal, SQRepetição e SQTratamento (Não-Ajustado) como:
G2 (606426) 2
C.F.    3677524934
(n)(p)(K 2 ) (2)( 2)( 25)

SQTotal  X 2
 C.F.

SQTotal  ( 4723) 2  ( 4977) 2    (6677) 2  C.F. 
SQTotal  63513102

SQ Re plicação 
R 2

 C.F.
K2
(147059) 2  (152078) 2  (151484) 2  (155805) 2
SQ Re plicação   3677524934
25
SQ Re plicação  1541779

SQTratamen to (Não  Ajust.) 


T 2

 C.F.
(n)(p)
(22188) 2  (21611) 2    (26979) 2
SQTratamen to (Não  Ajust.)   3677524934
(2)( 2)
SQTratamen to (Não  Ajust.)  45726281

23º) Para cada bloco, em cada repetição, computar o valor S como a soma dos
totais de blocos sobre todas as repetições do látice. Para cada valor S,
calcular o valor C correspondente como: C   T  nS ; onde n é o número de
repetições do delineamento básico, T é o total de tratamentos, e o somatório
é feito apenas sobre os tratamentos que aparecem no bloco que corresponde
ao valor S envolvido.
Para nosso exemplo, existem duas repetições, cada uma consistindo de
duas repetições – repetição I e repetição II na repetição 1 e repetição III e
repetição IV na repetição 2. Portanto, o primeiro valor S, que corresponde ao
bloco 1, obtido das repetições I e III, é computado como
S  28411 32735  61146 . Porque os cinco tratamentos no bloco 1 da
repetição 1 são os tratamentos 1, 2, 3, 4 e 5, o primeiro valor C, que
corresponde ao primeiro valor S, é computado como:
C  (22188  21611  25968  23025  29539)  2(61146)  122331  1222922  39

As computações de todos os valores S e C estão no quadro a seguir.


Compute os valores de totais de C sobre todos os blocos numa repetição (ou
seja, R j , j  1, 2, , p ). Para nosso exemplo, os dois valores R são 9340 para a
repetição 1 e –9340 para a repetição 2. A soma de todos os valores Rj deve
ser zero.

24º) Suponha que B denote o total de blocos; D a soma de valores S para cada
repetição; A a soma de totais de blocos para cada repetição. Compute os dois
componentes, (a) e (b), da SQ de Blocos (Ajust.) como:
a) S.Q. Componente (a)  X  Y  Z , onde:
p

B 2 D
j1
j
2

X 
K pK 2
p

S 2 D
j1
j
2

Y 
pK pK 2
p

A 2 D
j1
j
2

Z 2

K pK 2
(28411) 2  (28755) 2    (32315) 2 (298543) 2  (3078833) 2
X 
5 (2)(25)
X  3701833230  3678397290  23435940
(61146) 2  (54778) 2    (65717) 2 (298543) 2  (3078833) 2
Y 
(2)(5) (2)( 25)
Y  15364391
(147059) 2  (152078) 2  (151484) 2  (155805) 2 (298543) 2  (3078833) 2
Z 
25 (2)(25)
Z  669423
S.Q. Componente (a)  23435940  15364391 669423  7402126

b) S.Q. Componente (b) 


C 2


R j
2

(k )(n)(p)(n  1) (k 2 )(n)(p)(n  1)
(39) 2  (1550) 2    ( 1078) 2 (9340) 2  ( 9340) 2
 
(5)( 2)(2)(1) (25)(2)(2)(1)
 3198865
25º) Computar a S.Q. Blocos (Ajust.) como:
S.Q. Blocos (Ajust.) = S.Q. Componente (a) + S.Q. Componente (b)
SQBlo cos ( Ajust.)  SQComponen te (a)  SQComponente (b)
SQBlo cos ( Ajust.)  7402126  3198865  10600991

26º) Computar a S.Q. do Erro Intrabloco como:


S.Q. Erro Intrabloco = S.Q. Total – S.Q. Replicação – S.Q. Tratamentos (Não-Ajust.) – S.Q.
Blocos (Ajust.)
SQErro Intrabloco  63513102 - 1541779 - 45726281- 10600991  5644051

27º) Computar o Q.M. Blocos (Ajust.) e o Q.M. Erro Intrabloco como:


SQBlo cos ( Ajust.) 10600991
QMB    662562
np(k  1) (2)(2)( 4)
SQErro Intrabloco 5644051
QME    100787
(k  1)(npk  k  1) ( 4)( 20  5  1)

28º) Computar o fator de ajustamento como:


P(QMB  QME ) 2(662562  100787)
   0,15759
K p(n  1)QMB  (p  1)QME  5 2(662562)  (100787)

29º) Computar para cada tratamento, o total de tratamento ajustado como:


T'  T    C , onde o somatório opera sobre todos os blocos no qual o
determinado tratamento aparece. Por exemplo, o total de tratamento
ajustado para o tratamento 1, que aparece no bloco 1 de ambas as
repetições é computado como:
T'  22188  0,15759 (39  6388)  21187
Os resultados de todos os valores T’ são mostrados no quadro a seguir:

QUADRO 14. Totais de tratamentos ajustados computados à partir dos quadros


anteriores.

Tratamento Tratamento Tratamento Tratamento Tratamento


Número Total (T’) Número Total (T’) Número Total (T’) Número Total (T’) Número Total (T’)
1 22.187 2 21.652 3 25.851 4 22.824 5 29.375
6 20.424 7 22.590 8 24.233 9 19.738 10 23.870
11 21.446 12 23.325 13 22.727 14 22.711 15 24.754
16 27.002 17 26.590 18 28.863 19 21.163 20 26.417
21 21.028 22 26.364 23 28.989 24 26.740 25 26.563

30º) Computar a soma de quadrados de tratamentos ajustada como:


SQTratamento ( Ajust.)  SQTratamento (Não  Ajust.)  A
 (n)( Y ) 
A  K (n  1)    SQComponente (b)
 (n  1)(1  k  ) 
Onde Y é calculado como definido anteriormente.
 2 (15364391) 
A  5 (1)(0,15759)   3198865  11021636
  1  5 (0,15759)  
SQTratamen to ( Ajust.)  45726281  11021636  34704645

31º) Computar o quadrado médio de tratamento ajustado:


SQTratamen to ( Ajust.) 34704645
QMTratamen to ( Ajust.)    1446027
k 1
2
25  1
32º) Computar o valor F como:
QMTratamen to ( Ajust.) 1446027
F   14,35
QMErro Intrabloco 100787

Computar o valor CV correspondente como:


QMErro Intrabloco
CV   100
Média Geral
10087
CV   100  5,2%
6064

33º) Comparar o valor F calculado com o valor f tabelado, com f1  (k 2  1)  24 e


f 2  (k  1)(npk  k  1)  56 graus de liberdade, para o nível de significância
desejado.
34º) Coloque todos os valores computados nos passos 4º a 9º e 12º a 14º no
esquema de análise de variância do 3º passo. O resultado final é
apresentado no quadro a seguir:

QUADRO 15. Análise de variância (delineamento látice quádruplo 5 x 5).

F.V. G.L. S.Q. Q.M. F


Repetição 3 1541779
Bloco (Ajust.) 16 10600991 662562
Componente (a) 8 7402126
Componente (b) (8) 3198865
Tratamento (Não-Ajust.) 24 45726281
Erro Intrabloco 56 5644051 100787
Tratamento (Ajust.) (24) 34704645 1446027 14,35**
Total 99 63513102
CV = 5,2%

35º) Computar os valores dos dois quadrados médios do erro efetivo como:
a) Para comparar os tratamentos que aparecem no mesmo bloco:
QMErro (1)  QME 1  (n  1)   100787 1  (2  1)(0,15759)  116670

b) Para comparar tratamentos que não aparecem no mesmo bloco:


QMErro (2)  QME (1  n )  100787 1  2 (0,15759)  132553

Quando for usado a média do Q.M. do Erro Efetivo compute-a como:


 (n)(k )( )   2 (5)(0,15759) 
QMErro Médio  QME 1    100787 1    127259
 k 1   6 

36º) Computar a eficiência do látice em relação ao delineamento blocos


completos casualizados:
 SQBloco ( Ajust.)  SQErro Intrabloco   100 
E.R.     QMErro 
 (n)(p)(k  1)  (k  1)(npk  k  1)   
Onde Q.M. Erro refere-se ao Q.M. do Erro Efetivo apropriado. Para nosso
exemplo temos:
 10600991  5644051  100 
E.R. (1)     116670   193,4%
 72  
 10600991  5644051  100 
E.R. (2)     132553   170,2%
 72  
 10600991  5644051  100 
E.R. (Média )     127259   177,3%
 72  

QUADRO 16. Valores de S e os valores correspondentes de C, baseados


nos totais de blocos rearranjados em pares de blocos contendo
o mesmo conjunto de tratamentos.

Totais de Blocos
Blocos S C

Repetição 1
Repetição I Repetição III
1 28411 32735 61146 39
2 28755 26023 54778 1550
3 26555 29085 55640 2883
4 30039 29965 60004 6431
5 33299 33676 66975 -1563
Totais 147059 151484 298543 9340
Repetição 2
Repetição II Repetição IV
1 32348 28170 60518 -6388
2 27722 31605 59327 221
3 31763 33530 65293 -780
4 26843 30185 57028 -1315
5 33402 32315 65717 -1078
Totais 152078 155805 307883 -9340

Denomina-se de robustos os delineamentos experimentais que sejam


pouco afetados por perdas de parcelas, tratamentos ou blocos. O delineamento
blocos completos casualizados é um delineamento robusto porque a perda de
parcelas, de tratamentos ou de blocos não altera as propriedades do
delineamento nem causa dificuldades na análise e interpretação dos dados. Por
outro lado, o delineamento blocos incompletos balanceados (látice balanceado)
não é robusto, porque a perda de um tratamento ou de um bloco exige que a
análise de variância seja feita por métodos complexos, o que traz maiores
dificuldades na comparação de médias. Portanto, estes são delineamentos de uso
cada vez mais restrito (competição de cultivares de plantas anuais). Hoje, os
látices estão sendo, geralmente, substituídos pelos blocos completos e
casualizados com alguns tratamentos comuns, os quais são flexíveis, robustos e
fáceis de serem analisados e interpretados.

4.6 - Parcelas Pareadas

É o tipo de delineamento utilizado quando se tem apenas dois tratamentos


para comparar. A observação sobre parcelas pareadas implica que cada
observação sobre a parcela 1 tem uma observação correspondente na parcela 2,
que difere da parcela 1 apenas em relação aos tratamentos que estão sendo
estudados.
Recomenda-se este delineamento nas seguintes condições: a) quando as
parcelas são muito heterogêneas, mas há semelhança entre parcelas contíguas;
b) quando se tem um número reduzido de unidades experimentais; c) quanto mais
heterogêneo o material maior deve ser o número de pares; d) quando as parcelas
estão correlacionadas.
O método consiste em emparelhar parcelas contíguas ou muito
semelhantes e aplicar a cada uma o tratamento em estudo (por sorteio);
recomenda-se empregar o maior número de pares (repetições) possível e em
seguida estudar as diferenças entre os pares, considerando estas diferenças
como uma amostra de uma população. Nestas condições, os membros de um
mesmo par são mais semelhantes entre si do que os membros de pares
diferentes. Na formação dos pares, o objetivo fundamental é reduzir as diferenças
entre os membros de um par a um mínimo, o que implica que as respostas aos
tratamentos aplicados aos dois membros do par serão observadas com maior
precisão.
Alguns exemplos de utilização de parcelas pareadas são: a) experimentos
do tipo antes e depois; b) emprego do mesmo indivíduo para receber dois
tratamentos em períodos diferentes; c) comparação de métodos de preparo do
solo em parcelas adjacentes; d) comparação de métodos de controle de pragas
em parcelas adjacentes; e) utilização da mesma parcela de um determinado
material para ser analisado por dois diferentes laboratórios e/ou processos
químicos; f) comparar dois sistemas de poda, em diferentes pomares; g)
comparar duas variedades, em diferentes localidades.
Evidentemente que os membros do par nunca são exatamente iguais, o
que exige o uso de repetições que tendem a contrabalançar as diferenças
individuais e evidenciar o efeito real dos tratamentos; em cada par os tratamentos
são sorteados e os pares homogêneos são também chamados de blocos.
Os procedimentos de cálculo da análise estão relacionados apenas com as
diferenças entre pares. As únicas pressuposições são que os pares devem ser
independentes e que as diferenças pertencem a uma população normalmente
distribuída. Inicialmente, obtêm-se as diferenças Di entre as observações
numéricas, Yij de cada par; o índice i representa a repetição (número de ordem do
par) e j o número de ordem do tratamento. Desta forma, qualquer diferença Di é
dada por Di = Yi1-Yi2.
Em seguida calcula-se a diferença média D como D   Di / n , onde  D i é
a soma algébrica das diferenças e n é o número de pares ou repetições. A
diferença média pode ser calculada também por D  Y1  Y2 .
A significância estatística da diferença média é dada pelo teste de t:
D  D D
t  , com n-1 graus de liberdade.
SD 2
SD / n

A variância das diferenças (D) é dada por:


n

 (D
i1
i  D) 2
SD 
2
, onde tem-se que
n 1

 (D i  D)2   d  Di
2
i
2
 D i
2
/n

A diferença média ( D ) será significativa estatisticamente quando t


calculado for maior que t da tabela, para n-1 graus de liberdade. Conclui-se,
então, que há uma diferença real entre os dois tratamentos.
A hipótese formulada é H0 :  D  0 e Ha :  D  0 , onde  D é a média
paramétrica das diferenças D i e estimada por D .
O intervalo de confiança para a diferença média  D , de parcelas
emparelhadas, é dado por f1    D  t(n  1) S D   D  D  t(n  1) S D . Se este
não incluir o valor zero, rejeita-se a hipótese nulidade e conclui-se que a diferença
é estatisticamente significativa.

EXEMPLO DE APLICAÇÃO
Em um experimento foram comparadas duas variedades de sorgo em dez
propriedades agrícolas diferentes. As produções de grãos em kg por parcela de
20 m2 foram as seguintes:

Propriedades Produção de Grãos Diferença


Agrícolas (kg/parcela) (Di)
Var. A Var. B
1 9 8 1
2 17 15 2
3 14 11 3
4 13 11 2
5 15 9 6
6 10 12 -2
7 11 11 0
8 13 10 3
9 13 9 4
10 15 14 1
Totais 130 110 20
Médias 13 11 2
Porcentagem 118,2 100
Pergunta-se: há diferença significativa de produção entre as duas
variedades?
Para solucionar este problema temos que aplicar o teste t:
D D
t 
SD SD / n
2

D i
2
  D 
i
2
/n 84  (20) 2 / 10 44
    4,89
2
SD
n 1 10  1 9
4,89 2
Então, S D   0,7 e t   2,86
10 0,7

2,86  t 0,05 ( 9 )  2,262 (P  0,05)

Conclui-se que a diferença média de 2 kg/20 m2 é significativa, ou seja, a


variedade A produz 18,2% a mais que a variedade B, com probabilidade de erro
menor que 5%.

4.7 - Comparação de Grupos Sorteados

Neste delineamento as duas unidades experimentais que devem receber


os tratamentos são obtidas por sorteio. Neste caso, as observações obtidas na
parcela 1 não estão associadas com aquelas da parcela 2. Os dois grupos devem
ser mantidos em condições experimentais idênticas e preferencialmente o número
de indivíduos (ou repetições) por grupo deve ser igual.
O método consiste em dividir o número de parcelas em dois grupos e
sortear os tratamentos para cada grupo. Em seguida comparam-se as médias de
cada grupo, considerando cada uma delas como uma amostra de populações
diferentes. Portanto, estamos comparando duas amostras de populações
independentes.
Uma vez registradas as observações Yij da característica em estudo,
calcula-se as médias Y1 e Y2 para os dois tratamentos; o índice i indica o grupo
ou tratamento (i  1, 2) e j indica o número de ordem da observação ou repetição
( j  1, 2, , n) .
Admitindo-se que o número de repetições dos grupos é diferente, a
significância da diferença Y1  Y2 é testada por:
( Y 1 Y 2 )  ( 1 2 ) D   D
t  , onde S Y Y  SD é o erro padrão da
SY Y SD 1 2
1 2

diferença entre as médias e D é a diferença média. Temos que:


 1 1
S D  S 2    , onde S2 é a variância ponderada das variâncias dos
 1
n n 2 

dois grupos. Admitindo-se que S12 e S 2 2 , as variâncias dos dois grupos, estimam
 
o mesmo parâmetro  12   2 2   2 , a variância ponderada é calculada por:
SQ 1  SQ 2
S2  , onde SQ1 e SQ2 são as somas dos quadrados ou
n1  n 2  2
numeradores das variâncias dos dois grupos, ou seja,

 Y  Y  / n e
2
SQ1 
2
1j 1j 1

  Y  Y  / n
2 2
SQ2 2j 2j 2

Quando o número de repetições dos dois grupos é igual, ou seja,


n1  n 2  n , o erro padrão da diferença de duas médias será dado por:
2S 2
SD  , sendo S2 calculada com 2(n  1) graus de liberdade.
n
Quando tem-se duas médias acompanhadas de seus respectivos erros
padrões, ou seja, Y1  S Y1 e Y2  S Y 2 , o erro padrão da diferença entre estas duas
médias é dado diretamente por:

S D  S Y1  S Y 2 , para n1  n 2  n .
2 2

A diferença Y1  Y2 será significativa, estatisticamente, quando t


calculado for maior que t  tabelado, para n1  n 2  2 graus de liberdade ou 2n  2
graus de liberdade, quando n1  n 2  n .

EXEMPLO DE APLICAÇÃO
Em um experimento com 22 pintos machos de 1 dia testou-se o efeito de
dois hormônios sexuais. Os efeitos foram estimados através do peso das cristas
15 dias após a aplicação dos hormônios. Um lote de 11 pintos sorteados recebeu
o hormônio A e outro lote o hormônio B.

QUADRO 17. Peso da crista (em mg) de 22 pintos 15 dias depois de


receberem os hormônios sexuais A (testosterona) e o B
(dihidroendrosterona).
Pintos A (Y1) B (Y2)
1 57 89
2 120 30
3 101 82
4 137 50
5 119 39
6 117 22
7 104 57
8 73 32
9 53 96
10 68 31
11 118 88
Totais 1.067 616
Médias 97 56

D  Y1  Y2  97  56  41 mg

Assumindo que as variâncias são homogêneas (  12   2 2   2 ) e que as


duas amostras são independentes e normalmente distribuídas temos:
H0 :  1   2 (ou  D  0)

Ha :  1   2 (ou  D  0)

D  1 1 SQ 1  SQ 2
t ; S D  S 2    e S 2 
SD  n1 n 2  n1  n 2  2

SQ1  (57)2  (120)2    (118)2  (1067)2 / 11  8472

SQ 2  (89) 2  (30) 2    (88) 2  (616) 2 / 11  7748

8472  7748
S2   811
22  2
(811)(2)
SD   12,14309
11
41
t  3,38
12,14309
3,38  t 0,01( 20 )  2,84 (P  0,01)

A conclusão é que a diferença média de 41 mg é altamente significativa, ou


seja, os hormônios produzem efeitos diferentes (o hormônio A é responsável por
um maior peso da crista).
Podemos também estimar o intervalo de confiança para a diferença das
duas médias como:
f1   D  t  (n1 n2  2 ) S D   D  D  t  (n1 n2  2 ) S D
f1   41  t 0,01( 20 ) (12,14309)   D  41  t 0,01( 20 ) (12,14309)
f10,01  41  (2,84)(12,14309)   D  41  (2,84)(12,14309)
f 0,99  6,51   D  75,49 ou f 0,99  7   D  76

Neste caso, a conclusão é que a verdadeira diferença entre as médias dos


dois hormônios está situada entre os limites de 7 e 76 mg de crista, com uma
confiança de 99% (em 99% dos intervalos estimados, a verdadeira diferença
estará entre os limites citados anteriormente). O intervalo não inclui o valor zero, o
que justifica a conclusão da significância da diferença média de 41 miligramas.
No caso de os grupos, serem independentes e normalmente distribuídos
mas com variâncias não homogêneas (  12   2 2 ) não é apropriada a utilização do
cálculo da variância ponderada. Portanto, o teste estatístico é modificado para:
( Y1  Y2 )  D D0
t'  1
 1
, com graus de liberdade dados por:
 S1
2
S
2
 2
 S1
2
S2
2
 2

  2    
 n1 n2   n1 n2 
   
2
 S12 S 2 2 
  
 n1 n 
G.L.'   2 
2 2 2
( S 1 / n1 ) (S / n 2 ) 2
 2
n1  1 n2  1

Como o G.L.’ calculado geralmente não é inteiro e uma vez que o teste não
é exato, recomenda-se usar o valor do próximo inteiro inferior.

EXEMPLO DE APLICAÇÃO
Num experimento avaliou-se o conteúdo de glicogênio (mg/g de tecido) de
peito de frango, submetido ao cozimento em forno microondas em comparação
com uma testemunha.
Frango Cru Cozido em Microondas
1 28 12
2 17 7
3 36 11
4 23 10
5 27 11
Totais 131 51
Médias 26,2 10,2

D  Y1  Y2  26,2  10,2  16
2 2
S1 S
SD   2
n1 n2
(28) 2    (27) 2  (131) 2 / 5
S1 
2

5 1
3627  3432,2
S1   48,700
2

4
(12) 2    (11) 2  (51) 2 / 5
S2 
2

5 1
535  520 ,2
S2   3,700
2

4
48,7 3,7
SD    3,23728
5 5
Considerando as hipóteses H0 : 1  2 e Ha : 1  2 temos:
D 16,0
t'    4,94 e
SD 3,23728
2
 SY 2 SY 2 
 1  2 
 n1 n2 
  (9,47  0,74) 2
G.L.'  2 2
  4,6
(S Y1 / n1 ) 2 (S Y2 / n 2 ) 2 (9,74) 2 (0,74) 2
 
n1  1 n2  1 4 4
ou seja, G.L.'  4
4,94  t 0,01( 4 )  4,60 (P  0,01)

Uma vez que o valor calculado de t está fora dos valores críticos (4,60 ,
para o teste bilateral) rejeitamos a hipótese nulidade. Concluímos então que a
diferença média 16 mg de glicogênio/g de tecido é altamente significativa, ou seja,
o cozimento em forno microonda reduz o conteúdo de glicogênio do peito de
frango.
CAPÍTULO V

DELINEAMENTOS DE TRATAMENTOS

Os diferentes tipos de condições (meios físicos ou processos) que são


manipulados nas unidades experimentais são chamados de fatores. Os
diferentes modos de presença de um fator são chamados de níveis dos fatores.
Cada combinação específica dos níveis de diferentes fatores é chamada de
tratamento.
Nos capítulos anteriores considerou-se unicamente um fator para cada
experimento, como por exemplo, nitrogênio com 0, 10, 20 e 30 kg por parcela. Na
realidade, comumente trabalha-se com mais de um fator por experimento. Por
exemplo, os níveis do fator nitrogênio podem ser testados juntamente com
diferentes variedades de feijão, com o objetivo de detectar se a resposta ao
nitrogênio é ou não semelhante para as diferentes variedades.
Quando vários fatores são estudados simultaneamente, em todas as
combinações possíveis dos respectivos níveis, tem-se o que se denomina arranjo
(esquema) fatorial, ou simplesmente, um fatorial. Os experimentos com
tratamentos delineados em fatoriais são muito mais informativos e os resultados
obtidos são de aplicação mais abrangente.
O fatorial não é um delineamento experimental. O fatorial é um arranjo dos
níveis dos vários fatores em estudo. Na instalação de um fatorial são usados os
delineamentos básicos, tais como inteiramente casualizado, blocos casualizados
e quadrado latino. Cada parcela do delineamento experimental recebe uma das
combinações dos fatores, que constituem os tratamentos. Um arranjo alternativo
apropriado para muitos fatoriais é o de parcela dividida, no qual cada parcela é
dividida em subparcelas para alocar os níveis de diferentes fatores.

5.1 - Fatoriais

Consiste na formação de todas as combinações possíveis de dois ou mais


fatores, em todos os seus respectivos níveis, para constituírem os tratamentos de
um determinado experimento.
Pela natureza dos tratamentos, os fatoriais podem ser: a) combinação de
fatores qualitativos (ex.: variedades x inseticidas); b) combinação de fatores
quantitativos (ex.: níveis de N x níveis de P); c) combinação mista (ex.: variedades
x níveis de P).
As vantagens dos fatoriais são: geralmente são mais eficientes do que os
experimentos simples com apenas um fator; permitem obter conclusões mais
gerais. O principal defeito dos experimentos fatoriais é que o número de
tratamentos aumenta muito à medida que se aumenta os fatores (ou seus níveis),
o que nos leva a usar blocos incompletos e/ou o sistema de confundimento, o que
resulta em maiores complicações no planejamento e análise dos dados.
Os fatoriais são classificados quanto ao tipo em: a) série pura (2k, 3k, etc.,
onde k = fatores e 2 e 3 são níveis); b) série mista (2 k x 4 x 5). A seguir
mostraremos as configurações de algumas séries puras.

5.1.1 - Algumas Configurações da Série 2k

O fatorial do tipo 22 implica na utilização de 2 fatores com 2 níveis de cada


fator.

QUADRO 18. Dois fatores em dois níveis.

Fatores
Níveis
N P
0 N0 P0
1 N1 P1

FIGURA 07. Representação gráfica do fatorial 22.

QUADRO 19. Lista de tratamentos para o fatorial 22.

Tratamentos
Número
(a) (b) (c)
1 N0P0 00 (1)
2 N0P1 01 P
3 N1P0 10 N
4 N1P1 11 NP

Os quatro tratamentos constituem o arranjo fatorial de tratamentos, para


ser aplicado em qualquer um dos delineamentos experimentais estudados
anteriormente.
O fatorial do tipo 23 implica em 3 fatores com dois níveis cada um.

QUADRO 20. Fatorial 23.


Fatores
Níveis
N P K
0 N0 P0 K0
1 N1 P1 K1

FIGURA 08. Representação espacial do fatorial 23.

QUADRO 21. Lista de tratamentos para o fatorial 23.

Tratamentos
Número
(a) (b) (c)

1 N0P0K0 000 (1)


2 N0P0K1 001 K
3 N0P1K0 010 P
4 N0P1K1 011 PK
5 N1P0K0 100 N
6 N1P0K1 101 NK
7 N1P1K0 110 NP
8 N1P1K1 111 NPK

No caso de um fatorial 24 teríamos 16 tratamentos, o que pode constituir


uma limitação para o DBC, porque os blocos seriam muito grandes e perderiam a
homogeneidade interna.

5.1.2 - Algumas Configurações da Série Pura 3k

O fatorial 32 consta de 2 fatores com 3 níveis cada um, como


esquematizado a seguir.

QUADRO 22. Fatorial com dois fatores em três níveis.

Fatores
Níveis
A B
0 A0 B0
1 A1 B1
2 A2 B2

FIGURA 09. Representação gráfica do fatorial 32.

QUADRO 23. Lista de tratamentos para o fatorial 32.

Tratamentos
Número
(a) (b)
1 A0B0 00
2 A0B1 01
3 A0B2 02
4 A1B0 10
5 A1B1 11
6 A1B2 12
7 A2B0 20
8 A2B1 21
9 A2B2 22

O fatorial 33 implica em 3 fatores com 3 níveis cada um, como configurado


a seguir.
QUADRO 24. Fatorial 33.

Fatores
Níveis
A B C
0 A0 B0 C0
1 A1 B1 C1
1 A2 B2 C2
FIGURA 10. Representação espacial do fatorial 33.

QUADRO 25. Lista de tratamentos para o fatorial 33.

Tratamentos
Número
(a) (b)
1 A0B0C0 000
2 A0B0C1 001
3 A0B0C2 002
4 A0B1C0 010
5 A0B1C1 011
6 A0B1C2 012
7 A1B0C0 100
8 A1B0C1 101
9 A1B0C2 102
27 A2B2C2 222
Um fatorial 34 implica em 81 tratamentos, o que torna mais conveniente
arranjar os tratamentos utilizando as metodologias dos efeitos confundidos ou dos
fatoriais fracionados.

EXEMPLO DE APLICAÇÃO
Os dados do quadro a seguir são de produções t/ha de um experimento de
adubação de milho, em blocos casualizados, no arranjo fatorial 2 3, sendo os
fatores N, P e K, cada um deles podendo estar presente ou ausente.

QUADRO 26. Produção de milho (t/ha).

Tratamentos (i) Totais de


Blocos (j)
(1) N P NP K NK PK NPK Blocos

1 1,32 1,80 1,66 1,72 2,58 2,72 2,26 2,95 17,01


2 2,12 2,20 2,66 3,85 3,56 3,20 2,08 3,28 22,95
3 1,75 2,95 1,73 2,62 2,86 2,25 1,95 2,40 18,51
4 2,35 2,96 2,58 3,00 2,75 2,75 2,70 3,35 22,44
Totais de
7,54 9,91 8,63 11,19 11,75 10,92 8,99 11,98 80,91
Tratamento

Calcule a Análise de Variância completa do experimento.


A Análise de Variância, não levando em conta o arranjo fatorial é a
seguinte:

F.V. G.L. S.Q. Q.M. F


Blocos 3 3,2011
Tratamentos 7 4,5246 0,6464 3,88**
Resíduo 21 3,4955 0,1665
Total 31 11,2212

Este resultado tem pouco interesse porque num experimento fatorial os


efeitos dos diversos fatores devem ser isolados e testados separadamente. No
quadro a seguir estão indicados todos os contrastes (efeitos) de tratamentos a
serem estudados, onde o sinal – (negativo) indica o coeficiente –1 e o + (positivo)
o coeficiente +1. Os efeitos de N, de P e de K são denominados de efeitos
principais. Os sinais para as interações são obtidos por meio do produto dos
sinais dos efeitos principais respectivos.

Efeitos (1) N P NP K NK PK NPK


N - + - + - + - +
P - - + + - - + +
K - - - - + + + +
NxP + - - + + - - +
NxK + - + - - + - +
PxK + + - - - - + +
NxPxK - + + - + - - +

O efeito estimado de nitrogênio (N̂) é medido por N̂  Ŷ(N) / n , onde n  total


de parcelas + ou – no contraste e Ŷ(N) é o contraste Ŷ(N)   Ci Ti ; Ci 
coeficientes do contraste e Ti  totais de tratamentos. Então temos:

Ŷ(N)  7,54  9,91  8,63  11,19  11,75  10,92  8,99  11,98  7,09
7,09
N̂   0,443 t / ha
16
A soma de quadrados referente ao efeito do nitrogênio é dada por:
[ Ŷ(N) ] 2
SQNitrogên io  . Logo,
r  Ci
2

(7,09) 2
SQNitrogên io   1,5709 , com 1 grau de liberdade.
4 x8
Para o fósforo (P) temos:
Ŷ(P )  7,54  9,91  8,63  11,19  11,75  10,92  8,99  11,98  0,67
0,67
P̂   0,042 t / ha.
16
(0,67) 2
Então: SQFósforo   0,0140
4 x8
Analogamente obtemos os efeitos estimados e as somas de quadrados
para K, NP, NK, PK e NPK e construímos o quadro a seguir.

Estimativas
F.V. Y S.Q. G.L.
do Efeito
Efeito de N 7,09 1,5709 1 0,443
Efeito de P 0,67 0,0140 1 0,042
Efeito de K 6,37 1,2680 1 0,398
Efeito de NP 4,01 0,5025 1 0,251
Efeito de NK -2,77 0,2398 1 -0,173
Efeito de PK -4,07 0,5177 1 -0,254
Efeito de NPK 3,63 0,4118 1 -0,227

A Análise de Variância completa é a seguinte:

F.V. S.Q. G.L. Q.M. F


Nitrogênio (N) 1,5709 1 1,5709 9,43**
Fósforo (P) 0,0140 1 0,0140 0,08ns
Potássio (K) 1,2680 1 1,2680 7,62**
Interação NP 0,5025 1 0,5025 3,02ns
Interação NK 0,2398 1 0,2398 1,44ns
Interação PK 0,5177 1 0,5177 3,11ns
Interação NPK 0,4118 1 0,4118 2,47ns


(Tratamentos) (4,5246) (7)


Blocos 3,2011 3
Resíduo 3,4955 21 0,1665
Total 11,2212 31

Concluímos que são significativos apenas os efeitos de nitrogênio (P<0,01)


e de potássio (P<0,05).
No caso de desejarmos analisar todas as interações juntas temos que:
SQInterações = SQTrat. – SQNit. – SQFósf. – SQPot.
SQInteraçõ es  4,5246  1,5709  0,0140  1,2680
SQInteraçõ es  1,6717
O quadro de Análise de Variância fica então:

F.V. S.Q. G.L. Q.M. F


Nitrogênio 1,5709 1 1,5709 9,43**
Fósforo 0,0140 1 0,0140 0,08ns
Potássio 1,2680 1 1,2680 7,62**
Interações 1,6717 4 0,4179 2,51ns


(Tratamentos) (4,5246) (7)


Blocos 3,2011 3
Resíduo 3,4955 21 0,1665
Total 11,2212 31

5.2 - Estudo da Interação

Em algumas situações podemos estar interessados principalmente na


interação entre fatores, ou seja, desejamos saber se as respostas aos níveis de
um fator são semelhantes ou diferentes quando na presença de diferentes níveis
de um outro fator ou fatores.
O fatorial fornece informações sobre os níveis de cada um dos fatores em
estudo. Estes são os chamados efeitos principais dos fatores. Além disso, o
fatorial fornece informações sobre o efeito de um fator sobre outro, ou seja, se há
e qual a magnitude do efeito adicional observado no efeito de um dos fatores em
presença dos níveis do outro fator. Este efeito adicional, que não é produzido por
nenhum dos fatores isoladamente é chamado de interação. A interação entre
dois fatores é chamada interação simples, a interação entre três fatores é a
interação tríplice e assim por diante. Desta forma, o experimento fatorial permite
verificar se há ou não dependência entre os fatores.
As interações são estudadas em tabelas de interações. Consideremos o
fatorial 22, para estudarmos os efeitos simples, gerais e interações em um
experimento fatorial. Senão vejamos os três casos seguintes:

Caso I
A
Fator
Nível a1 a2 Média a2 – a1
b1 30 32 31 2
b2 36 44 40 8
B
Média 33 38 35,5 5
b2 – b1 6 12 9

Caso II
A
Fator
Nível a1 a2 Média a2 – a1
b1 30 32 31 2
b2 36 26 31 -10
B
Média 33 29 31 -4
b2 – b1 6 -6 0

Caso III
A
Fator
Nível a1 a2 Média a2 – a1
b1 30 32 31 2
b2 36 38 37 2
B
Média 33 35 34 2
b2 – b1 6 6 6

As diferenças a2 – a1 em cada nível de B, e as diferenças b2 – b1 em cada


nível de A, são os efeitos simples dos fatores A e B, respectivamente. Por
exemplo, no Caso I, o efeito simples de A no primeiro nível de B é 2 e o efeito
simples de B no segundo nível de A é 12.
O efeito geral de cada fator é obtido quando os efeitos simples do fator são
dados em termos de média sobre todos os níveis do outro fator ou fatores. Por
exemplo, o efeito geral do fator A, no Caso I é 5. Pode ser observado que, os
efeitos gerais num fatorial são medidos usando-se mais observações do que os
efeitos simples, ou seja, mede-se o efeito de A em todos os níveis de B e tira-se
uma média. O fato de se utilizar mais observações para se avaliar o efeito geral é
denominado de efeito das repetições ocultas, o que dá maior precisão na
avaliação do efeito geral, quando a interação é ausente.
Os efeitos simples diferem entre si, tanto para o fator A quanto para o fator
B, nos Casos I e II. Se estas diferenças são maiores que as causadas por chance
(erro experimental), esta resposta diferencial é denominada de interação entre os
dois fatores. No Caso III, os efeitos simples de A, bem como os de B, são iguais e
ambos correspondem aos efeitos gerais respectivos. Desta forma, quando há
interação, os efeitos gerais devem ser analisados com bastante cautela,
observando-se os efeitos simples com bastante atenção. Quando não há
interação podemos facilmente generalizar os efeitos dos fatores em estudo.
No Caso I, a resposta de A, ou seja, o aumento de a 1 para a2 é maior no
nível b2 do que no b1, isto é, houve mudança na magnitude da resposta de A na
presença dos níveis de B. No Caso II, a resposta de A corresponde a aumento na
presença de b1 e diminuição na presença de b2, ou seja, houve mudança na
direção da resposta. No Caso III, não há interação e os efeitos apenas se somam,
ou seja, para se obter o valor 38 em a 2b2, simplesmente somamos o efeito geral
de A = 2 e o efeito geral de B = 6 ao valor a 1b1 = 30. Para se obter o valor 36 em
a1b2, somamos o efeito geral de B = 6.
As interações podem ser estudadas também através de gráficos, como
mostrado a seguir para os três casos vistos anteriormente. Senão vejamos:

CASO I

Neste caso, a interação é devido a diferença na magnitude de resposta.

CASO II
Neste caso, a interação é devido a diferença na direção da resposta.

CASO III

Neste caso, as retas b1 e b2 são paralelas (independentes); não há


nenhuma interação.
Deve ser notado que a presença ou ausência dos efeitos gerais não nos
informa nada sobre a presença ou ausência de interação. Por outro lado, a
presença ou ausência de interação não nos informa nada sobre a presença ou
ausência dos efeitos gerais, mas informa sobre a homogeneidade dos efeitos
simples.
Para três fatores, A, B e C, estudam-se as interações simples AB, AC e
BC, bem como a interação tríplice ABC entre os três fatores. No exemplo a seguir
temos a tabela de interação tríplice, para dois níveis de cada um dos fatores:

a1 a2
b1 b2 b1 b2
c1 10 16 14 18
c2 18 28 20 40

A interação tríplice é a modificação (aumento ou redução) que sofre a


interação simples de dois fatores, em presença dos níveis do terceiro fator. A
interação simples BC para o nível a1 do fator A é 4 [(28  18)  (16  10)  4 ] e para
o nível a2 é de 16 [(40  20)  (18  14)  16 ] . A interação tríplice ABC é positiva e
igual a 16  4  12 .
Deve ser enfatizado que os experimentos em arranjo fatorial são aqueles
onde combinamos todos os níveis de dois ou mais fatores em um único
experimento. Se os fatores são quantitativos, podemos representar graficamente
o fatorial na forma seguinte:

Neste gráfico, as interseções das retas no plano formado pelos eixos A e B


(níveis dos fatores A e B) são os tratamentos. As respostas obtidas em cada
parcela são representadas por linhas verticais sobre os respectivos pontos de
interseção. A superfície sustentada por essas linhas verticais é denominada de
superfície de resposta.

EXEMPLO DE APLICAÇÃO

Consideremos um experimento fatorial 22 (Pimentel Gomes) em que os


fatores eram adubo mineral (A) e torta de filtros de usinas de açúcar (T):
QUADRO 27. Produção de cana-de-açúcar (kg/parcela).
Tratamentos Totais de
Blocos
(1) A T AT Blocos
1 18,0 20,6 19,6 19,2 77,4
2 8,6 21,0 15,0 19,6 64,2
3 9,4 18,6 14,6 18,4 61,0
4 11,4 20,6 15,8 20,2 68,0
Totais de
47,4 80,8 65,0 77,4 270,6
Tratamentos

Compute a ANOVA completa.


Abordamos a solução deste problema através de dois métodos de cálculo
das somas de quadrados:
a) Obtenção das somas de quadrados pelo método dos contrastes de totais de
tratamentos.

Tratamentos A T AT (1)
Y S.Q.
Efeitos (80,8) (65,0) (77,4) (47,4)
A + - + - 45,80 131,1025
T - + + - 14,20 12,6025
AxT - - + + -21,00 27,5625
( Ŷ ) 2
Temos que Ŷ   Ci Ti ; Efeito  Ŷ / n e S.Q. 
r  Ci
2

Logo, temos que


Ŷ( A )  80,8  65,0  77,4  47,4  45,80
Ŷ( T )  80,8  65,0  77,4  47,4  14,20
Ŷ( AT )  80,8  65,0  77,4  47,4  21,00

S.Q.( A ) 
Ŷ 
(A)
2


( 45,80) 2
 131,1025
r  Ci
2
( 4)( 4)

S.Q.( T ) 
Ŷ (T )
2


(14,20) 2
 12,6025
r  Ci
2
( 4)( 4)

S.Q.( AT ) 
Ŷ ( AT )
2


(21,00) 2
 27,5625
r  Ci
2
( 4)( 4)

Este método apresenta as vantagens de facilidade de cálculo e de


possibilidade de calcular diretamente a soma de quadrados das interações.

b) Obtenção das somas de quadrados pelo método do quadrado auxiliar que


relaciona os totais dos níveis dos fatores.

(4)* A0 A1 Totais de Torta


T0 47,4 80,8 128,20
T1 65,0 77,4 142,40
Totais de Adubo Mineral 112,4 158,20 270,60
* Significa que os valores do interior do quadro são totais de quatro parcelas.

As somas de quadrados são calculadas a partir de este quadro auxiliar


como:

S.Q.( A ) 
1
8
 
(112,40) 2  (158,20) 2  C , com

(270,60) 2
C  4576,52250
( 4)( 4)

1
S .Q.( A)  (37661, 0)  4576,5225  131,1025
8
1
S .Q.(T )   (128, 20) 2  (142, 40) 2   4576,5225  12, 6025
8
S .Q.( A,T )  S .Q. Efeito Conjunto de A e T
1
S .Q.( A,T )   (47, 4) 2  (80,8) 2  (65, 0) 2  (77, 4) 2   C
4
S .Q.( A,T )  4747, 7900  4576,5225  171, 26750
S .Q.( AT )  S .Q.( A,T )  S .Q.( A)  S .Q.(T )
S .Q.( AT )  171, 2675  131,1025  12, 6025
S .Q.( AT )  27,5625
A Análise de Variância preliminar é feita da maneira usual:
1
S .Q.Blo cos   (77, 4) 2   (68, 0) 2   C
4
S .Q.Blo cos  37,8275
1
S .Q.Trat.   (47, 4) 2   (77, 4) 2   C
4
S .Q.Trat.  171, 2675
S .Q.Total  (18, 0) 2  (20, 6) 2   (20, 2) 2  C
S .Q.Total  246, 7975
S .Q.Re s.  S .Q.Total  S .Q.Blo cos  S .Q.Trat  37, 7025

F.V. S.Q. G.L. Q.M. F


Blocos 37,8275 3 12,6092 9,43**
Tratamentos 171,2675 3 57,0892 13,63**
Resíduo 37,7025 9 4,1892
Total 246,7975 15

A Análise de Variância completa, que é feita considerando o arranjo


fatorial, ou seja, desdobrando os graus de liberdade de tratamentos de acordo
com o fatorial 22 é a seguinte:

F.V. S.Q. G.L. Q.M. F


Adubo Mineral 131,1025 1 131,1025 31,29**
Torta (T) 12,6025 1 12,6025 3,00ns
Interação AT 27,5625 1 27,5625 6,58**


(Tratamentos) (171,2675) (3) (57,0892)
Blocos 37,8275 3 12,6092
Resíduo 37,7025 9 4,1892
Total 246,7975 15

A interação significativa indica que o comportamento de um fator


depende dos níveis do outro fator. Neste caso deve-se realizar o desdobramento
da interação, o que pode ser feito da forma seguinte:

1º) Desdobramento da interação, estudando o efeito de torta dentro de cada nível


de adubo mineral. Então temos que

S.Q.( A ) 
1
8
 
(112,40) 2  (158,20) 2  C  131,1025

S.Q.( T.d.A O )  
1
4

( 47,4) 2  (65,0) 2 
(112,4) 2
8
 38,720

S.Q.( T.d.A1 ) 
1
4
 
(80,8) 2  (77,4) 2 
(158,2) 2
8
 1,4450

E a Análise de Variância é:

F.V. S.Q. G.L. Q.M. F


Adubo Mineral (A) 131,1025 1 131,1025 31,29**
Torta s/ A (T.d.A0) 38,7200 1 38,7200 9,24**
Torta c/ A (T.d.A1) 1,4450 1 1,4450 0,35ns


(Tratamentos) (171,2675) (3) (57,0892)
Blocos 37,8275 3 12,6092
Resíduo 37,7025 9 4,1892
Total 246,7975 15

A conclusão prática é que houve resposta à adubação com torta


apenas na ausência de adubo mineral dentro de cada nível de torta.
Desdobramento da interação, estudando o efeito de adubo mineral dentro de
cada nível de torta. Então temos que

S.Q.( T )  
1
8

(128,20) 2  (142,40) 2  C  12,6025

S.Q.( A.d.TO )  
1
4

( 47,4) 2  (80,8) 2 
(128,2) 2
8
 139,445

S.Q.( A.d.T1 ) 
1
4
 
(65,0) 2  (77,4) 2 
(142,4) 2
8
 19,220

E a Análise de Variância é:

F.V. S.Q. G.L. Q.M. F


Torta (T) 12,6025 1 12,6025 3,00ns
Adubo s/ T (A.d.T0) 139,4450 1 139,4450 33,29**
Adubo c/ T (A.d.T1) 19,2200 1 19,2200 4,59ns


(Tratamentos) (171,2675) (3) (57,0892)
Blocos 37,8275 3 12,6092
Resíduo 37,7025 9 4,1892
Total 246,7975 15

A conclusão prática é que houve resposta à adubação mineral apenas


na ausência de torta. Portanto, deve-se comparar apenas as médias de
adubação mineral na ausência de torta.

5.3 - Parcelas Sub-divididas (“Split Plot”)

É um arranjo fatorial de tratamentos que apresenta as características


seguintes: a) as parcelas que recebem os níveis de um dos fatores, são divididas
em subparcelas às quais são aplicados os níveis de outro fator; b) os níveis do
fator casualizado nas parcelas são denominados de tratamentos principais (ou
tratamentos A) e os níveis do fator casualizado nas subparcelas de cada parcela
são denominados de tratamentos secundários (ou tratamentos B); c) a
casualização é feita em dois estágios: primeiro casualizamos os níveis do fator A
nas parcelas, em seguida, casualizamos os níveis do fator B nas subparcelas de
cada parcela; d) os fatores têm diferentes erros experimentais, ou seja, existe o
QMRes.(a) e o QMRes.(b); e) os fatores são medidos com diferentes graus de
precisão, ou seja, QMRes.(a) > QMRes.(b); f) o tamanho de parcela é diferente
para os fatores; g) em geral, o QMRes. da subparcela é menor que aquele que
seria obtido se todas as combinações de tratamentos fossem arranjadas
aleatoriamente dentro do delineamento escolhido, como ocorre num fatorial
propriamente dito.
Os delineamentos de tratamentos em parcelas subdivididas são
freqüentemente usados para os experimentos fatoriais, onde a natureza do
material experimental ou as operações envolvidas, tornam difícil o manuseio de
todas as combinações dos fatores de uma mesma maneira. Desta forma, o
arranjo parcela dividida pode ser usado, principalmente, nas situações seguintes:
a) quando os níveis de um dos fatores exigem maior quantidade de material na
unidade experimental do que os níveis do outro fator; por exemplo: métodos de
preparo do solo e variedades, métodos de irrigação e doses de fertilizantes; b)
quando um fator adicional é incorporado num experimento para ampliar seu
objetivo; por exemplo: variedades e tipos de fungicidas; variedades e adubação
foliar; c) quando sabe-se que maiores diferenças podem ser esperadas entre os
níveis de um determinado fator do que entre os níveis do outro fator; neste caso,
os níveis do fator onde maiores diferenças são esperadas devem ser
casualizados nas parcelas; por exemplo: doses de adubo e variedades; d) quando
se deseja maior precisão para as estimativas de um dos fatores; neste caso, o
fator que se deseja maior precisão deve ser casualizado nas subparcelas de cada
parcela; por exemplo: tipos de inseticidas e doses de cada inseticida.

EXEMPLO DE APLICAÇÃO
Seja um experimento com parcelas subdivididas, em blocos casualizados,
para um arranjo fatorial de tratamentos de três doses de nitrogênio e duas alturas
de planta. Os níveis de N foram alocados nas parcelas e os níveis de altura nas
subparcelas.

Blocos
Altura
Nitrogênio BI BII BIII
A1 A2 A1 A2 A1 A2
N1 3 1 4 2 3 1
N2 5 3 5 3 4 1
N3 9 6 6 4 9 2

Para o cálculo das somas de quadrados são requeridas tabulações


adicionais (quadros auxiliares):

QUADRO 28. Para o cálculo das estimativas das parcelas.

Blocos Totais de
BI BII BIII
Nitrogênio Nitrogênio
N1 4 6 4 14
N2 8 8 5 21
N3 15 10 11 36
Totais de Blocos 27 24 20 71
QUADRO 29. Para o cálculo das estimativas das subparcelas.

Altura Totais de
A1 A2
Nitrogênio Nitrogênio
N1 10 4 14
N2 14 7 21
N3 24 12 36
Totais de Altura 48 23 71

O procedimento de cálculo das somas de quadrado é o seguinte:


(71) 2
C  280,06
3 23
(27) 2  (24) 2  (20) 2
SQBlo cos   280,06  4,11
6
(14) 2  (21) 2  (36) 2
SQ (N)   280,06  42,11
6
SQ Re s ( a )  SQ (N,B )  SQBlo cos  SQ (N)
( 4) 2  (6) 2    (11) 2
SQ (N,B )  SQParcela  C
2
SQ (N,B )  53,440. Então
SQ Re s ( a )  53,440  4,110  42,11  7,220
( 48) 2  (23) 2
SQ ( A )   280,06  34,720
9
SQ (NA )  SQ (N,A )  SQ (N)  SQ ( A )
(10) 2  ( 4) 2    (12) 2
SQ (NA )   280,06  42,11  34,72
3
SQ (NA )  3,44

Neste caso, a unidade de cálculo é a subparcela; então a SQTotal é dada


por:
SQTotal  (3) 2  (5) 2    (2) 2  280,06  98,94
SQ Re s (b )  SQTotal  SQBlo cos  SQ (N)  SQ Re s ( a )  SQ ( A )  SQ (NA )
SQ Re s (b )  98,94  4,11  42,11  7,22  34,72  3,44
SQ Re s (b )  7,34

A Análise de Variância completa fica então:

F.V. S.Q. G.L. Q.M. F


Blocos 4,11 2 2,06 1,14ns
Nitrogênio (N) 42,11 2 21,06 11,64**
Resíduo (a) 7,22 4 1,81


Altura (A) 34,72 1 34,72 28,46**
Interação NA 3,44 2 1,72 1,41ns
Resíduo (b) 7,34 6 1,22
Total 98,94 17
Temos que calcular dois coeficientes de variação, ou seja, o coeficiente de
variação para parcelas (CV(a)) e o coeficiente de variação para subparcelas
(CV(b)):
100 QM Re s ( a ) 100 1,81
CV( a )    34,15%
Y.. 3,94
100 QM Re s (b ) 100 1,22
CV(b )    28,03%
Y.. 3,94

Observar que a precisão das comparações dos efeitos médios do fator


alocado às subparcelas é maior do que a precisão das comparações dos efeitos
médios do fator alocado às parcelas.
No caso de termos três fatores em estudo, o terceiro fator seria adicionado
pela divisão da subparcela, resultando num arranjo com parcelas sub-
subdivididas. A restrição adicional na casualização torna necessária a inclusão
de mais um termo a ser utilizado como erro experimental, para testar o efeito
geral deste terceiro fator e as interações envolvendo este mesmo fator. Este
delineamento de tratamentos pode ter alguma vantagem na condução dos
experimentos, entretanto, a necessidade de um terceiro erro pode dificultar os
testes de médias. A casualização é feita pelo mesmo processo das parcelas
divididas, com as subparcelas sendo repartidas em sub-subparcelas, em número
igual aos níveis do terceiro fator, e sobre os quais alocamos aleatoriamente o
terceiro fator.
Suponhamos um experimento com quatro blocos casualizados, onde foram
alocadas três parcelas, duas subparcelas dentro de cada parcela e três sub-
subparcelas dentro de cada subparcela. O esquema de Análise de Variância para
este experimento é o seguinte:

Fontes de Variação Graus de Liberdade


Blocos (r-1)=3
Fator A (a-1)=2
Resíduo (a) (r-1)(a-1)=6
Fator B (b-1)=1
Interação AB (a-1)(b-1)=2
Resíduo (b) (r-1)(b-1)a=9
Fator C (c-1)=2
Interação AC (a-1)(c-1)=4
Interação BC (b-1)(c-1)=2
Interação ABC (a-1)(b-1)(c-1)=4
Resíduo (c) Diferença = 36
Total Abcr-1=71

Nos experimentos onde medições sucessivas são feitas numa mesma


parcela, por um certo período de tempo, considera-se, geralmente, este período
como um tratamento secundário e o experimento é, então analisado como
parcelas subdivididas no tempo, da maneira usual.
Entretanto, alguns autores sugerem uma modificação na análise usual,
considerando que épocas ou anos não são casualizados dentro das parcelas. A
modificação dá-se no sentido de isolar do Resíduo (b), a interação entre
tratamentos secundários e blocos.
Por exemplo, para um experimento em parcelas subdivididas, com r
blocos, a variedades e b épocas de corte, os autores sugerem o esquema de
Análise de Variância seguinte:

Fontes de Variação Graus de Liberdade


Blocos (R) r-1
Variedades (A) a-1
Resíduo (a) (a-1)(r-1)
Época de corte (B) (b-1)
Interação AB (a-1)(b-1)
Interação BR (b-1)(r-1)
Resíduo (b) (a-1)(b-1)(r-1)
Total abr-1

Para o cálculo da SQÉpoca de Corte x Blocos (BR), devemos organizar um


quadro auxiliar que relacione Época de Corte e Blocos, a partir do qual
calculamos a soma de quadrados do efeito conjunto (SQÉpoca de Corte, Blocos)
e a soma de quadrados da interação BR, que é dada por:
SQ (BR )  SQ (B,R )  SQ (B )  SQBlo cos

O restante da análise é feita da maneira usual.

5.4 - Faixas (“Split Block”)

Este tipo de delineamento de tratamentos é utilizado em experimentos


bifatoriais, em condições de campo, quando os níveis de ambos os fatores
necessitem de parcelas grandes ou quando se tem interesse de avaliar com
exatidão a interação entre os dois fatores.
Neste caso o interesse na interação é maior do que o interesse nos efeitos
principais de cada um dos fatores, porque o grau de precisão associado ao efeito
da interação é aumentado em detrimento da precisão dos efeitos principais. Isto é
conseguido com o uso de três tamanhos de parcela: a) parcelas em faixas
verticais para o primeiro fator, que é chamado de fator vertical; b) parcelas em
faixas horizontais para o segundo fator, que é chamado de fator horizontal e c)
parcela interseção para a interação entre os dois fatores.
As parcelas em faixas verticais e as parcelas em faixas horizontais são
sempre perpendiculares entre si. Entretanto, não há nenhuma relação entre seus
tamanhos, como ocorre no caso das parcelas e subparcelas do delineamento
parcelas divididas. Evidentemente que a parcela interseção é a menor de todas.
Desta forma, num delineamento em faixas, os graus de precisão associados com
os efeitos principais de ambos os fatores são sacrificados para melhorar a
precisão do efeito de interação. Considerando que os números de graus de
liberdade para estimar os resíduos para as comparações dos efeitos principais,
geralmente, são pequenos, o delineamento não é recomendado a menos que
considerações práticas justifiquem seu uso ou que a interação seja o principal
objetivo do estudo.
O procedimento para casualização e arranjo no campo para um
delineamento em faixa consiste de dois processos independentes de
casualização: um para o fator horizontal e outro para o fator vertical. O
delineamento experimental blocos casualizados é o mais freqüentemente
utilizado.
Seja, por exemplo, um fator vertical A; um fator horizontal B e a=3 e n=4
seus níveis. Suponhamos o delineamento experimental blocos casualizados com
r=5. Alocamos as parcelas horizontais pela divisão da área experimental em r=5
blocos e em seguida dividindo cada um deles em b=4 faixas horizontais; em
seguida faz-se a casualização dos b=4 níveis nas 4 faixas de cada bloco,
separada e independentemente. A alocação das parcelas e dos fatores verticais é
feita de forma análoga. Senão vejamos:

A1 A3 A2 A3 A1 A2 A2 A3 A1

B3 B2 B4

B2 B4  B2

B4 B3 B3

B1 B1  B1

Bloco I Bloco II Bloco V

A Análise de Variância de um delineamento em faixas é dividida em três


partes: a análise do fator vertical, a análise do fator horizontal e a análise da
interação. Para o exemplo anterior, o esquema da análise de variância é dado
por:

Fontes de Variação Graus de Liberdade


Blocos (r-1)=4
Fator Vertical (A) (a-1)=2
Resíduo (a) (a-1)(r-1)=8
Fator Horizontal (b-1)=3
(B)
Resíduo (b) (b-1)(r-1)=12
Interação AB (a-1)(b-1)=6
Resíduo (c) (a-1)(b-1)(r-1)=24
Total abr-1=59

Se o mesmo exemplo fosse analisado como parcela dividida, o esquema


de análise de variância seria dado por:

Fontes de Variação Graus de Liberdade


Blocos r-1=4
Fator (A) a-1=2
Resíduo (a) (a-1)(r-1)=8
Fator (B) b-1=3
Interação AB (a-1)(b-1)=6
Resíduo (b) a(b-1)(r-1)=36
Total abr-1=59

Observe que esta análise, além de ser mais simples, dá maior precisão
para as comparações entre os níveis do fator B e para a avaliação da interação
AB.
Para cálculo das somas de quadrados é necessário construir três tabelas
de dupla entrada para totais: uma para repetição x fator vertical, uma para
repetição x fator horizontal e uma para fator vertical x fator horizontal.

EXEMPLO DE APLICAÇÃO
Suponhamos um experimento bifatorial, envolvendo seis variedades de
arroz (fator horizontal) e três doses de nitrogênio (fator vertical), testadas num
delineamento experimental blocos casualizados com três blocos. Os dados se
referem a produção de grãos (kg/ha):

Doses de Produção de Grãos (kg/ha)


Nitrogênio Bloco I Bloco II Bloco III
(kg/ha)
IR 8 (V1)
0 (N1) 2373 3958 4384
60 (N2) 4076 6431 4889
120 (N3) 7254 6808 8582
IR 127-80 (V2)
0 4007 5795 5001
60 5630 7334 7177
120 7053 8284 6297
IR 305-4-12 (V3)
0 2620 4508 5621
60 4676 6672 7019
120 7666 7328 8611
IR 400-2-5 (V4)
0 2726 5630 3821
60 4838 7007 4816
120 6881 7735 6667
IR 665-58 (V5)
0 4447 3276 4582
60 5549 5340 6011
120 6880 5080 6076
Peta (V6)
0 2572 3724 3326
60 3896 2822 4425
120 1556 2706 3214

Computar a Análise de Variância.


O primeiro passo é construir três quadros auxiliares de totais:

QUADRO 1. Quadro de produção total de blocos e variedades.

Produção Total (BV) Totais de


Variedades
Bloco I Bloco II Bloco III Variedades (V)
V1 13703 17197 17855 48755
V2 16690 21413 18475 56578
V3 14962 18508 21251 54721
V4 14445 20372 15304 50121
V5 16876 13696 16669 47241
V6 8024 9252 10965 28241
Totais de Blocos 84700 100438 100519 285657 G
(B)

QUADRO 2. Quadro de produção total de blocos e nitrogênio.

Produção Total (BN) Totais de


Nitrogênio
Bloco I Bloco II Bloco III Nitrogênio (N)
N1 18745 26891 26735 72371
N2 28665 35606 34337 98608
N3 37290 37941 39447 114678

QUADRO 3. Quadro de produção total de variedade e nitrogênio.

Produção Total (VN)


Variedade
N1 N2 N3
V1 10715 15396 22644
V2 14803 20141 21634
V3 12749 18367 23605
V4 12177 16661 21283
V5 12305 16900 18036
V6 9622 11143 7476

(G) 2 (285657) 2
C   1511109660
rab (3)(6)(3)
SQTotal  Y 2
C
 
SQTotal  (2372) 2    (3214) 2  1511109660
SQTotal  167005649
As somas de quadrados para a análise horizontal são calculadas como:

SQBlo cos (B) 


B
C
2

ab
(84700) 2  (100438) 2  (100519) 2
SQBlo cos (B)  C
(6)(3)
SQBlo cos (B)  9220962

SQVariedad e ( V ) 
V C
2

rb
( 48755) 2    (28241) 2
SQVariedad e ( V )  C
(3)(3)
SQVariedad e ( V )  57100201

SQ Re síduo (a) 
 (BV ) 2

 C  SQBlo cos SQVariedad e


b
(13702) 2    (10965) 2
SQ Re síduo (a)   1511109660  9220962  57100201
3
SQ Re síduo (a)  14922620
As somas de quadrados para a análise vertical são calculadas como:

SQNitrogên io (N) 
N C
2

ra
(72371) 2  (98608) 2  (114678) 2
SQNitrogên io (N)  C
(3)( 6)
SQNitrogên io (N)  50676061

SQ Re síduo (b) 
 (BN) 2

 C  SQBlo cos SQNitrogên io (N)


a
(18745) 2    (39447) 2
SQ Re síduo (b)   1511109660  9220962  50676061
6
SQ Re síduo (b)  2974909
As somas de quadrados para a análise da interação são calculadas como:
SQVar .  SQNit. ( VN ) 
 ( VN ) 2

 C  SQVariedad e ( V )  SQNitrogên io (N)


r
(10715) 2    (7476) 2
SQVar .  SQNit. ( VN )   1511109660  57100201 
3
 50676061
SQVar .  SQNit. ( VN )  23877980
SQ Re síduo (c )  SQTotal  (SQBlo cos  SQVar .  SQ Re s. (a) 
 SQNit.  SQ Re s. (b)  SQVar .  Nit.)
SQ Re síduo (c )  167005649  (9220962  57100201  14922620 
 50676061  2974909  23877980)
SQ Re síduo (c )  8232916
Desta forma, temos o quadro de Análise de Variância seguinte:

QUADRO 30. Análise de Variância de um experimento fatorial 3 x 6 no


arranjo em faixas.

F.V. S.Q. G.L. Q.M. F


Blocos 9220962 2 4610481
Variedade (V) 57100201 5 11420040 7,65**
Resíduo (a) 14922620 10 1492262
Nitrogênio (N) 50676061 2 25338031 --
Resíduo (b) 2974909 4 743727 --
Interação VN 23877980 10 2387798 5,80**
Resíduo (c) 8232916 20 411646
Total 16700564 53
9

Observe que o número de graus de liberdade do Resíduo (b) não é


adequado para dar validez ao teste de significância. Como a interação é
significativa deve-se ter cuidado na interpretação dos resultados, ou seja, deve-se
realizar o desdobramento da interação antes de aplicar as comparações de
médias apropriadas.
Neste caso temos que calcular três coeficientes de variação
correspondentes aos três quadrados médios do erro:
QM Re s (a)
CV (a)  (100);
Média Geral
QM Re s (b)
CV (b)  (100);
Média Geral
QM Re s (c )
CV (c )  (100);
Média Geral
Para o nosso exemplo, como os graus de liberdade para o QMRes. (b) é
inadequado, o CV (b) não é calculado. Os valores de CV para os outros dois
resíduos são computados como:
1492262
CV (a)  (100)  23,1%
5290
411646
CV (b)  (100)  12,1%
5290
O valor CV (a) indica o grau de precisão associado com o fator horizontal,
CV (b) com o fator vertical e CV (c) com a interação entre os dois fatores. O valor
de CV (c) é esperado ser o menor e a precisão para a medição do efeito da
interação é então a mais elevada. Para CV(a) e CV(b), entretanto, não há
nenhuma base para esperar que seja um maior ou menor que o outro.

5.5 - Parcela Sub-Subdividida

Utilizada para acomodar um terceiro fator, em experimentos onde três


diferentes níveis de precisão são desejados para testar os três efeitos. As
características deste delineamento são:
a) Existem três tamanhos de parcela, correspondendo aos três fatores.
b) Existem três níveis de precisão, com a parcela tendo o mais baixo grau de
precisão e a sub-subparcela o mais alto grau de precisão.
Como exemplo, seja um experimento fatorial 5 x 3 x 3, com 3 repetições.
Os fatores são 5 níveis de nitrogênio na parcela (A), 3 práticas de manejo na sub-
parcela (B) e 3 variedades de arroz na sub-subparcela (C), a, b e c referem-se
aos níveis dos fatores.
A casualização é feita da seguinte maneira:
1. Divide-se a área experimental em r repetições e cada repetição em a parcelas.
2. Casualize o fator A às parcelas independentemente para cada repetição.

N2 N3 N2M1 N2M3 N2M2 N3M1 N3M2 N3M3

N5 N1 N5M3 N5M2 N5M1 N1M2 N1M3 N1M1

N4 N4 N4M2 N4M1 N4M3 N4M2 N4M3 N4M1


N3 N2 N3M1 N3M3 N3M2 N2M3 N2M1 N2M2

Bloco I Bloco Bloco I Bloco II


II

3. Divide-se cada parcela em sub-parcelas.


4. Casualize o fator B às sub-parcelas independentemente, para cada (r) (a)
parcelas.
5. Divide-se cada sub-parcela em sub-subparcelas.
6. Casualize o fator C às sub-subparcelas independentemente, para cada (r) (a)
(b) sub-parcelas.

N2M1V2 N2M3V3 N2M2V3


N2M1V3 N2M3V1 N2M2V2
N2M1V2 N2M3V2 N2M2V1

Bloco I

N1M3V2 N1M1V1 N1M2V1 N4M2V1 N4M1V1 N4M3V3


N1M3V1 N1M1V3 N1M2V2 N4M2V2 N4M1V3 N4M3V1
N1M3V3 N1M1V2 N1M2V3 N4M2V3 N4M1V2 N4M3V2

N5M3V2 N5M2V1 N5M1V3 N3M1V3 N3M2V1 N4M3V3


N5M3V3 N5M2V2 N5M1V2 N3M1V1 N3M2V3 N3M3V1
N5M3V2 N5M2V3 N5M1V1 N3M1V2 N2M2V2 N3M3V2

A Análise de Variância deve ser feita da seguinte forma (esquema de


ANOVA):

Fontes de Variação Graus de Liberdade


Análise da Parcela:
Blocos r-1
Fator (A) a-1
Resíduo (a) (r-1)(a-1)
Análise da sub-parcela:
Fator (B) b-1
Int. A x B (a-1)(b-1)
Resíduo (b) a(r-1)(b-1)
Análise da sub-
subparcela
Fator (C) c-1
Int. A x C (a-1)(c-1)
Int. B x C (b-1)(c-1)
Int. A x B x C (a-1)(b-1)(c-1)
Resíduo (c) ab(r-1)(c-1)
Total rabc-1

EXEMPLO DE APLICAÇÃO

Produção (t/h) de grãos de três variedades (V) de arroz cultivadas sob três
(3) práticas de manejo (M) e cinco (5) níveis de nitrogênio (N), num arranjo fatorial
com nitrogênio na parcela, práticas de manejo na sub-parcela e variedade na sub-
subparcela, no DBC com 3 repetições.

Produção de Grãos (t/ha)

Pr Bloco I
V1
Bloco II Bloco III Bloco I
V2
Bloco II Bloco III Bloco I
V3
Bloco II Bloco III
áti
ca
s
de
Ma
nej
o
N1 (0 kg N/ha)
M1 (Min.) 3,320 3,864 4,507 6,101 5,122 4,815 5,355 5,536 5,244
M2 (Opt.) 3,766 4,311 4,875 5,096 4,873 4,166 7,442 6,462 5,584
M3 (Int.) 4,660 5,915 5,400 6,573 5,495 4,225 7,018 8,020 7,642
N2 (50 kg N/ha)
M1 3,188 4,752 4,756 5,595 6,780 5,390 6,706 6,546 7,092
M2 3,625 4,809 5,295 6,357 5,925 5,163 8,592 7,646 7,212
M3 5,232 5,170 6,046 7,016 7,442 4,478 8,480 9,942 8,714
N3 (80 kg N/ha)
M1 5,468 5,788 4,22 5,442 5,988 6,509 8,452 6,698 8,650
M2 5,759 6,130 5,308 6,398 6,533 6,569 8,662 8,526 8,514
M3 6,215 7,106 6,318 6,953 6,914 7,991 9,112 9,140 9,320
N4 (110 kg N/ha)
M1 4,246 4,842 4,863 6,209 6,768 5,779 8,042 7,414 6,902
M2 5,255 5,742 5,345 6,992 7,856 6,164 9,080 9,016 7,778
M3 6,829 5,869 6,011 7,565 7,626 7,362 9,660 8,966 9,128
N5(140 kg N/ha)
M1 3,132 4,375 4,678 6,860 6,894 6,573 9,314 8,508 8,032
M2 5,389 4,315 5,896 6,857 6,974 7,422 9,224 9,680 9,294
M3 5,217 5,389 7,309 7,254 7,812 8,950 10,360 9,896 9,712
(884,846) 2
c  5.799,648
(3)(5)(3)(3)
Quadro Auxiliar 1 - Totais blocos x nitrogênio.

Blocos Totais de
(3 x 3) Nitrogênio
Bloco I Bloco II Bloco III Nitrogênio
N1 49,331 49,598 46,458 145,387
N2 54,791 59,012 54,146 167,949
N3 62,461 62,823 63,601 188,885
N4 63,878 64,099 59,332 187,309
N5 63,607 63,843 67,866 195,316
Totais de Blocos 294,068 299,375 291,40 884,846
3

 
SQTotal  (3,320) 2  (3,864) 2    (9,712) 2  5.799,648  373,540
(294,068)  (299,375)  (291,403) 2
2 2
SQBlo cos   5.799,648  0,732
(5)(3)(3)
(145,387) 2    (195,316) 2
SQ (N)   5.799,648  61,641
(3)(3)(3)
SQ Re s (a)  SQ (Blo cos,N)  SQBlo cos SQ (N)
( 49,331) 2  ( 49,598) 2    (67,866) 2
SQ Re s (a)   5.799,648  0,732  61,641
(3)(3)
SQ Re s (a)  4,451

2) Análise da sub-parcela:
Quadro Auxiliar 2 - Totais nitrogênio x manejo.

Manejo
(3 x 3) Nitrogênio
M1 M2 M3
N1 43,864 46,575 54,948
N2 50,805 54,624 62,520
N3 57,417 62,399 69,069
N4 55,065 63,228 69,016
N5 58,366 64,051 71,899
Totais de Manejo 265,517 291,877 327,452

Quadro Auxiliar 3 - Totais de blocos x nitrogênio x manejo.

Blocos
(3) Manejo
Bloco I Bloco II Bloco III
N1 (0 kg N/ha)
M1 14,776 14,522 14,566
M2 16,304 15,646 14,625
M3 18,251 19,430 17,267
Continua...
Continuação...
Blocos
(3) Manejo
Bloco I Bloco II Bloco III
N2 (50 kg N/ha)
M1 15,489 18,078 17,238
M2 18,574 18,380 17,670
M3 20,728 22,554 19,238
N3 (80 kg N/ha)
M1 19,362 18,474 19,581
M2 20,819 21,189 20,391
M3 22,280 23,160 23,629
N4 (110 kg N/ha)
M1 18,497 19,024 17,544
M2 21,327 22,614 19,298
M3 24,054 22,461 22,501
N5 (140 kg N/ha)
M1 19,306 19,777 19,283
M2 21,470 20,969 22,612
M3 22,831 23,097 25,971

(265,517) 2  (291,877) 2  (327,452) 2


SQ (M)   5.799,648  42,936
(3)(3)(5)
SQ (NM)  SQ (N,M)  SQ (N)  SQ (M)
( 43,864) 2  ( 46,575) 2    (71,899) 2
SQ (NM)   5.799,648  61,641  42,936
(3)(3)
SQ (NM)  1,103

SQ Re s (b)  SQ (Blo cos, N,M)  SQBlo cos SQ (N)  SQ Re s (a)  SQ (M)  SQ (NM)
(14,776) 2  (14,522) 2    (25,971) 2
SQ Re s (b)   5.799,648 
3
 0,732  61,641  4,451  42,936  1,103
SQ Re s (b)  5,236

3) Análise da sub-subparcela:
Quadro Auxiliar 4 - Totais nitrogênio x variedades.

Variedades
(3 x 3) Nitrogênio
V1 V2 V3
N1 40,618 46,466 58,303
N2 42,873 54,146 70,930
N3 52,514 59,297 77,074
N4 49,002 62,321 75,986
N5 45,700 65,596 84,020
Totais de Variedades 230,707 287,826 366,313
Quadro Auxiliar 5 - Totais manejo x variedades.

Variedades
(5 x 3) Manejo
V1 V2 V3
M1 66,201 90,825 108,491
M2 75,820 93,345 122,712
M3 88,686 103,656 135,110

Quadro Auxiliar 6 - Totais nitrogênio x manejo x variedades.

Variedades
(3) Manejo
V1 V2 V3
N1 (0 kg N/ha)
M1 11,691 16,038 16,135
M2 12,952 14,135 19,488
M3 15,975 16,293 22,680
N2 (50 kg N/ha)
M1 12,696 17,765 20,344
M2 13,729 17,445 23,450
M3 16,448 18,936 27,136
N3 (80 kg N/ha)
M1 15,678 17,939 23,800
M2 17,197 19,500 25,702
M3 19,639 21,858 27,572
N4 (110 kg N/ha)
M1 13,951 18,756 22,358
M2 16,342 21,012 25,874
M3 18,709 22,553 27,754
N5 (140 kg N/ha)
M1 12,185 20,327 25,854
M2 15,600 21,253 28,198
M3 17,915 24,016 29,968

(230,707) 2  (287,826) 2  (366,313) 2


SQ ( V )   5.799,648  206,013
(3)(3)(5)
SQ (N V )  SQ (N,V )  SQ (N)  SQ ( V )
( 40,618) 2  ( 46,466) 2    (84,020) 2
SQ (N V )   5.799,648  61,641  206,013
(3)(3)
SQ (N V )  14,144
SQ (M V )  SQ (M,V )  SQ (M)  SQ ( V )
(66,201) 2  (90,825) 2    (135,110) 2
SQ (M V )   5.799,648  42,936  206,013
(5)(3)
SQ (M V )  3,852

SQ (NM V )  SQ (N,M,V )  SQ (N)  SQ (M)  SQ ( V )  SQ (NM)  SQ (N V )  SQ (M V )


(11,691) 2  (16,038) 2    (29,968) 2
SQ (NM V )   5.799,648  61,641  42,936 
3
 206,013  1,103  14,144  3,852
SQ (NM V )  3,699

SQ Re s (c )  SQTotal  (soma de todas as outras SQ )


SQ Re s (c )  373,540  (0,732  61,641  4,451  42,936  1,103  5,236 
 206,013  14,144  3,852  3,699)
SQ Re s (c )  29,733

QMBlo cos  SQBlo cos/ r  1; QM (N)  SQ (N) / m1

QMRe s (a)  SQRe s (a) /(r  1)(m  1); QM(M)  SQ(M) / m1
QM(NM)  SQ(NM) /( n1)(m1)

QM Re s (b)  SQ Re s (b) /( r  1)(m  1) n


QM ( V )  SQ ( V ) /( V 1) ; QM (N V )  SQ (N V ) /( n1)(v 1)

QM(MV )  SQ(MV ) /( m1)(v 1)


QM(NMV )  SQ(NMV ) /( n1)(m1)(v 1)

QM Re s (c )  SQ Re s (c ) /( r  1)( v  1) n m
QM Re s (a)
CV( a )  (100)  11,4%
Y..
CV(b )  7,8%
CV( c )  10,7%
F( ABC )  QM ( ABC ) / QM Re s (c )
F( AB )  QM ( AB ) / QM Re s (b)

QUADRO 31. Análise de variância (parcela sub-subdividida) de dados de


produção.

F.V. S.Q. G.L. Q.M. F


Blocos 0,732 2 0,3660
Nitrogênio (N) 61,641 4 15,4102 27,70**
Resíduo (a) 4,451 8 0,5564
Manejo (M) 42,936 2 21,4680 82,00**
NxM 1,103 8 0,1379 <1
Resíduo (b) 5,236 20 0,2618
Variedade (V) 206,013 2 103,0065 207,84**
NxV 14,144 8 1,7680 3,57**
MxV 3,852 4 0,9630 1,94ns
NxMxV 3,655 16 0,2312 <1
Resíduo (c) 29,733 60 0,4956
Total 373,540 134

5.6 - Parcelas em Faixas Subdivididas

Este delineamento de tratamentos é uma extensão da parcela em faixas;


neste caso, a parcela interseção é dividida em sub-parcelas para acomodar um
terceiro fator. As principais características são:
1) Existem 4 tamanhos de parcela - a faixa horizontal, a faixa vertical, a parcela
interseção e a sub-parcela;
2) Existem 4 níveis de precisão com os quais os efeitos dos vários fatores são
medidos; o nível mais elevado corresponde ao fator da sub-parcela e suas
interações com os outros fatores.
Suponhamos que A represente o fator vertical, B o fator horizontal, C o
fator da sub-parcela. Seja um experimento delineamento para testar dois métodos
de semeadura (M1 e M2) e três doses de nitrogênio (N1, N2 e N3), sobre a
produção de seis variedades (V1, V2, V3, V4, V5 e V6) de arroz; o experimento tem
3 blocos, com nitrogênio nas faixas verticais, variedades nas faixas horizontais e
método de semeadura nas sub-parcelas. Veja o “layout” a seguir, com detalhe de
sub-parcelas apenas para a faixa vertical N1:

N1 N3 N2 N3 N2 N1 N3 N1 N2

V6 M1 M2 V4 V5
V5 M2 M1 V2 V2
V3 M1 M2 V6 V3
V2 M2 M1 V3 V4
V4 M1 M2 V1 V6
V1 M2 M1 V5 V1

Bloco I Bloco II Bloco III


FIGURA 11. Casualização das seis variedades nas parcelas horizontais
das três doses de nitrogênio nas parcelas verticais e dos dois
métodos de semeadura nas sub-parcelas.

Construa um esquema de análise de variância para o experimento:


Fontes de Variação Graus de Liberdade
Blocos r-1=2
Fator vertical (A) a-1=2
Resíduo (a) (r-1)(a-1)=4
Fator horizontal (B) b-1=5
Resíduo (b) (r-1)(b-1)=10
Int. A x B (a-1)(b-1)=10
Resíduo (c) (r-1)(a-1)(b-1)=20
Fator sub-parcela (C) c-1=1
AxC (a-1)(c-1)=2
BxC (b-1)(c-1)=5
AxBxC (a-1)(b-1)(c-1)=10
Resíduo (d) (r-1)(c-1)ab=36
Total rabc-1=107
EXEMPLO DE APLICAÇÃO

Considere os dados a seguir como exemplo: produção de grãos de seis


variedades de arroz sob dois métodos de semeadura e três doses de nitrogênio
no esquema de faixas subdivididas.

Produção de Grãos (Kg/ha)


Varie-
dades M1 (a lanço) Total M2 (transplantio) Total
Bloco I Bloco II Bloco III (ABC) Bloco I Bloco II Bloco III (ABC)
N1 (0 Kg N/ha)
V1 2373 3958 4384 10715 2293 3528 253 8359
V2 4007 5795 5001 14803 4035 4885 4583 13503
V3 2620 4508 5621 12749 4527 4866 3628 13021
V4 2726 5630 3821 12177 5274 6200 4038 15512
V5 4447 3276 4582 12305 4655 2796 3739 11190
V6 2572 3724 3326 9622 4535 5457 3537 13529
N2 (60 Kg N/ha)
V1 4076 6431 4880 15396 3085 7502 4362 14949
V2 5630 7334 7177 20141 3728 7424 5377 16529
V3 4676 6672 7019 18367 4946 7611 6142 18699
V4 4838 7007 4816 16661 4878 6928 4829 1635
V5 5549 5340 6011 16900 4646 5006 4666 14318
V6 3896 2822 4425 11143 4627 4461 4774 13862
N3 (120 Kg N/ha)
V1 7254 6808 8582 22644 6661 6353 7759 20773
V2 7053 8284 6297 21634 6440 7648 5736 19824
V3 7666 7328 8611 23605 8632 7101 7416 23149
V4 6881 7735 6667 21283 6545 9838 7253 23636
V5 6880 5080 6076 18036 6995 4486 6564 18045
V6 1556 2706 3214 7476 374 7218 6369 18961

1º) Faça uma análise vertical.

Quadro Auxiliar 1 - Totais de blocos x nitrogênio.

Blocos Totais de
(6 x 2) Nitrogênio
Bloco I Bloco II Bloco III Nitrogênio
N1 44064 54623 48798 147485
N2 54575 74538 64487 193600
N3 77937 80585 80544 239066
Totais de Blocos 176576 209746 193829 580151

(580151) 2
C  3116436877
(3)(3)( 6)( 2)
 
SQTotal  (2373) 2  (3958) 2    (6369) 2  C  307327796
(176576)  (209746)  (193829) 2
2 2
SQBlo cos   C  152894498
(3)( 6)( 2)

(147485) 2  (193600) 2  (239066) 2


SQ (N)   C  116489164
(3)(6)(2)

( 44064) 2    (80544) 2
SQ Re s (a)   C  SQBlo cos  SQ (N)
(6)( 2)
SQ Re s (a)  6361493

2º) Faça uma análise horizontal.


Quadro Auxiliar 2 - Totais de blocos x variedades.

Blocos Totais de
(3 x 2) Variedades
Bloco I Bloco II Bloco III Nitrogênio
V1 25742 34580 32514 92836
V2 30893 41370 34171 106434
V3 33067 38086 38437 109590
V4 31142 43338 31424 105904
V5 33172 25984 31638 90794
V6 22560 26388 25645 75593

(92836) 2    (74593) 2
SQ ( V )   C  49119270
(3)(3)( 2)

(25742) 2  (34580) 2    (25645) 2


SQ Re s (b)   C  SQBlo cos  SQ ( V )
(3)( 2)
SQ Re s (b)  26721828

3º) Faça uma análise da parcela interação.


Para esta análise deve-se construir dois quadros auxiliares: um para os
totais Nitrogênio x Variedades e outro para os totais Blocos x Nitrogênio x
Variedades.
Quadro Auxiliar 3 - Totais Nitrogênio x Variedades.

Nitrogênio
(3 x 2) Variedades
N1 N2 N3
V1 19074 30345 43417
V2 28306 36670 41458
V3 25770 37066 46754
V4 27689 33296 44919
V5 23495 31218 36081
V6 23151 25005 26437

Quadro Auxiliar 4 - Totais de Blocos x Nitrogênio x Variedades.

Blocos
(2) Variedades
Bloco I Bloco II Bloco III
N1 (0 kg N/ha)
V1 4666 7486 6922
V2 8042 10680 9584
V3 7147 9374 9249
V4 8000 11830 7859
V5 9102 9181 8321
V6 7107 9118 6863
N2 (60 kg N/ha)
V1 7161 13933 9251
V2 9358 14758 12554
V3 9622 14283 13161
V4 9716 13935 9645
V5 10195 10346 10677
V6 8523 7283 9199
N3 (120 kg N/ha)
V1 13915 13161 16341
V2 13493 15932 12033
V3 16298 14429 16027
V4 13426 17573 13920
V5 13875 9566 12640
V6 6930 9924 9583

(19074) 2  (30345) 2    (26437) 2


SQ(NV )   C  SQ(N)  SQ( V )
(3)(2)
SQ(NV )  24595732

( 4666) 2  (7486) 2    (9583) 2


SQ Re s (c )   C  SQBlo cos  SQ (N) 
2
 SQ Re s (a)  SQ ( V )  SQ Re s (b)  SQ (N V )
SQ Re s (c )  19106732

4º) Faça uma análise da sub-parcela.


Neste caso deve-se construir dois quadros auxiliares: um para totais fator
vertical x fator da sub-parcela e outro para fator horizontal x fator da sub-
parcela.
Quadro Auxiliar 5 - Totais Nitrogênio x Método de Plantio.

Método de Plantio
(6 x 3) Nitrogênio
M1 M2
N1 72371 75114
N2 98608 94992
N3 114678 124388
Totais de Métodos de Plantio 285657 2944494
Quadro Auxiliar 6 - Totais Variedades x Método de Plantio.

Método de Plantio
(3 x 3) Variedades
M1 M2
V1 48755 44081
V2 56578 49856
V3 54721 54869
V4 50121 55783
V5 47241 43553
V6 28241 46352

(285657) 2  (294494) 2
SQ (M)   C  723078
(3)(3)(6)

(72371) 2    (124388) 2
SQ(NM)   C  SQ(N)  SQ(M)
(3)(6)
SQ(NM)  2468136

( 48755) 2    ( 46352) 2
SQ( VM)   C  SQ( V )  SQ(M)
(3)(3)
SQ( VM)  23761442

(10715) 2    (18961) 2
SQ (N VM)   C  SQ (N)  SQ ( V )  SQ (M)
3
 SQ (N V )  SQ (NM)  SQ ( VM)
SQ (N VM)  7512067

SQ Re s (d)  SQTotal  ( todas as outras somas de quadrados)


SQ Re s (d)  307327796  (15289498  116489164  6361493  49119270 
 26721828  24595732  1106732  723078  2468136 
 23761442  7512067)
SQ Re s (d)  15179356

QUADRO 32. Análise de variância de produção de grãos.

F.V. S.Q. G.L. Q.M. F


Blocos 15289498 2 7644749 *
Nitrogênio (N) 11648916 2 58244582 *
4
Resíduo (a) 6361493 4 1590373 *
Variedades (V) 49119270 5 9823854 3,6*
Resíduo (b) 26721828 10 2672183
Int. N x V 24595732 10 2459573 2,57*
Resíduo (c) 19106732 20 955337
Método de plantio 723078 1 723078 1,71ns
(M)
Int. N x M 2468136 2 1234068 2,93ns

Continua...
Continuação...
F.V. S.Q. G.L. Q.M. F
Int. V x M 23761442 5 4752288 11,27**
Int. N x V x M 7512067 10 751207 1,78ns
Resíduo (d) 15179356 36 421649
Total 30732779 107
6
C.V. (a) = não calculado porque g.l. não é adequado.
C.V. (b) = 30,4%; C.V. (c) = 18,2%; C.V. (d) = 12,1%.
CAPÍTULO VI

FUNDAMENTOS E APLICAÇÕES DE TESTES DE SIGNIFICÂNCIA

O principal objetivo da Estatística é a tomada de decisões à respeito da


população, com base na observação de amostras.
Ao tomar decisões é conveniente formular hipóteses estatísticas que
consistem em considerações à respeito das distribuições de probabilidade das
populações. Freqüentemente formulamos uma hipótese estatística com o objetivo
de rejeitá-la. Existem as hipóteses de nulidade (H0) e a alternativa (Ha).
Os processos que permitem decidir se aceitamos ou rejeitamos uma
determinada hipótese, são denominados de testes de hipóteses ou testes de
significância.
Ao tomarmos uma decisão, estamos sujeitos a incorrer em um dos erros
seguintes:
a) Erro Tipo I - É o erro que cometemos ao rejeitar uma hipótese verdadeira, que
deveria ser aceita.
b) Erro Tipo II - É o erro que cometemos ao aceitar uma hipótese falsa, que
deveria ser rejeitada.
Na realização dos testes controlamos apenas o Erro Tipo I, através do
nível de significância do teste, representado por  e que consiste na
probabilidade máxima de se cometer um Erro do Tipo I ao testarmos determinada
hipótese.
A confiança que temos de ter tomado a decisão correta ao rejeitar ou
aceitar uma hipótese nulidade é denominada de grau de confiança do teste, que
é representado por 1  e expresso em porcentagem.
6.1 - Teste para Análise de Variância
Teste F

A estatística F pode ser definida como sendo o quociente de duas


estimativas de variância S12 e S22, supostas independentes e calculadas com n1 e
n2 graus de liberdade, respectivamente. Então
2
S1
F 2
S2

No teste, quando o F calculado é menor que o F tabelado ao nível de 5%


de probabilidade, por exemplo, admitimos que a diferença foi casual (a
probabilidade de Erro Tipo I foi maior que a probabilidade máxima aceitável) e
dizemos que o teste não foi significativo (ns) ao nível de 5% de probabilidade
(P>0,05) e aceitamos H0 :  12   2 2 , ou seja, as duas amostras consideradas
foram retiradas de uma mesma população (populações com mesma variância).
Se o F calculado é maior que o F tabelado, dizemos que o teste foi significativo
ao nível de 5% de probabilidade, ou seja, P<0,05 (a probabilidade de Erro Tipo I
foi menor que a probabilidade máxima aceitável).
Consideremos a seguinte ilustração:

Sob H0, a probabilidade de termos um valor F>2,45, por simples acaso, é


igual ou menor que 0,05, ou seja, P (F  2,45)  0,05 . Isto significa que, se H0 é
verdadeira, valores de F>2,45 ocorrerão por acaso, com 5% de probabilidade ou
menos, ao passo que existe uma probabilidade igual ou menor que 95% de
ocorrência de valores de F<2,45 por acaso, o que caracteriza as regiões de
rejeição e de aceitação de H0. Nesta ilustração o F calculado foi de 1,33, ele está
dentro da região de aceitação de H0 (tem 95% de probabilidade de ocorrer
simplesmente devido ao acaso), o que nos leva a decidir pela igualdade das
variâncias.

6.2 - Estudo de Contrastes


Na maioria dos experimentos envolvendo vários tratamentos, geralmente, o
pesquisador está interessado em certas comparações específicas entre as
médias de tratamentos. Para auxiliar na construção de tais comparações é
conveniente falarmos em termos de contrastes. Algebricamente, um contraste
entre quantidades pode ser definido como:
Seja a função linear Y  f ( x)  a1x1  a 2 x 2    an x n .
Diz-se que Y é um contraste nas quantidades x se, e somente se,
n

a
i 1
1  a 1  a 2    a n  0 . Então, se

Y  x1  x 2  x 3  x 4 , implica que Y é um contraste, uma vez que, a1  1 ,


a 2  1, a 3  1 e a 4  1, e portanto,
a1  a 2  a 3  a 4  1  1  ( 1)  ( 1)  0

6.2.1 - Contrastes de Médias


Se em lugar das quantidades x tivermos médias, obtemos um contraste de
médias. Por exemplo, se num experimento temos cinco médias de tratamentos,
m1, m2, m3, m4 e m5, as funções lineares,
Y1  m1  m 2  m 3  m 4  4m 5
Y2  m1  m 2  m 3  m 4
Y3  m1  m 2 e Y4  m1  m 3

, constituem contrastes de médias. Numa análise estatística devemos


formular aqueles contrastes que sejam de maior interesse para a pesquisa.
Conhecendo-se as estimativas das médias podemos calcular as
estimativas dos contrastes. Desta forma, para um contraste de médias em sua
forma geral,
n
Y  C1m1  C 2 m 2    C n m n e C
i1
i  0 , obtém-se a estimativa

Ŷ  C1m̂1  C 2 m̂ 2    C n m̂ n

6.2.2 - Variância de um Contraste


n
Seja a estimativa de contraste Ŷ  C1m̂1  C 2 m̂ 2    C n m̂ n com C
i1
i  0.

Admitindo-se que todas as médias sejam independentes, a estimativa da


variância desta estimativa de contraste é definida como:
V̂( Ŷ )  C1 V̂(m̂1 )  C 2 V̂(m̂ 2 )    C n V̂(m̂ n ) . Sabemos que
2 2 2

2
Si
V̂(m̂ i )  (i  1, 2, , n) . Então
ri
2 2 2
S1 2 S2 2 Sn
V̂( Ŷ )  C1  C2    Cn
2

r1 r2 rn

Se S12  S 2 2    S n 2  S 2 , o que ocorre normalmente, tem-se


 C12 C 2 2  2   2
 
2 n 2
Cn Ci
V̂( Ŷ )  
 r1

r2

rn
S 
   ri
 S .

   i1 
Se todas as médias tiverem o mesmo número de repetições, o que é mais
freqüente, tem-se
  Sr  2 S 
2 n 2
V̂( Ŷ)  C1  C 2    Cn
2 2 2
   Ci   

 i1  r 

6.2.3 - Covariância de dois Contrastes


Sejam duas estimativas de contrastes
Ŷ  a1m̂1  a 2 m̂ 2    a n m̂ n
Ŷ  b1m̂1  b 2 m̂ 2    b n m̂ n , nas quais as
e
médias foram estimadas com r1, r2 , , rn repetições.
A estimativa da covariância entre essas duas estimativas de contrastes é
definida por
CÔV ( Ŷ1, Ŷ2 )  a1b1V̂(m̂1 )  a 2 b 2 V̂(m̂ 2 )    a n b n V̂(m̂ n )
2
Si
Sabemos que V̂(m̂ i )  (i  1, 2, , n) , logo temos que
ri
2 2 2
S S S
CÔV ( Ŷ1, Ŷ2 )  a1b1 1  a 2 b 2 2    a n b n n .
r1 r2 rn

Freqüentemente, tem-se que S12  S 2 2    S n 2  S 2 , então


a b a b a b  2
CÔV ( Ŷ1, Ŷ2 )   1 1  2 2    n n  S .
 r1 r2 rn 
Se todas as medidas têm o mesmo número de repetições temos
S2  n
  S2 
CÔV ( Ŷ1, Ŷ2 )  a1b1  a 2b 2    a nb n     a1b1   

r  i1  r 

6.2.4 - Contrastes Ortogonais


A ortogonalidade entre dois contrastes indica uma independência entre as
comparações estabelecidas através de cada contraste.
A condição necessária e suficiente para que dois contrastes sejam
ortogonais entre si é que a covariância entre eles seja nula, ou seja,
n 2
Si ab a b a b
i 1
a ib i
ri
 1 1 S1  2 2 S 2    n n S n  0
r1
2

r2
2

rn
2

Se S12  S 2 2    S n 2  S 2 , a condição de ortogonalidade é então dada


por
n
a1b1 a 2 b 2 a b a ib i
r1

r2
 n n 
rn

i1 ri
0

Se o número de repetições for igual para todas as médias, a condição de


ortogonalidade fica
n
a1b1  a 2 b 2    a n b n  a b
i1
1 1 0

Deve ser observado que três ou mais Contrastes são ortogonais entre si se
eles forem ortogonais dois a dois. Num experimento com I tratamentos, podem-se
formar vários grupos de contrastes ortogonais entre si, porém, cada grupo terá
apenas (I-1) contrastes.

6.2.5 - Erro Padrão de um Contraste


Pode ser utilizado na construção de um intervalo de confiança para a
estimativa do contraste. O erro padrão da estimativa de um contraste, denotado
por S( Ŷ ) é a raiz quadrada positiva da estimativa da variância do contraste, ou
seja, S ( Ŷ)  V̂ ( Ŷ ) .

6.3 - Testes para Comparações de Médias

Os testes de comparações de médias ou testes de comparações múltiplas,


servem como complemento ao teste F da análise de variância, uma vez que
possibilitam detectar as reais diferenças entre as médias de tratamentos. Os
principais procedimentos para comparações múltiplas são:

6.3.1 - Teste t de Student


Os requisitos básicos para sua aplicação são os seguintes: (a) os
contrastes a serem testados devem ser estabelecidos antes dos dados serem
obtidos e (b) os contrastes a serem testados devem ser ortogonais entre si.
Este teste serve para comparar duas médias ou grupos de médias através
de contrastes. Por exemplo, a estimativa de contraste de médias
Ŷ  C1m̂1  C 2 m̂ 2    C n m̂ n pode ser testada calculando-se a estatística t, dada
por:
Ŷ  0 Ŷ
t 
V̂( Ŷ ) S( Ŷ )

O valor absoluto da estatística t deve ser comparado com os valores


tabelados em função do número de graus de liberdade do resíduo e do número de
significância desejado. As hipóteses sob consideração são:
H0 : Y  0 (ou m1  m 2    m n ) e
Ha : Y  0 (ou m1  m 2    m n )
A regra de decisão é que se t  t  (g.l. do resíduo) rejeita-se H0, caso
contrário, não se rejeita H0.
O intervalo de confiança para um contraste de médias é dado por
Ŷ  t  S ( Ŷ )  Y  Ŷ  t  S ( Ŷ ) , onde o valor de t é obtido na tabela, em
função do número de graus de liberdade do resíduo.

6.3.2 - Teste de Bonferroni


É um aperfeiçoamento do teste t. Sabe-se que mesmo que se observem os
requisitos básicos do teste t ele não é exato quando aplicado a dois ou mais
contrastes de um mesmo experimento. Por exemplo, quando se adota o nível de
significância de 5% para testar cada um dentre três contrastes, a probabilidade de
que pelo menos um seja significativo, por simples acaso, passa a ser
aproximadamente 3  5  15% . De maneira geral, se o nível de significância for  ,
para cada contraste, a probabilidade de que pelo menos um de n contrastes
ortogonais seja significativo, por acaso, é de n  .
Para contornar este problema, o teste de Bonferroni indica o uso de um
nível de significância '   n , para cada contraste; para um conjunto de
contrastes temos n '   . Para facilitar a aplicação do teste de Bonferroni existem
tabelas t especiais. Por exemplo, para   5% e n  3 contrastes, o valor de t de
Bonferroni, para cada contraste, corresponde a um nível de significância
'  5 3  1,67% ; considerando 20 g.l. para o resíduo o valor de t na tabela de
Bonferroni é t  2,61. Este valor de t é que será usado ao aplicar o teste a 3
contrastes preferencialmente ortogonais.
A estatística t é calculada como da maneira anterior, ou seja,

t e calculada com t (n; g.l. resíduo), obtido na Tabela de
S ( Ŷ )
Bonferroni.

6.3.3 - Teste de Tukey


Deve ser usado para testar todo e qualquer contraste entre duas médias de
tratamentos; não permite comparar grupos de médias entre si. O teste é de fácil
uso e exato quando o número de repetições é igual para todos os tratamentos.
O teste tem por base a diferença mínima significativa,  , calculada
como:
S
q  q  S ( Ŷ ) , onde
r
q = amplitude total estudentizada, cujo valor é tabelado em função do
número de tratamentos (n), do número de graus de liberdade do resíduo (n’) e do
nível de significância (  ) escolhido;
S  QM Re s.  desvio padrão residual;
r  número de observações usado para calcular as médias comparadas no
contraste.
A regra de decisão é que se Ŷ   , o contraste é dito ser significativo ao
nível  de probabilidade testada, indicando que as duas médias contrastadas
diferem entre si.
Se as duas médias comparadas no contraste não possuírem o mesmo
número de repetições, podemos aplicar o teste de forma aproximada, calculando-
se a diferença mínima significativa como:
1
q V̂ ( Ŷ ) , onde Ŷ  m̂i  m̂ j
2
 1 1
com ri  r j e V̂ ( Ŷ )      S 2
 ri r j 
 

6.3.4 - Teste de Duncan


É um teste menos rigoroso que o teste de Tukey, isto é, discrimina mais os
resultados; entretanto, é de aplicação mais trabalhosa. Exige que as médias
sejam colocadas em ordem decrescente de valor e que todas elas possuam o
mesmo número de repetições.
O teste deve ser usado para testar contrastes entre duas médias de
tratamentos apenas, mas a amplitude do contraste pode abranger um número
maior de médias.
O teste baseia-se na amplitude total mínima significativa, Di, dada por:
S
Di  Z i  Z i  S ( Ŷ ) , onde
r
Z i  amplitude total estudentizada, cujo valor é encontrado em tabelas, em
função do número de médias abrangidas pelo contraste (n), do número de graus
de liberdade do resíduo (n’) e do nível de significância (  ) escolhido;
S  QM Re s.  desvio padrão residual;
r  número de observações usado para calcular as médias testadas no
contraste.
A regra de decisão é que se Ŷ  Di , o contraste é não significativo,
indicando que não podemos rejeitar H0 e concluímos que as médias comparadas
não diferem entre si. Unimos as médias abrangidas pelo contraste por uma barra
e não podemos mais comparar médias que estiverem dentro da mesma barra. Se
Ŷ  Di , o contraste é significativo; concluímos que as médias contrastadas
diferem entre si e passamos a testar contrastes que abranjam um menor número
de médias.
Quando as médias não tiverem sido estimadas como o mesmo número de
observações, o teste será apenas aproximado e calcula-se a amplitude total
mínima significativa como:
1  1 1
Di '  Z i V̂ ( Ŷ ) , onde V̂ ( Ŷ )      S 2 e ri  r j
2  ri r j 
 

6.3.5 - Teste de Student – Newman- Keuls (SNK)


É um teste intermediário entre o teste de Tukey e o teste de Duncan
porque também leva em consideração o número de médias abrangidas pelo
contraste e é baseado na amplitude total estudentizada, q, do teste de Tukey.
Deve ser usado para comparar qualquer contraste entre duas médias. É um teste
intermediário quanto à exigência quando comparado com os testes de Tukey e
Duncan, ou seja, não é tão exigente quanto o teste de Tukey nem pouco exigente
quanto o teste de Duncan, especialmente quando se testa grande número de
tratamentos.
Este teste difere do teste de Duncan pelo fato de considerar o nível de
significância (  ) fixo na construção da tabela de amplitude total estudentizada
(igual ao teste de Tukey), enquanto que o teste de Duncan usa nível de
significância variável, em função do número de médias abrangidas pelo contraste,
na construção da tabela de Duncan.
O teste baseia-se na amplitude total mínima significativa, W i, que é dada
por
S
Wi  qi  qi  S ( Ŷ ) , onde
r
qi  amplitude total estudentizada, que é tabelada em função do número de
médias abrangidas pelo contraste (ni), pelo número de graus de liberdade do
resíduo (n’) e pelo nível de significância (  ) desejado. O valor de qi é retirado da
Tabela de Tukey considerando-se o número de médias abrangidas pelo contraste
no lugar do número de tratamentos.
Quando a maior média não diferir significativamente da menor não se
admitirá diferença significativa pelo mesmo teste, entre as médias intermediárias
e passamos a testar contrastes que abrangem um menor número de médias.
Quando as médias forem provenientes de número diferente de repetições,
o teste será apenas aproximado e dado por:
1  1 1
Wi '  q i V̂ ( Ŷ ) , onde V̂ ( Ŷ )      S 2 e ri  r j
2  ri r j 
 
6.3.6 - Teste de Scheffé
Este teste pode ser aplicado no teste de todo e qualquer contraste de
médias. Entretanto, é freqüentemente utilizado para testar contrastes que
envolvem grupos de médias. Para sua aplicação correta, exige apenas que o
teste F para tratamentos seja significativo.
A estatística do teste, denotada por S é calculada como
S  (I  1)  F  V̂ ( Ŷ) , onde
I  número de tratamentos do experimento;
F  valor crítico da tabela, ao nível  de significância, em função dos
números de graus de liberdade de tratamentos e de resíduo.
A decisão estatística é que se Ŷ  S , dizemos que o contraste é
significativo ao nível  de probabilidade, o que indica que os grupos de médias
do contraste diferem entre si a esse nível de probabilidade.
A estimativa da variância da estimativa do contraste, V̂ ( Ŷ ) , é dada por:
C 2 C 2 C
2
 2
V̂ ( Ŷ )   1  2    n   S ou
 r1 r2 rn 
 
 n
2 S
2
V̂ ( Ŷ)    Ci  
 i1  r
quando o número de repetições é igual para todos os tratamentos.

6.3.7 - Teste de Dunnett


Este teste é utilizado quando se deseja comparar apenas a testemunha
(um tratamento padrão) com cada um dos demais tratamentos, não havendo
interesse na comparação dos demais tratamentos entre si. Desta forma, um
experimento com I tratamentos (incluindo o padrão P) permite a aplicação do
teste a I  1 comparações. A aplicação do teste é feita da forma seguinte:
1º) Calcule a estimativa de cada contraste como
Ŷ1  m̂1  m̂P
Ŷ2  m̂ 2  m̂P

Ŷ(I1)  m̂(I1)  m̂P

2º) Calcule a estimativa da variância da estimativa de cada contraste de acordo


com
1 1
V̂ ( Ŷ )      S 2 ( i  1, 2, , I e P  i),
 ri rP 
3º) Calcule o erro padrão do contraste como
S ( Ŷ)  V̂ ( Ŷ)

4º) Calcule a estatística do teste d’ dada por d'  t d  S ( Ŷ ) , onde


t d  valor obtido na Tabela de Dunnett, em função do número de graus de
liberdade de tratamentos (I  1) e do número de graus de liberdade do resíduo
(n 1 ) .

5º) Comparar cada estimativa de contraste (em valor absoluto), com o valor d’.
A decisão estatística é que se Ŷ  d' o contraste será significativo,
indicando que a média da testemunha difere significativamente da média do
tratamento com ela comparado.
6º) Indicar a significância do teste no valor da estimativa do contraste.

Foi referido anteriormente que se o teste F na análise de variância for


significativo para o efeito do fator estudado, é preciso saber onde se encontram
as diferenças entre as médias dos níveis do fator. Para obter essa informação
tem-se (para modelos fixos):
1) Decomposição da Soma de Quadrados do Fator para testar hipóteses
de interesse (por exemplo, regressão e contrastes ortogonais);
2) Comparação direta dos efeitos dos níveis do fator usando técnicas de
estimação (testes de comparação de médias).
Como todo processo de inferência está sujeito a erros, admitem-se então os
tipos de erro seguintes:
1) Erro Tipo I – probabilidade (  ) de rejeitar uma hipótese ( H ) quando
0
de fato ela é verdadeira;
2) Erro Tipo II – probabilidade (  ) de não rejeitar uma hipótese ( H )
0
quando de fato ela é falsa;
3) Erro Tipo III – probabilidade de classificar um tratamento como superior
ao outro quando de fato o segundo tratamento supera o primeiro; esse
tipo de erro quase nunca é considerado.
Os testes de comparação de médias são baseados no Erro Tipo I (  ).
Existem duas formas de medir o Erro Tipo I:
1) Taxa de Erro Tipo I por Comparação – probabilidade de se rejeitar uma
hipótese verdadeira em todas as possíveis comparações dos
tratamentos tomados dois a dois, em um experimento. Para estimar
essa taxa de erro faz-se a simulação de diferentes números de
tratamentos e de diferenças entre tratamentos (2, 4, 6 erros padrões);
2) Taxa de Erro Tipo I por Experimento – probabilidade de se realizar pelo
menos uma inferência errada por experimento. Nesse caso é feita a
simulação de diferentes números de experimentos, de tratamentos e
de diferenças entre tratamentos.
As diferenças entre os testes de comparação de médias se referem
fundamentalmente à filosofia de controle da taxa de Erro Tipo I:
 Os testes de Duncan e DMS (baseado em t) não controlam a
taxa de erro por experimento, mas controlam a taxa de erro por
comparação. Por exemplo, em 2000 experimentos com 10
tratamentos a probabilidade de rejeitar pelo menos uma hipótese
H quando ela é verdadeira (Erro Tipo I) é de 36,3% e 59,1%
0
para DMS (Berhardson, 1975). Vale ressaltar que, nesse caso,
são possíveis 45 pares de comparações entre as médias de
tratamentos e que a probabilidade de cometer Erro Tipo I num
dado experimento é da ordem de  ;
 Os testes de Tukey e Scheffé controlam adequadamente as
taxas de erro por experimento e por comparação, preservando o
nível nominal de significância (  ).
Poder do Teste - é uma medida da capacidade do teste identificar todas as
diferenças reais entre todos os tratamentos; pode ser avaliado por simulações
(número de tratamentos variando de 5 a 100 e com valores das diferenças entre
médias fixadas, utilizando número de erros padrões). Perecin e Barbosa (1988)
apresentam os resultados seguintes:
 Dois erros padrões de diferença – testes Duncan, SNK e DMS com
22%, teste t – Bayesiano com 33% e teste Tukey com 1%;
 Seis ou mais erros padrões de diferença – resultado semelhante com
menor magnitude das diferenças entre os testes.
O teste de Tukey é fortemente afetado pelo número de tratamentos, ou seja,
quanto maior o número de tratamentos menor é o poder do teste.
Ambigüidade de Resultados – é um complicador nas interpretações e nas
decisões a serem tomadas com base nos testes. Por exemplo:

Linhagens Médias
1 14,65a
2 12,34ab
3 10,42b

Os resultados do teste indicam que: linhagem 1(T1) = linhagem 2 (T2), linhagem 2


(T2) = linhagem 3 (T3), no entanto, linhagem 1 (T1) ≠ linhagem 3 (T3). Essas três
proposições são inconcebíveis (problema da ambigüidade dos testes de
comparações de médias). Uma alternativa para solucionar este problema é o uso
do teste de Scott e Knott (1974), que apresenta taxas de erro Tipo I por
comparação, sempre abaixo do nível nominal de significância adotado, em
amplas situações experimentais.
Para definir e aplicar os procedimentos de comparação de médias é
necessário tomar por base um modelo estatístico. Considere, por exemplo, o
modelo Y       , i  1,2, , t e j  1, 2, , r sendo: Y : observação
ij i ij ij
referente ao i-ésimo tratamento na j-ésima repetição;  : média do experimento;
 : efeito do i-ésimo tratamento;  : erro experimental associado a Y , com
i ij ij
ij NID(0, 2 ) . Este modelo pode ser reparametrizado (reescrito de outra
forma), unindo  e  i , obtendo-se Yij  i  ij , em que: i é o valor médio do
i-ésimo tratamento. Um estimador não viesado da média de tratamento é dado
r
 Yij
por: ˆ  Y 
i i.
j 1
r
, cuja média (esperança) e variância são: E Yi.   e
i  
2

 
V Yi. 
r
. O estimador não viesado da variância de Y
i. é dado por:
Yi.  i
 
QM Re s
Vˆ Yi.  . Demonstra-se que a relação tem distribuição t de
r ˆ 
V Yi.
Student, com t (r  1) graus de liberdade para o resíduo. Então, o intervalo de
confiança para  , com coeficiente de confiança 1   é dado por:
i
IC :Y  t
(i ;1 ) i. [t (r 1)]
Vˆ Yi.   ou

QM Re s
IC :Y  t . Para comparar dois tratamentos (testar
(i ;1 ) i.  [t (r 1)] r
a hipótese H :     , i  i ) utiliza-se um estimador não viesado da diferença
0 i i
entre dois tratamentos (D), dado por: D  Y  Y , com E ( D)     e
i. i. i i
2 2 2QM Re s
V ( D)  , cujo estimador é Vˆ ( D)  . Então, tem-se o intervalo de
r r
confiança para as diferenças entre duas médias de tratamento dado por:
2QM Re s
IC :Dt Vˆ ( D) ou IC : Dt . As
( D;1 )  [t (r 1)] ( D;1 )  [t (r 1)] r
inferências com base nesses procedimentos têm duas limitações importantes:

1) O coeficiente de confiança 1   é garantido apenas para uma estimativa


(teste) particular e não para uma série de testes (estimativas);
2) O coeficiente de confiança 1   é garantido somente se a estimativa
(teste) não for sugerida pelos dados.
EXEMPLO DE APLICAÇÃO
Exemplo de aplicação dos testes de comparação de médias.
Suponhamos um experimento conduzido no delineamento inteiramente
casualizado, com as médias de tratamentos e análise de variância apresentados
a seguir.

QUADRO 33. Médias de tratamentos.

Tratamentos Médias
A 4,0
B 5,0
C 6,7
D 7,0
E 4,7
F 7,3

QUADRO 34. Análise de Variância (ANOVA).

F.V. S.Q. G.L. Q.M. F


Tratamento 29,11 5 5,82 3,88*
Resíduo 18,00 12 1,50
Total 47,11 17

Aplicar os principais testes de comparação de médias. Discutir.


Solução:
1) Teste t de Student
2 S 
2

Ŷ  0
V̂ ( Ŷ)   Ci   

t i1  r 
S ( Ŷ ) S ( Ŷ )  V̂ ( Ŷ )

Suponhamos que os contrastes (comparações) ortogonais planejados foram:


Ŷ1  X A  X B  4,0  5,0  1,0
Ŷ2  X C  X D  6,7  7,0  0,3
Ŷ3  X E  X F  4,7  7,3  2,6
Ŷ4  2 X D  X E  X A  2 (7,0)  4,7  4,0  5,3

  1,50 
V̂ ( Ŷ1 )  12  ( 1) 2    1,0
 3 

V̂ ( Ŷ2 )  1,0
V̂ ( Ŷ3 )  1,0

   1,50 
V̂ ( Ŷ4 )  2 2  ( 1) 2  ( 1) 2    3,0
 3 
 1,0
t1   1,0
1,0
 0,3
t2   0,3
1,0
 2,6
t3   2,6
1,0
5,3
t4   3,1
3,0

 1,0  t 0,05 (12)  2,18  Ŷ1  1,0 (ns)


 0,3  t 0,05 (12)  2,18  Ŷ2  0,3 (ns)
 2,6  t 0,05 (12)  2,18  Ŷ3  2,6 *
5,3  t 0,01 (12)  3,06  Ŷ4  5,3 * *

2) Teste de Tukey

q
S
q0,05 (6;12)  4,75
r
 1,50 
  ( 4,75)     ( 4,75)(0,71)  3,40
 3 
 
 5%  3,40  diferença mínima significativa de Tukey ao nível de 5% de
probabilidade.

Quadro de contrastes de médias de tratamentos.

F D C B E A
(7,3) (7,0) (6,7) (5,0) (4,7) (4,0)
F (7,3) 0,3ns 0,6ns 2,3ns 2,6ns 3,3ns
D (7,0) 0,3ns 2,0ns 2,3ns 3,0ns
C (6,7) 1,7ns 2,0ns 2,7ns
B (5,0) 0,3ns 1,0ns
E (4,7) 0,7ns
A (4,0)

Observe que o teste de Tukey não ocupou nenhum contraste significativo


entre duas médias de tratamentos, o que demonstra o grande rigor deste teste.
3) Teste de Duncan
S S QMRe s. 1,50
Di  Z i     0,71
r  r r 3

Comparadores de Duncan (0,05).


Médias Abrangidas 2 3 4 5 6
Zi 3,08 3,23 3,33 3,36 3,40
Di 2,19 2,29 2,36 2,39 2,41
(D2) (D3) (D4) (D5) (D6)
Quadro de contrastes de médias de tratamentos.

F D C B E A
(7,3) (7,0) (6,7) (5,0) (4,7) (4,0)
F (7,3) 0,3 (D2)ns 0,6 (D3)ns 2,3 (D4)ns 2,6 (D5)* 3,3 (D6)*
D (7,0) 0,3 (D2)ns 2,0 (D3)ns 2,3 (D4)ns 3,0 (D5)*
C (6,7) 1,7 (D2)ns 2,0 (D3)ns 2,7 (D4)*
B (5,0) 0,3 (D2)ns 1,0 (D3)ns
E (4,7) 0,7 (D2)ns
A (4,0)

Observe que o teste de Duncan apresentou quatro contrastes


significativos, o que demonstra a maior facilidade de discriminação deste
teste, ou seja, seu menor rigor.
Outra forma de expressar a significância é:
a) D 6  2,41   F  A  3,3 *
b) D5  2,39   F  E  2,6*; D  A  3,0 *
c) D 4  2,36  F  B  2,3 ns ; D  E  2,3 ns ; C  A  2,7 *
d) D 3  2,29  F  C  0,6 ;ns
D  B  2,0 ;ns
C  E  2,0 ns ; B  A  1,0 ns

Ainda outra forma de expressar a significância:

F (7,3) F (7,3) a F (7,3) a


D (7,0) D (7,0) a b D (7,0) a b
C (6,7) C (6,7) a b C (6,7) a b
B (5,0) B (5,0) a b c B (5,0) a b c
E (4,7) E (4,7) b c E (4,7) b c
A (4,0) A (4,0) c A (4,0) c

Observe que as médias seguidas de uma mesma letra ou unidas por uma
mesma barra não diferem estatisticamente entre si, ao nível de 5% de
probabilidade, pelo teste de Duncan.
4) Teste de SNK
S S
Wi  q i   0,71
r  r
Comparadores de S-N-K (0,05)

Médias Abrangidas 2 3 4 5 6
qi 3,08 3,77 4,20 4,51 4,75
Wi 2,19 2,68 2,98 3,20 3,37
(W 2) (W 3) (W 4) (W 5) (W 6)
Quadro de contrastes de médias de tratamentos.

F D C B E A
(7,3) (7,0) (6,7) (5,0) (4,7) (4,0)
F (7,3) 0,3 (W 2)ns 0,6 (W 3)ns 2,3 (W 4)ns 2,6 (W 5)ns 3,3 (W 6)ns
D (7,0) 0,3 (W 2)ns 2,0 (W 3)ns 2,3 (W 4)ns 3,0 (W 5)ns
C (6,7) 1,7 (W 2)ns 2,0 (W 3)ns 2,7 (W 4)ns
B (5,0) 0,3 (W 2)ns 1,0 (W 3)ns
E (4,7) 0,7 (W 2)ns
A (4,0)

Observe que nenhum contraste é significativo pelo teste de S-N-K, o que


demonstra um resultado semelhante ao obtido no teste de Tukey. Entretanto,
normalmente, o teste de S-N-K apresenta um resultado intermediário entre o
teste de Tukey e o teste de Duncan.
5) Teste de Scheffé
 n 2  QMRe s.

V̂ ( Ŷ )   Ci  
r
S  (I  1)  F  V̂ ( Ŷ)  i1 
F0,05 (5; 12)  3,11

Suponhamos o teste do contraste:


Ŷ  2m̂B  (m̂ A  m̂D )  2 (5,0)  ( 4  7)  1

   1,50 
V̂ ( Ŷ )  2 2  ( 1) 2  ( 1) 2    3,0
 3 
S  (6  1)(3,11)(3,0)  6,8

S 0,05  6,8  diferença mínima significativa de Scheffé, ao nível de 5% de


probabilidade. Como Ŷ  S , o contraste é dito ser não significativo, ao nível
de 5% de probabilidade, pelo teste de Scheffé.
6) Teste de Dunnett

S ( Ŷ )  V̂ ( Ŷ )
d'  t d  S ( Ŷ )  2 S
n 2
V̂ ( Ŷ)    Ci 
 i1  r
t d (0,05; 5; 12)  3,00


V̂ ( Ŷ )  12  ( 1) 2 
 1,50 
  1,0  S ( Ŷ )  1,0
 3 
d'  (3,00)(1,0)  3,00

d' 0,05  3,00  diferença mínima significativa de Dunnett, ao nível de 5% de


probabilidade.
Considerando o tratamento A como testemunha, tem-se:
B  A  1,0 ns
C  A  2,7 ns
D  A  3,0 *
E  A  0,7 ns
F  A  3,3 *

Observe que a testemunha diferiu apenas em relação aos tratamentos D


e F.
6.4 - Teste para Agrupamento de Médias

6.4.1 - Teste de Scott-Knott


Para alguns propósitos é desejável repartir os tratamentos em grupos
homogêneos, ao invés de fazer comparações múltiplas entre os mesmos. Um
método de agrupar as médias de tratamentos é a análise de agrupamento que
utiliza o teste de Scott-Knott para julgar a significância das diferenças entre os
grupos resultantes.
O procedimento para a aplicação do teste de Scott-Knott é o seguinte:
1º) Relacionam-se as t médias de tratamentos em ordem crescente;
2º) Aplicar o teste estatístico para verificar se o conjunto de médias de
tratamentos pode ser particionado em dois conjuntos homogêneos. A
estatística a ser calculada é dada por

   B 0 / 2ˆ 0 (   2) ,
2
 onde
  3,14159

B 0  valor máximo das somas de quadrados entre os grupos, tomadas sobre


todas as possíveis partições dos t tratamentos em dois grupos.
0 
2
 (X X )
i. ..
2
 vS X
2
 / (t  v )
Xi.  média do tratamento de ordem i;
t  número de médias de tratamento a serem separadas;
S X  variância das médias de tratamentos (QMRes/r), com
2

v  graus de liberdade (g.l.) do quadrado médio do resíduo;


r  número de observações para o cálculo de cada média.
3º) Admite-se que a distribuição nula de  (distribuição de  considerando a
hipótese nula) é aproximada por uma distribuição  2 com v0 g.l., onde
v 0  t /(   2)

4º) A decisão estatística é que se o  calculado é menor que o valor  2 v 0


tabelado correspondente a um nível de significância escolhido, todo o
conjunto de médias é considerado como sendo homogêneo e nenhum teste
posterior é permitido. Conseqüentemente, se o valor calculado de  excede o
valor de  2 v 0 tabelado correspondente, os dois grupos são declarados como
significativamente diferentes.
5º) Em seguida, os dois grupos, declarados significativamente diferentes, são
então testados separadamente para partições posteriores, e, o teste continua
como um processo de formação de galhos de uma árvore até que grupos de
uma única média ou grupos de médias homogêneas (ou ambos) são
encontrados.
A vantagem do teste de Scott-Knott, quando comparado com os teste
de comparações de médias, é que ele sempre produz a separação de grupos
sem sobreposição de médias, o que pode ser altamente desejável em
algumas situações.
A desvantagem é que os cálculos são mais complexos do que os
métodos de comparação de médias, mas isto pode ser superado pelo uso de
computadores.
Desta forma, recomendamos a utilização do teste de Scott-Knott, em
situações onde o pesquisador prefere identificar conjuntos de tratamentos
homogêneos, sem nenhuma sobreposição, o que simplifica a interpretação e
a apresentação dos resultados.

EXEMPLO DE APLICAÇÃO
Foi conduzido um experimento em seis blocos casualizados com sete
variedades de cevada. As médias de variedades foram 49,6; 58,1; 61,0; 61,5;
67,6; 71,2 e 71,3. A análise de variância fornece um valor F de 4,61 , para 30
graus de liberdade, o que sugere fortemente que há diferenças entre as médias.
Particione o conjunto de médias em grupos homogêneos.
Solução:

Médias Ordenadas Totais de Tratamento


1) 49,6 297,6
2) 58,1 348,6
3) 61,0 366,0
4) 61,5 269,0
5) 67,6 405,6
6) 71,2 427,2
7) 71,3 427,8
62,9  X .. 2641,80  Y..

QMTrat
QM Re s 
F
( Y.. ) 2
C  t  7; r  6
t r
(2641,8) 2
C  166169,22
(7)( 6)
(297,6) 2  (348,6) 2    ( 427,8) 2
SQTrat   C  2202,24
6
SQTrat 2202,24
QMTrat    367,040
G.L.Trat 6
QMTrat 367,040
QM Re s    79,6182
F 4,61
S 2 QM Re s 79,6182
SX     13,2697
2

r r 6
A estatística do teste é dada por

   B 0 / 2 ˆ 0 (   2)
2

B 0  valor máximo das somas de quadrados entre grupos tomadas
sobre todas as possíveis partições em dois grupos, que é determinado da forma
seguinte:

Partições Possíveis Valores de S.Q.


Em dois Grupos Entre Grupos
1) 1 / 234567 206,37
2) 12 / 34567 229,33
3) 123 / 4567 233,33
4) 1234 / 567 267,14
5) 12345 / 67 195,22
6) 123456 / 7 82,32

F.C.  ( 49,6  58,1    71,3) 2 / 7  27694,87


SQE  G1  ( 49,6) 2  (58,1  61,0    71,3) 2 / 6  F.C.  206,37
SQE  G 2  ( 49,6  58,1) 2 / 2  (61,0  61,5    71,3) 2 / 5  F.C.  229,33
SQE  G 3  ( 49,6  58,1  61,0) 2 / 3  (61,5  67,6    71,3) 2 / 4  F.C.  233,33
SQE  G 4  ( 49,6  58,1  61,0  61,5) 2 / 4  (67,6  71,2  71,3) 2 / 3  F.C.  267,14
SQE  G 5  ( 49,6  58,1  61,0  61,5  67,6) 2 / 5  (71,2  71,3) 2 / 2  F.C.  195,22
SQE  G 6  ( 49,6  58,1    71,2) 2 / 6  (71,3) 2  F.C.  82,32
Logo temos que B 0  267,14 .

ˆ 0  estimativa de máxima verossimilhança de  2 , que é dada por


2

ˆ 0 
2
 (X i.  X.. ) 2  vS X
2
 / (t  v ) v  nº g.l. resíduo

 (X i.  X.. ) 2  ( 49,6  62,9) 2  (58,1  62,9) 2    (71,3  62,9) 2  367,04


ˆ 0   367,04  (30)(13,2697)  / (7  30)  20,67922
2

Logo vem que



   B0 / 2 ˆ 0 (   2)
2

  (3,14159)(267,14) /  2(20,679)(1,14159) 
  17,775
 vo
2
 vo  t / (  2)  7 / 1,14159  6,13  6
  5% é 12,6
6
2
para 
  1% é 16,8

  17,78   6 (  1%)  16,8  os dois grupos 1234 / 567 são significativa-


2

mente diferentes, ao nível de probabilidade de 1%. Então temos o seguinte:

1234
1234567   17,78
567

Em seguida testamos os dois grupos separadamente, de forma análoga.


Senão, vejamos:

Partições Possíveis Valores de S.Q.


Em dois Grupos Entre Grupos
1) 1 / 234 84,27
2) 12 / 34 54,76
3) 123 / 4 20,80

X..  57,6
F.C.  ( 49,6  58,1  61,0  61,5) 2 / 4  13248,01
SQE  G1  ( 49,6) 2  (58,1  61,0  61,5) 2 / 3  F.C.  84,27
SQE  G 2  ( 49,6  58,1) 2 / 2  (61,0  61,5) 2 / 2  F.C.  54,76
SQE  G 3  ( 49,6  58,1  61,0) 2 / 3  (61,5) 2  F.C.  20,80

Logo temos que B 0  84,27

 (X i.  X .. ) 2  ( 49,6  57,6) 2  (58,1  57,6) 2  (61,0  57,6) 2  (61,5  57,6) 2

 (X i.  X .. ) 2  91,02
ˆ 0   91,02  (30)(13,2697)  / ( 4  30)  14,38503
2

  (3,14159)(84,27) /  2 (14,38503)(1,14159)   8,0638


 vo
2
 vo  4 / 1,14159  3,50  3
 3 (  5%)  7,81
2

  8,06   3 (   5%)  7,81  os dois grupos 1 / 234 são significativamente


2

diferentes, ao nível de probabilidade de 5%. Logo temos que:

1
1234   8,06
1234567   17,78 234
567

Para o outro grupo temos:


Partições Possíveis Valores de S.Q.
Em dois Grupos Entre Grupos
1) 5 / 67 8,88
2) 56 / 7 2,41

X ..  70,0
F.C.  (67,6  71,2  71,3) 2 / 3  14714,003
SQE  G1  (67,6) 2  (71,2  71,3) 2 / 2  F.C.  8,88
SQE  G 2  (67,6  71,2) 2 / 2  (71,3) 2  F.C.  2,41

Logo B 0  8,88

 (X i.  X.. ) 2  (67,6  70,0) 2  (71,2  70,0) 2  (71,3  70,0) 2  8,89


ˆ 0   8,89  (30)(13,2697)  / (3  30)  12,33276
2

  (3,14159)(8,88) /  2 (12,33276)(1,14159)   0,9907

 vo
2
 vo  3 / 1,14159  2,63  3
 3 (  5%)  7,81
2
  0,99   3 (  5%)  7,81  os dois grupos não são significativamente
2

diferentes, ao nível de probabilidade de 5%.


Finalmente temos a análise de agrupamento com o resultado seguinte:

1
1234   8,06
1234567   17,78 234
567

CAPÍTULO VII

DIAGNÓSTICOS E MEDIDAS CORRETIVAS EM ANÁLISE DE VARIÂNCIA

7.1. Modelos Lineares para Análise de Variância

Introdução:
Os modelos de análise de variância são ferramentas estatísticas versáteis
para o estudo da relação entre uma variável dependente (variável resposta ou
característica avaliada) e uma ou mais variáveis independentes (fatores). Estes
modelos não requerem que se façam pressuposições sobre a natureza da relação
estatística entre os dois tipos de variáveis e também não requerem que as
variáveis independentes sejam quantitativas, como no caso da análise de
regressão.
Os modelos de análise de variância são úteis tanto para dados de estudos
observacionais quanto experimentais. Nas pesquisas experimentais a variável
independente (fator) de interesse é controlada pelo pesquisador, enquanto que
nas pesquisas observacionais os dados são obtidos sem o controle da variável
independente.
O fator é uma variável independente a ser estudada numa pesquisa. O
nível de um fator é uma forma particular deste fator. Por exemplo, cultivares de
milho e doses de fósforo são fatores. Cada uma das variedades ou das doses de
fósforo é um nível destes fatores. Algumas pesquisas envolvem apenas um fator
e outras dois ou mais fatores.
Um fator qualitativo é aquele em que os níveis diferem por algum atributo
qualitativo. Por exemplo, cultivares de milho, fontes de fósforo, tipos de pesticidas,
dentre outros. Um fator quantitativo é aquele em que cada nível é descrito por
uma quantidade numérica numa determinada escala. Por exemplo, doses de
fósforo, doses de pesticidas, temperaturas, tempos, dentre outros.
Nas pesquisas observacionais os fatores sob estudo são fatores
classificação. O fator classificação pertence à característica das unidades de
estudo e não está sob controle do pesquisador, ou seja, não são manipulados
experimentalmente. O fator experimental é aquele em que os níveis são
distribuídos nas unidades experimentais ao acaso. Deve ser salientado que dados
experimentais fornecem bases mais firmes para conclusões do que dados
observacionais.
Nos estudos com um único fator, um tratamento corresponde a um nível do
fator. Nos estudos com múltiplos fatores, um tratamento corresponde a uma
combinação de níveis dos fatores. A definição e a escolha dos tratamentos a
serem incluídos num estudo é basicamente um assunto decidido pelo
pesquisador. O uso de tratamento controle (testemunha) pode ser necessário em
alguns experimentos.
Outro aspecto importante, tanto nos estudos observacionais (levantamento
de dados por amostragem) quanto experimentais (por experimentos) é a definição
da unidade básica de estudo (unidade amostral ou experimental).
Frequentemente, considerações técnicas ditam a escolha do tamanho da unidade
de estudo. A representatividade das unidades é outro aspecto importante no
delineamento de estudos que envolvam análise de variância.

Modelos para Análise de Variância Univariada:

Os modelos de análise de variância univariada são usados basicamente


para analisar o (s) efeito (s) da (s) variável (eis) independente (s) ou fator (es) em
estudo sobre uma variável dependente ou resposta. Especificamente, estudos
com um fator são utilizados para avaliar os efeitos de diferentes níveis de um
fator. Nos estudos com múltiplos fatores, os modelos são empregados para
avaliar se os diferentes fatores interagem, quais fatores são importantes e quais
são as melhores combinações dos fatores.
O modelo I de análise de variância (níveis fixos do fator) aplica-se a
casos como a comparação de determinado número de variedades de milho ou de
doses de nitrogênio, em que as inferências (conclusões) se limitarão apenas a
estes níveis do fator incluídos no estudo. O modelo II de análise de variância
(níveis aleatórios do fator) aplica-se a uma situação em que as inferências
poderão ser extrapoladas para uma população de níveis do fator, da qual os
níveis em estudo constituem uma amostra aleatória.
Desta forma, a diferença essencial entre situações em que o modelo I ou o
modelo II são aplicáveis é que o modelo I é adequado quando os níveis do fator
são escolhidos em função de um interesse específico neles (por exemplo, 15
variedades de milho ou 5 doses de nitrogênio de interesse do pesquisador) e eles
não são considerados uma amostra de uma população de níveis. Já o modelo II
é apropriado quando os níveis do fator constituem uma amostra retirada de uma
população de níveis (por exemplo, 100 linhagens de milho amostradas de uma
população de 5000 linhagens ou 50 amostras de solo retiradas de uma população
de 2000 amostras) e o interesse do pesquisador é na população.
O modelo I de análise de variância com um fator pode ser escrito
inicialmente como a seguir:

Yij  i  ij , em que:


Yij : valor da variável dependente (resposta) na j-ésima repetição para o i-
ésimo nível do fator (tratamento);
 : parâmetros do modelo;
i
ij : termos erros, admitidos aleatórios, independentes e N (0, σ2), sendo i
= 1, 2, ..., f e j = 1, 2, ..., ni , em que:
f: número de níveis do fator;
ni: número de observações (medições) para cada nível do fator.
Este modelo pode ser usado para dados de estudos observacionais ou estudos
experimentais baseados num delineamento inteiramente casualizado.
Características importantes do modelo:

1) O valor observado de Y na j-ésima repetição para o i-ésimo nível do


fator é a soma de dois componentes: (a) um termo constante  e (b)
i
um termo aleatório  ;
ij
2) Uma vez que E (  ) = 0, segue que E ( Y ) =
ij ij i . Assim, todas as
observações para o i-ésimo nível dofator têm a mesma esperança  ;
i
3) Uma vez que i é uma constante, segue que  2 (Yij )   2 (ij )   2 .
Assim, todas as observações têm a mesma variância, indiferentemente
do nível do fator;
4) Uma vez que cada  é normalmente distribuído, assim também o é
ij
cada Y . Isto procede porque Y
ij ij é uma função linear de ij , dado que
i é uma constante;
5) Os termos erros são assumidos como sendo independentes. Portanto,
o erro proveniente de qualquer repetição não tem qualquer influência
sobre o erro advindo de outra repetição, para o mesmo nível do fator
ou para níveis diferentes do fator. Uma vez que os  são
ij
independentes, assim também são as observações Y ;
ij
6) Em vista das características descritas anteriormente, o modelo inicial
pode ser reescrito como a seguir: Y são independentes com N
ij
(  ,  2 ).
i

Interpretação de Médias dos Níveis do Fator:

Num estudo observacional, as médias dos níveis do fator, i ,


correspondem às médias para diferentes populações de níveis do fator. Por
exemplo, num levantamento de insetos praga em três condições ambientais, as
médias µ1, µ2 e µ3 são do número médio de insetos em cada ambiente. A
variância, σ2, refere-se à variabilidade do número de insetos dentro de cada
ambiente.
Num estudo experimental, a média do nível do fator, i , indica a resposta
média (resposta esperada) que seria obtida se o i-ésimo nível (tratamento) fosse
aplicado a todas as unidades na população de unidades experimentais sobre as
quais as inferências estão sendo feitas. Similarmente, a variância  2 refere-se à
variabilidade de respostas se qualquer nível experimental fosse aplicado a toda
população de unidades experimentais.
Vale salientar que o modelo I de análise de variância, como qualquer outro
modelo estatístico, evidentemente, não representa exatamente uma situação real.
Entretanto, ele poderá adequar-se aproximadamente em muitas situações. Os
procedimentos estatísticos baseados no modelo I são muito robustos, de forma
que mesmo se as condições reais sob estudo diferem substancialmente daquelas
pressupostas no modelo, ainda assim a análise estatística pode ser uma
abordagem apropriada.

Ajuste de Modelos de Análise de Variância:

Os parâmetros do modelo Y    
ij i ij são ordinariamente desconhecidos
e, portanto devem ser estimados à partir de dados amostrais. Usa-se o método de
quadrados mínimos para ajustar o modelo e obter os estimadores dos
parâmetros. Geralmente a notação utilizada é a seguinte: o total das observações
ni
para o i-ésimo nível do fator é denotado por Yi. e seu estimador é Y   Y ,
i. j 1 ij
em que: n é o número de observações do i-ésimo nível do fator. A média
i
ni
 Yij
j 1
amostral do i-ésimo nível do fator é denotado por Y  . O total de todas
i.
ni
f ni
as observações é denotado por Y.. , cujo estimador é Y..    Y . A média
i1 j 1 ij
f ni
 Y
i1 j 1 ij Y..
geral de todas as observações é denotada por Y..   , em que:
n n
T T
f
n   ni : número total de observações, em que: f é o número de fatores.
T i1

Estimadores de Quadrados Mínimos:

Segundo o critério de quadrados mínimos, a soma dos quadrados dos


desvios das observções em torno do valor esperado deve ser minimizada para os
parâmetros a serem estimados. Para o modelo de análise de variância tem-se
que E (Y )   . Portanto, a quantidade a ser minimizada
ij i
f ni
é Q    (Y   )2 . Essa expressão pode ser escrita como a seguir:
i1 j 1 ij i
ni ni ni
Q   (Y   )2   (Y2 j  2 )2    (Y   )2 . Note que cada
j 1 1 j 1 j 1 j 1 fj f
parâmetro aparece apenas em cada um dos componentes da expressão anterior.
Portanto, Q pode ser minimizado por meio da minimização de cada componente
separadamente. Sabe-se que a média amostral minimiza a soma de quadrados
de desvios. Portanto, o estimador de quadrados mínimos de µi , denotado por
ˆ é dado por ˆ  Y . Assim, o valor ajustado para a observação Yij, denotado
i i i.
por Ŷ , é simplesmente a média amostral do nível correspondente do fator, ou
ij
seja, Yˆ  Y . Para derivar o estimador de quadrados mínimos de µi , é
ij i.
necessário minimizar em relação a µi a i-ésima soma de quadrados componente
ni
da equação de Q, ou seja, Q   (Y   )2 .
i j 1 ij i
dQi ni
Diferenciando Qi em relação a µi, obtém-se:   2(Yij  i ) .
d i j 1
Quando se faz esta derivada igual a zero e substitui-se o parâmetro µi pelo seu
estimador de quadrados mínimos ˆ , obtém-se o resultado seguinte:
i
ni ni
2  (Yij  ˆi )  0 . Então se tem  Yij  ni ˆi e ˆi  Yi. .
j 1 j 1

Erros ou Resíduos:

Os erros (resíduos) são altamente úteis para examinar a adequabilidade


(validade) do modelo de análise de variância. O erro (resíduo) eij é definido como
a diferença entre os valores observados e os valores ajustados, ou seja,
eij  Yij  Yˆij  Yij  Yi. . Desta forma, um erro neste caso representa o desvio de
uma observação em relação à respectiva média estimada do nível do fator. Uma
propriedade importante dos resíduos para o modelo de análise de variância é que
ni
eles somam zero para cada nível i do fator, ou seja,  e  0 , j = 1, 2, ..., ni .
j 1 ij

Modelo I para Análise de Variância:

Neste modelo de análise de variância é assumido que as diferenças entre


as médias dos grupos (tratamentos), se existirem alguma, são dividas a efeitos
fixos de tratamentos, determinados pelo pesquisador. O propósito da análise de
variância é estimar as verdadeiras diferenças entre as médias dos grupos.
Qualquer variável resposta, em relação a um único fator, pode ser decomposta
como a seguir: Y       (i = 1, 2, ..., t; j = 1, 2, ..., r), em que:
ij i ij
ij representa uma variável independente, normalmente distribuída, com média
ij  0 e variância  2   2 . Portanto, uma determinada observação é composta
da média geral da população,  , de um desvio fixo i da média do grupo i em
relação à média geral  e de um desvio aleatório ij do j-ésimo indivíduo do
grupo i em relação a sua esperança (valor esperado) que é (    ). O valor
i
esperado (média) dos ijs é zero e sua variância é a variância paramétrica da
população,  2 . Para que todas as pressuposições da análise de variância sejam
atendidas, a distribuição de  deve ser normal.
ij

Modelo II para Análise de Variância:

A estrutura de variação deste modelo é similar à do Modelo I, ou seja,


Y    A   (i = 1, 2, ..., t; j = 1, 2, ..., r), em que:  representa uma
ij i ij ij
variável independente, normalmente distribuída, com média ij  0 e variância
 2   2 ; e Ai representa uma variável normalmente distribuída, independente
de todos os  s , com média A  0 e variância  2 . A principal distinção em
ij A
relação ao Modelo I é que neste modelo, em lugar de efeitos fixos de tratamentos,
 , aqui se considera efeitos aleatórios A , que diferem de grupo para grupo.
i i
Uma vez que os efeitos são aleatórios é inútil estimar as magnitudes destes
efeitos para qualquer um dos grupos, ou para as diferenças entre os grupos, mas
pode-se estimar a sua variância, ou seja, o componente de variância adicional
entre grupos, 2 . Testa-se para a presença desse componente de variância e
A
estima-se sua magnitude, S 2 , bem como sua contribuição percentual para a
A
variação total, num Modelo II de análise de variância.
Às vezes é difícil distinguir se num determinado estudo deve ser adotado
um Modelo I ou Modelo II de análise de variância. A distinção depende não da
natureza do fator que diferencia os grupos (tratamentos) estudados, mas se os
níveis do fator (tratamentos) podem ser considerados uma amostra aleatória de
uma quantidade maior de níveis, ou são tratamentos fixos cujas diferenças o
pesquisador deseja contrastar. Por exemplo, o fator épocas pode ser
simplesmente um tipo de repetição do experimento, o que o caracterizaria como
fator aleatório. Por outro lado, pode-se estar interessado em épocas específicas,
devido a eventos que ocorreram nestas épocas, o que tornaria épocas um fator
fixo.

Exemplo de Modelo I em Análise de Variância (Extraído de Sokal e Rohlf,


1995):

Os dados no Quadro 1, obtidos de um experimento na área de Fisiologia


Vegetal, contém o comprimento (em unidades codificadas) de seções de ervilha
cultivadas em cultura de tecidos na presença de auxina. O propósito do
experimento foi testar os efeitos de vários açúcares sobre o crescimento (medido
pelo comprimento). Foram usados quatro grupos experimentais (tratamentos),
representando três diferentes açúcares e uma mistura de açúcares, mais um
controle sem açúcar. Foram feitas dez observações (repetições) para cada
tratamento. Obviamente que os cinco grupos estudados não representam
amostras aleatórias de todas as possíveis condições experimentais, mas foram
deliberadamente designados para testar os efeitos de alguns açúcares no
crescimento de tecidos de ervilha.

Quadro 1. Dados referentes ao efeito de diferentes açúcares no crescimento, em


unidades oculares (x 0,114 = mm), de seções de ervilha cultivada em cultura de
tecidos na presença de auxina

Tratamentos (t = 5)
Repetições
_______________________________________________________
Controle 2% Glicose 2% Frutose 1% Glicose 2%
Sacarose
(r = 10) (sem açúcar) + 1% Frutose
1 75 57 58 58 62
2 67 58 61 59 66
3 70 60 56 58 65
4 75 59 58 61 63
5 65 62 57 57 64
6 71 60 56 56 62
7 67 60 61 58 65
8 67 57 60 57 65
9 76 59 57 57 62
10 68 61 58 59 67
r
Yi.   Yij 701 593 582 580 641
j 1
Yi. 70,1 59,3 58,2 58,0 64,1

Cálculos preliminares:

1 t r 1
1. Média Geral = Y..    Yij  (701  593   641)  61,94 ;
tr i1 j 1 5x10
t
2. Soma de Quadrados Entre Grupos, SQ  r  (Yi.  Y..)2  1077,32 ;
Entre i1
3. Soma de Quadrados Dentro de Grupos,
t r t r
SQ    y 2    (Yij  Yi.)2  245,50 ;
Dentro i1 j 1 i1 j 1
Soma de Quadrados Total,
SQ  SQ  SQ  1077,32  245,50  1322,82 .
Total Entre Dentro
Quadro 2. Análise de Variância: equações

Fonte de QM
Variaçao gl SQ QM F Esperado
Entre t -1 SQ2 SQ 2 QM r t
Entre 2 
Grupos t 1 QM t 1 i1 i
SQ3 Dentro
Dentro de t (r-1) SQ4 SQ3
Grupos
t (r  1)
Total tr - 1

Quadro 3. Análise de Variância: valores

Fonte de
Variação gl SQ QM F
Entre
Tratamentos 4 1077,32 269,33 49,33***
Dentro de
Tratamentos 45 245,50 5,46
(Erro)
Total 49 1322,82

F0,05 (4; 45) = 2,58 F0,01 (4; 45) = 3,77 F0,001 (4; 45) = 5,57

Conclusões: Uma vez que p < 0,001, existe um componente quadrático


adicional altamente significativo, devido aos efeitos de tratamentos, no quadrado
médio entre grupos (tratamentos). Os diferentes tratamentos de açúcar
claramente têm um efeito significativo no crescimento das secções de ervilha. A
complementação da análise de variância é feita pela determinação de quais
médias são significantemente diferentes umas das outras.

Exemplo de Modelo II em Análise de Variância (Extraído de Snedecor e


Cochran, 1996):
Como exemplo de modelo II, os dados para cálcio no Quadro 4 são
provenientes de um experimento maior sobre a precisão de estimação do
conteúdo químico de nabo. Para este exemplo, foram utilizados apenas os dados
para n = 4 determinações em cada uma das a = 4 folhas provenientes de uma
única planta. Nesse caso o interesse da pesquisa é a avaliação do conteúdo
químico de uma população de nabo.

Quadro 4. Concentração de cálcio (% massa seca) em folhas de nabo

Folha % Cálcio Soma Média


1 3,28 3,09 3,03 3,03 12,43 3,11
2 3,52 3,48 3,38 3,38 13,76 3,44
3 2,88 2,80 2,81 2,76 11,25 2,81
4 3,34 3,38 3,23 3,26 13,21 3,30
FV GL QM E (QM)
Entre Folhas 3 0,2961  2  4 2
A
Determinações 12 0,0066 2
Na análise de variância (Quadro 4), S 2 = 0,0066 estima 2 e o quadrado médio
entre folhas, S 2  0,2691 , é uma estimativa não viesada de
L
 2  n 2   2  4 2 .
A A
Conseqüentemente, uma estimativa não viesada de
A A L 
 2 é S2  S2  S2 / 4 = 
(0,2961 – 0,0066) / 4 = 0,0724. A quantidade  2 é chamada de componente de
A
variância para concentração de cálcio em folhas de nabo. O valor F =
0,2961/0,0066 = 44,9 (significativo, p < 0,001, com 3 e 12 gl) é uma estimativa de

 2  4 2A  / 2 .
Considere agora as seguintes questões: (1) Com que precisão o conteúdo
médio de cálcio foi estimado? (2) Ele pode ser estimado mais economicamente?
Com n determinações para cada uma das a folhas, a média amostral Y.. é, com
base no Quadro 4, para o modelo II,
Y..    A.  .. , em que: A. : é a média de a valores independentes de
Ai (um para cada folha); ..: é a média de a x n independentes ij . Portanto, Y..
como uma estimativa de , tem variância dada por
 2  2  2  n 2  2  4 2
S  V Y..   A 
2  A A . Na análise de variância, o
Y.. a an an (4)(4)
quadrado médio entre folhas, 0,2961, é uma estimativa não viesada de
 2  4 2 . Portanto, Vˆ Y..   0,2961/16  0,0185 . Este resultado é importante
A
devido aos seguintes fatos: A variância da média amostral estimada é o quadrado
médio entre classes (folhas) dividido pelo número total de observações. Na
obtenção deste quadrado médio é considerada tanto a variação de folha para
folha, com variância  2 , quanto o erro de medição de uma única folha, com
A
variância  2 .
Suponha que o experimento seja redesenhado, mudando n e a para n e
a . Com base no Quadro 4, tem-se que a variância de Y.. torna-se
 2  2 0,0724 0,0066
S   V  Y..   A 
2   . Uma vez que o maior numerador é
Y.. a an a an
0,0724, parece claro que a deveria ser aumentado e n diminuído, se isto for
possível sem aumentar o custo total do experimento. Se uma determinação custa
10 vezes mais que uma folha, o custo dos dados seria (10)(16) + 4 = 164
unidades. A escolha de n = 1 e a = 15 terá um custo de (10)(15) + 15 = 165
unidades, quase a mesma dos dados originais. Para este novo delineamento a

 
estimativa da variância de Y.. é Vˆ  Y.. 
0,0724 0,0066
15

15
 0,0053 . A mudança
reduz a variância da média de 0,0185 para 0,0053, isto é, para menos de um
terço, porque o custo das determinações, que são mais caras e com pequena
variabilidade, tinha sido utilizado para amostrar mais folhas, cuja variação é maior.
Em algumas aplicações, como neste exemplo, o custo de selecionar a
unidades de uma população ao acaso e de fazer n medições independentes em
cada unidade é da forma C  caa  can . Aqui, c é o custo de uma única
medição na unidade ou numa sub-amostra dela, enquanto ca é o custo de
selecionar uma unidade. Se a variância da média amostral Y.. é como dada por

2  2  n 2
S  A , pode ser mostrado que esta variância é minimizada para dado
Y.. an
custo total quando n  (ca 2 ) /(c 2 )  [(1/10)(0,0066)]/(0,0724)  0,1 .
A
Uma vez que n deve ser um inteiro, essa equação mostra que n = 1, ou seja,
uma medição em cada amostra foliar, é a melhor escolha no exemplo sob análise.

Correlação Intraclasse:

Quando o componente  2  0 , tem sido observado que membros da


A
mesma classe tendem a comportar de forma algo semelhante. Para descrever
esta propriedade, uma forma alternativa do modelo II supõe que as observações
Y são todas distribuídas em torno da mesma média com a mesma variância
ij
 I2 , mas que quaisquer dois membros da mesma classe têm entre si um
coeficiente de correlação I , chamado de coeficiente de correlação
intraclasse. Dois membros em classes diferentes são não-correlacionados.
Os valores esperados dos quadrados médios na análise de variância, sob
as duas formas de modelo II, são mostrados no Quadro 5.

Quadro 5. Valores Esperados de Quadrados Médios

Fontes Variação Quadrado Médio (QM) Valor Esperado do QM


Entre Classes Se2  I2 1  n 1 I    2  n 2
A
Dentro Classes S2  S2
d  
 I2 1 I   2

A razão dos valores esperados pode ser expressa tanto como

 I 
1  n 1   1 
Iou como 1  n 2
A
 2 , na notação precedente.

Igualando-se estas expressões se encontrará que I   2


A 
 2   2 . Este
A 
resultado poderia ter sido obtido observando que com Y  A   , a covariância
ij i ij
2
ij ik (dois membros da mesma classe) é  A , enquanto cada um tem
de Y , Y

A A A 
variância  2   2 . Portanto, a correlação entre eles é  2  2   2   .
I 
Desta forma, a correlação intraclasse é a proporção da variância total de uma
observação que está associada com a classe a qual ela pertence. Esta forma de
modelo II é apropriada quando o interesse principal é na magnitude de I , como
uma medida de homogeneidade (repetibilidade) da classe ou em questões tais
como: A correlação intrafamília é maior para algumas variáveis do que para
outras ou maior em alguns locais do que em outros?
Além disso, esta forma de modelo II é mais geral que o modelo de
componentes de variância. Note que, se Se2 tem um valor esperado menor que

S 2 , então I é negativo. Com Yij  Ai  ij , onde os dois termos são


independentes, isto não pode ocorrer. Uma restrição para valores negativos de
 é que  não pode ser menor que 1  n 1 porque o valor esperado de
I I
Se2 deve ser maior ou igual à zero. Com base na análise de variância está claro

 
que Se2  S 2 estima n   2 , enquanto que  Se2   n 1 S 2  estima n 2 . Isto
I I   I
sugere que como uma estimativa de I pode-se tomar


r  Se2  S 2
I   S 2  n 1 S 2  .
 e
  

Intervalo de Confiança para Componentes de Variância:

Os limites de confiança mais frequentemente procurados parece ser


aqueles para
A I A A  
 2  2 ou para    2  2   2 . Se as observações estão
normalmente distribuídas, os limites podem ser obtidos por meio da distribuição F.
Seja Fo  Se2 S 2 a razão amostral do quadrado médio entre classes para o
quadrado médio dentro de classe. Uma vez que Fo é distribuído como

 
F 1  n 2  2 , então desconsiderando uma chance em vinte,
A
F
0,975 
1 n 2  2  Fo  F
A 0,025  A 
1 n 2  2 , em que F
0,975
e F 
0,025
são, respectivamente, os níveis 2,5% inferior e superior unilateral de F, com
  (a 1) e   a(n 1) graus de liberdade (gl). Além disso,
1 2
( , )  1F 
F
0,975 1 2  0,025 (2 ,1)  e, portanto, podem ser obtidos na Tabela F.
Expresse a desigualdade anterior em termos de desigualdade em torno de
2 2. Obtém-se então, desconsiderando uma chance em vinte,
A
1 n   Fo F0,025 1   2A  2  1 n   Fo F0,975 1 . Essa expressão
   
fornece os limites de confiança 95% para 2 2.
A
Se I e  são os limites de confiança para  2  2 , então os limites
S A
para I   2
A  2A  2  com a mesma probabilidade de confiança são

I (1 I ) e  (1  ) .
S S
7.2. Componentes de Variância

Fatores fixos e aleatórios e componentes de variância

Por exemplo, se os níveis do fator temperatura forem considerados como fixo,


então, admite-se que os níveis de temperatura utilizados são os únicos de
interesse para a pesquisa. O modelo empregado para níveis fixos é chamado de
modelo fixo. Quando os níveis de um fator são aleatórios, tais como lotes de
sementes, operadores de máquinas, amostras de solo, linhagens de soja, onde os
níveis no experimento tenham sido escolhidos ao acaso (aleatório) de um grande
número de níveis possíveis, o modelo é chamado de modelo aleatório, e as
inferências poderão ser estendidas a todos os níveis da população.

Então, um nível fixo de um fator ou variável significa que os níveis no


experimento são os únicos níveis de interesse.

No caso do uso de um modelo aleatório, o pesquisador frequentemente está


interessado na estimação de componentes de variância. A seguir será
considerado um exemplo que analisa e interpreta um componente de variância ou
modelo aleatório.

Então, níveis aleatórios são escolhidos ao acaso de um conjunto grande ou


infinito de níveis.

Exemplo de Componente de Variância para Fatores Aleatórios

Os dados para o exemplo são: Considere uma empresa de sementes que


abastece uma revendedora com um grande número de lotes de sementes. A
revendedora faz determinações em três amostras de cada cinco lotes
selecionados aleatoriamente, para controlar a qualidade das sementes recebidas.
O modelo para análise dos dados obtidos é:

Yij     i  ij , com i  1,2, , k , em que

os k níveis (no exemplo, os lotes) são escolhidos ao acaso (aleatório) de

uma população com variância 2 . Os dados são apresentados a seguir:

Lotes
1 2 3 4 5
74 68 75 72 79
76 71 77 74 81
75 72 77 73 79

Uma análise de variância 1-critério é realizada nos dados. O quadro de Análise


de Variância para o exemplo é o seguinte:
Fonte SQ GL QM E (QM)
Lotes 147,74 4 36,935  2  32
Resíduo 17,99 10 1,799  2
Total 165,73 14

A interpretação do quadro de Análise de Variância é como a seguir: as


computações que produzem as SQ são as mesmas, tanto para modelo efeitos
fixos quanto para modelo efeitos aleatórios. Entretanto, para o modelo aleatório, a
soma de quadrados de tratamento (lotes) é uma estimativa de  2  32 . Isto é
mostrado na coluna Esperança de Quadrados Médios [E (QM)] do quadro de
Análise de Variância. A estatística F = 36,94 / 1,80 = 20,5 > F0,05 (4;10) = 5,99.

Método de Momentos: uma vez que a estatística do teste é maior que o valor
crítico, rejeita-se a hipótese de médias iguais para lotes. Uma vez que estes lotes
foram escolhidos por meio de um processo de seleção aleatória, pode-se estar
interessado em encontrar quanto da variância no experimento pode ser atribuída
às diferenças entre lotes e quanto a erro aleatório. A estimativa da variância
devida a erro (resíduo),  2 , é 1,80 e o quadrado médio de lote computado 36,94
é uma estimativa de  2  32 . Estabelecendo a igualdade entre os valores de
QM e os valores de E (QM), o que é chamado de Método de Momentos, se
obtém:

s2  1,80 e s2  3s2  36,94 , onde os s2 são estimadores


dos  2.
A computação do componente de variância para lote é feita resolvendo a
expressão seguinte:

36,94 1,80
s2   11,71 . A variância total pode ser
3
estimada como:

s2  s 2  s2  11,71  1,80  13,51 .


total 

A interpretação do resultado pode ser como a seguir: em termos de


porcentagens, pode-se observar que 11,71 / 13,51 (100) = 86,7% da variância
total é atribuída a diferenças entre lotes e 13,3% a variabilidade de erro dentro de
lotes.

Outro exemplo de componente de variância para fatores aleatórios


Considere um modelo que descreve as observações obtidas da avaliação de g
genótipos em um experimento blocos casualizados com r blocos. O modelo pode
ser escrito como:

Yij  m  gi  b j  ij , em que:


Yij : observação obtida na parcela do i-ésimo genótipo no j-ésimo bloco;
m : média geral do experimento;
gi : efeito do i-ésimo genótipo considerado aleatório, sendo E gi  0 ,  
  
E gi2   g2 e E gi , g  0 ;
i 
b j : efeito do j-ésimo bloco considerado aleatório, sendo E  b j   0 ,
 

E  b2j    2 e E  b j , b   0 ;
  b  j 
ij : efeito do erro aleatório associado à observação Yij , sendo E   ij   0 ,
 

 
E  ij2    2 e ij NID 0, 2 . Considera-se ainda que os efeitos aleatórios
 
sejam independentes entre si.

O esquema de análise de variância é como a seguir:

FV GL SQ QM
Blocos r–1 SQB QMB
Genótipos g–1 SQG QMG
Resíduo (r – 1)(g – 1) SQR QMR
Total rg – 1 SQTo

Os dados, de uma variável hipotética, são referentes à avaliação de dez famílias


de meios-irmãos no delineamento blocos casualizados com três repetições
(blocos):

Família Bloco 1 Bloco 2 Bloco 3


1 132 127 128
2 137 161 164
3 137 165 121
4 168 166 161
5 140 161 135
6 112 125 113
7 132 141 143
8 139 144 165
9 154 153 185
10 143 167 160

O resultado da análise de variância é o seguinte:


FV GL SQ QM F
Blocos 2 708,0667 354,0333 2,39ns
Genótipos 9 6307,6333 700,8481 4,73**
Resíduo 18 2663,2667 147,9592
Total 29 9678,9667
**Significativo a 1% de probabilidade pelo teste F.
ns Não significativo.

Como nesse caso o modelo é aleatório, a hipótese testada é H :  2  0 e a


0 g
significância para o teste F indica a rejeição de H e, portanto a existência de
0
variabilidade genética entre as médias das famílias. A potencialidade das famílias
pode ser avaliada por meio da média geral, m  4379/ 30  145,96 , e a precisão
experimental por meio do coeficiente de variação,
100 QMR 100 147,9592
CV %    8,33 .
m 145,96

As esperanças de quadrados médios das fontes de variação são fornecidas


por:

A esperança matemática do quadrado médio de blocos é


 SQB  2 2
E (QMB)  E
 r 1     g b .
 
A esperança matemática do quadrado médio de tratamentos (genótipos) é
 SQG  2 2
E (QMG )  E
 g 1     r g .
 
A esperança matemática do quadrado médio de resíduo é
 SQR  2
E (QMR)  E
 (r 1)( g 1)    .
 
A utilização conjunta do resultado da análise de variância do experimento e das
expressões de esperanças de quadrados médios possibilita a estimação de
parâmetros genéticos e ambientais, que são informações de grande utilidade
nos programas de melhoramento de plantas. Considerando o modelo aleatório, o
esquema de análise de variância com as respectivas esperanças dos quadrados
médios é o seguinte:

FV GL QM E (QM)
Blocos r–1 QMB  2  g 2
b
Genótipos g–1 QMG  2  r g2
Resíduo (r – 1)(g – 1) QMR 2
QMG
A hipótese H :  2  0 é avaliada por meio da estatística F  , associada
0 g
QMR
a ( g  1) e (r  1)( g  1) graus de liberdade.

O estimador do componente de variância genética entre médias das famílias


avaliadas é dado por:

2 2 2
QMG  QMR   r g 
ˆ g2   .
r r
O estimador da variância ambiental, em nível de parcelas, é dado por:

ˆ 2  QMR .

O coeficiente de correlação intraclasse, que quantifica a repetibilidade do


desempenho dos genótipos no experimento, é dado por:

ˆ (Yij ,Yij )
Cov
r ˆ (Y ,Y )  ˆ 2 e
, sendo Cov
ij ij g
Vˆ (Yij )Vˆ (Yij )

ˆ g2
ˆ ˆ 2 2
V (Y )  V (Y )  ˆ  ˆ . Então, r  .
ij ij g ˆ 2  ˆ g2

Alternativamente, o valor da variância genotípica pode ser obtido por meio da


média das covariâncias entre os valores obtidos considerando pares de blocos,
ou seja:

Pares de Blocos Covariância Correlação


1e2 159,0000 0,6843
1e3 234,5556 0,6980
2e3 159,3333 0,4345
Média 184,2963 0,6056

Então, ˆ 2  184,2963 e ˆ 2  QMR  147,9592 .


g
O coeficiente de correlação intraclasse é dado por:

ˆ g2 184,2963
r   0,5547 .
ˆ 2  ˆ g2 147,9592 184,2963

Exemplo de blocos casualizados com informação de indivíduos dentro de


parcela

Considere a avaliação de g genótipos em blocos casualizados com r repetições.


As observações obtidas nos n indivíduos que compõem a parcela, são
modeladas por:

Y  m  gi  b j  ij   , em que:
ijk ijk

Y : observação obtida no k-ésimo indivíduo do i-ésimo genótipo no j-ésimo


ijk
bloco;

m : média geral do experimento;


gi : efeito do i-ésimo genótipo, considerado aleatório, sendo:

  2
  
E gi  0 , E gi   g2 e E gi , gi  0 ; 
b j : efeito do j-ésimo bloco, considerado aleatório, sendo:

  2
  
E b j  0 , E b j   2 e E b j ,b j   0 ;
b 
 ij : efeito aleatório da variação entre parcelas experimentais, sendo:

  2
  
E  ij  0 , E  ij   2 e E  ij , ij  0 ; 
 : efeito aleatório da variação entre plantas dentro da parcela, sendo:
ijk

  2
  
E  ijk  0 , E  ijk   2 e E  ijk , ijk   0 .
d 
O esquema de análise de variância para o modelo estatístico adotado é o
seguinte:

FV GL SQ QM
Blocos r–1 SQB QMB
Genótipos g–1 SQG QMG
Entre parcelas (r – 1)(g – 1) SQE QME
Dentro de parcelas (n – 1)rg SQD QMD

As somas de quadrados são fornecidas por:

2 1 2
SQTo     Yijk  C ; SQB   Y. j.  C ;
i j k ng j

1 2
SQG   Yi..  C ;
nr i
1 2 1 2 1 2
SQE    Yij.   Y. j.   Yi..  C ;
ni j ng j nr i

2
2 1 2 Y...
SQD     Yijk    Yij. , sendo C  e
i j k ni j ngr

Y     Yijk .
...
i j k

Considere como ilustração, a avaliação de 10 famílias num experimento em


blocos casualizados, com duas repetições, tendo quatro indivíduos dentro da
parcela. Os valores obtidos para uma variável hipotética são:
Bloco1 Bloco2
Família P1 P2 P3 P4 P1 P2 P3 P4
1 62,4 61,1 60,1 53,8 67,5 66,3 65,2 59,2
2 59,8 54,5 52,7 49,0 53,4 50,0 47,3 46,5
3 49,2 42,4 41,0 37,4 62,1 61,6 59,1 48,4
4 60,8 58,9 51,2 50,5 47,2 40,1 36,7 36,3
5 56,6 46,7 46,4 43,8 46,8 45,7 44,4 41,2
6 54,5 52,2 48,9 40,3 50,1 46,8 39,9 38,0
7 41,4 39,0 39,1 38,2 63,9 53,9 48,9 44,6
8 53,0 47,4 46,9 43,8 44,3 42,5 40,5 37,8
9 57,0 47,8 45,8 39,6 48,6 46,8 33,9 32,2
10 56,5 50,2 43,9 41,2 39,5 37,6 37,6 32,7

O resultado da análise de variância é o seguinte:

FV GL SQ QM F
Blocos 1 79,7844 79,7844
Genótipos(famílias) 9 2247,1094 249.6788 1,2245ns
Entre parcelas 9 1831,6062 203,5118
Dentro de parcelas 60 1675,2344 27,9206
ns: não significativo (p > 0,05).
Não foi detectada variabilidade genética entre famílias, o que indica que a seleção
de famílias não terá êxito. Entretanto, é necessário avaliar a variação genética
existente em nível de plantas dentro das famílias. Se a herdabilidade, em nível de
plantas, for elevada pode-se praticar a seleção dentro de família e obter
consideráveis ganhos genéticos.

As esperanças de quadrados médios podem ser obtidas por:

Esperança matemática de Quadrado Médio de Blocos:

 SQB  2 2 2
E (QMB)  E
 b 1    d  n e  ng b .
 
Esperança matemática de Quadrado Médio de Genótipos:

 SQG  2 2 2
E (QMG )  E
 g 1    d  n e  nr g .
 
Esperança matemática de Quadrado Médio de Erro Entre Parcelas:

 SQE  2 2
E (QME )  E
 (r 1)( g 1)    d  n e
 
Esperança matemática de Quadrado Médio de Erro Dentro de Parcelas:

 SQD  2
E (QMD)  E
 (n 1) gr    d .
 

A estimação de parâmetros genéticos e ambientais pode ser realizada com


base no esquema de análise de variância seguinte:

FV GL QM E (QM)
Blocos r–1 QMB  2  n e2  ng 2
d b
Genótipos g–1 QMG  2  n e2  nr g2
d
Entre parcelas (r – 1)(g – 1) QME
 2  n e2
d
Dentro de parcelas (n – 1)gr QMD 2
d

Nesse estudo devem ser obtidas as estimativas de componentes de variância


seguintes:

 2 : componente de variância de natureza ambiental que mede as variações


b
entre blocos, estimado por:

2 2 2 2 2
QMB QME  d  n e  ng b  d  n e
ˆ 2   , ou seja,
b
ng ng

79,7844  203,5118
ˆ 2   3,0931 ;
b
40

 g2 : componente de variância genética entre médias de genótipos (famílias),


estimado por:

2 2 2 2 2
2 QMG QME  d  n e  nr g  d  n e
ˆ g   , ou seja,
nr nr

249,6788 203,5118
ˆ g2   5,7709 ;
8

 e2 : componente de variância ambiental que mede as variações entre


parcelas, estimado por:

2 2 2
2 QME QMD  d  n e  d
ˆe   , ou seja,
n n

203,5118 27,9206
ˆe2   43,8978 ;
4

 2 : componente de variância fenotípica (ambiental e genética) que mede as


d
variações entre plantas dentro da parcela, estimado por:

ˆ 2  QMD , ou seja, ˆ 2  27,9206 .


d d
No caso de melhoramento de plantas, são estimadas também as herdabilidades
para a seleção tendo como base as médias entre famílias ou os valores dos
indivíduos dentro de parcelas. Desta forma, tem-se:

2
2
ˆ g 5,7709
 , logo h2
entre   0,1849 . Para o caso de
hentre
QMG / nr 249,6788 / 8
famílias de meios-irmãos tem-se:

2
3ˆ g 3(5,7709)
h2  , logo h2   0,6201 . Assim, existe
dentro dentro
QMD 27,9206
possibilidade de se obter ganhos pela seleção de plantas dentro de parcela
(família), uma vez que a herdabilidade estimada entre plantas é cerca de três
vezes a estimada entre médias de famílias.

Inferências relativas aos componentes de variância

Variância da estimativa de variância:

Considere um quadrado médio, QM , associado a f graus de liberdade (gl).


f .QM
Tem-se que a razão segue a distribuição qui-quadrado com f graus de
E (QM )
liberdade (  2 ). Tem-se ainda que na distribuição qui-quadrado a média é igual a
f
 f .QM 
gl ( f
) e a variância é igual a 2.gl ( 2 f ). Desta forma, Var  2f , e
 E (QM ) 
usando as propriedades de variância obtém-se:

2
f2 2  E(QM ) 
Var (QM )  2 f , logo Var (QM )  .
2 f
 E (QM ) 

Uma estimativa não-viesada para Var (QM ) é dada por:

2
ˆ (QM )  2(QM )
Var
f 2

Por exemplo, a variância do componente de variância ˆ 2 é dada por:

 
2
 
2 2 2
Var ˆ 2  
2 QMR
 .
f f
Sob a pressuposição de que os quadrados médios de uma análise de variância
sejam independentes, pode-se obter a variância de qualquer estimador de
componentes de variância com base nas expressões anteriores.
QMG QMR
Considere, por exemplo, o componente ˆ 2 , dado por ˆ 2  , em
g g
r
que:

QMG : quadrado médio de genótipos, associado a g  1 graus de liberdade;

QMR : quadrado médio do resíduo, associado a (r 1)( g 1) graus de liberdade.


Então, tem-se:

Var  
2
ˆ ˆ g  Var
ˆ
 QMG QMR 

 r 

 
2
ˆ ˆ g 
Var
r
1
2
ˆ (QMR) 
ˆ (QMG) Var
Var 

1  2QMG
2 
 
2
2 2QMR
ˆ ˆ g  
2  g 1 2 (r 1)( g 1)  2 
Var
r  

2  QMG 
 
2 2
2 QMR
ˆ ˆ g  
2 
Var
r  g 1 (r 1)( g 1)  2 

Graus de liberdade associados às estimativas de variâncias de


componentes de variância:

Sejam ˆ 2 e ˆ 2 duas estimativas de diferentes componentes de variâncias ou


1 2
dois QMs , aos quais estão associados v e v graus de liberdade,
1 2
respectivamente. Considere agora uma função linear dessas estimativas:

ˆ 2  a ˆ 2  a ˆ 2 , então
0 1 1 2 2

 
2
 
2 2
 
Var ˆ 0  a2Var ˆ1  a2Var ˆ 2 . Admitindo que o grau de liberdade, a
1 2
2
 
ser obtido, associado a Var ˆ 0 seja n , tem-se:

     
2 2 2
2 2 2a 2  2 2a 2  2
0 1 1 2 2
  , ou
n n n
1 2
n
0 
2 2
.

   
2 2 2 2 2 2
a1 1 a2  2

n1 n2

Para os valores dos respectivos estimadores, tem-se:

n 
  2 2
ˆ 0
.
a1 ˆ1  a2 ˆ 2 
2 2 2 2 2 2

n1  2 n2  2

ˆ ˆ g
Por exemplo, os graus de liberdade associados a Var  2 podem ser

estimados por meio de:

2
(QMG QMR)
n  .
2 2
(QMG) (QMR)

g 1 (r 1)( g 1)  2

Deve ser salientado que esta é uma aproximação grosseira do número de graus
de liberdade, uma vez que a diferença de dois quadrados médios não tem
distribuição conhecida e, para se obter a estimativa de n pelo método de
Satherthwaite, é assumida a distribuição de  2.

7.3 - Diagnósticos das Pressuposições para a Análise de Variância

A análise de variância, que pode ser mais apropriadamente denominada de


análise de variação em torno da média, consiste em particionar a variação total
presente num conjunto de dados em componentes. Cada componente é atribuído
a uma causa identificável ou fonte de variação; dentre estes, um componente
representa a variação devido a fatores não controlados e erros aleatórios
associados com as medições das respostas. Por exemplo, se um conjunto de
dados consiste de n medições Y1, Y2, ..., Yn e sua média é representada por Y, a
variação total em torno da média está contida na soma de quadrados dos desvios
n

 (Y  Y)
i1
i
2
,

que é chamada de soma de quadrados total. A técnica de análise de variância


decompõe esta soma de quadrados total em componentes, como mostrado a
seguir para o caso de duas fontes de variação, além do componente erro ou

Soma de Quadrados Total em torno da média  ( Yi  Y ) 2 m

Soma de Quadrados Soma de Quadrados Soma de Quadrados


devido a Fonte 1 devido a Fonte 2 devido ao Erro
resíduo.

O número de fontes de variação identificáveis e as fórmulas para os


cálculos das somas de quadrados dos componentes estão intrinsecamente
relacionados com o delineamento experimental empregado na coleta de dados e
com o modelo estatístico considerado para a análise. Por exemplo, para o
delineamento inteiramente casualizado, o modelo linear aditivo pressuposto é o
seguinte:

Yij     i   ij , i  1, 2, , t e j  1, 2, , r; onde

  média geral
 i  efeito do tratamento de ordem i, com i  0
 ij  são erros todos aleatórios e independentemente distribuídos como
N (0,  2 ) .

Para o delineamento blocos casualizados o modelo linear aditivo é o


seguinte:
Yij     i   j   ij , i  1, 2, , t e j  1, 2, , r;

onde os parâmetros satisfazem a relação


t r

i1
 i  0, 
j1
j  0 e os  ij são erros aleatórios e independentemente

distribuídos como N (0,  2 ) .


Observa-se que a análise de variância pressupõe os conceitos de
aditividade, normalidade, homogeneidade de variância e independência dos erros
experimentais. Para ser válida, a aplicação dos testes de significância, como
complementação da análise de variância, também requer que os erros
experimentais sejam independentes e normalmente distribuídos com média zero e
variância comum  2 . Portanto, as pressuposições (condições) necessárias para a
validade da análise de variância e dos testes de significância são as seguintes:
7.1.1 - Homogeneidade de Variâncias
A hipótese é que os erros  ij , devidos ao efeito de fatores aleatórios que
não controlados, possuem uma variância comum  2 . Isto quer dizer que a
variação das repetições de um determinado tratamento deve ser semelhante a de
todos os outros tratamentos do experimento  12   2 2     t 2   2 .

7.1.2 - Normalidade
A hipótese é que os erros  ij possuem uma distribuição normal de
probabilidade; neste caso é necessário que os dados experimentais tenham uma
distribuição normal; esta pressuposição é denotada por  ij  N (0,  2 ).

7.1.3 - Aditividade
No modelo matemático dos delineamentos os efeitos dos fatores devem
ser aditivos. Existem três causas principais de não-aditividade: (1) os verdadeiros
efeitos podem ser multiplicativos; (2) existirem efeitos de interações que não
foram incluídos no modelo assumido; e (3) presença de observações
discrepantes.

7.1.4 - Independência
A hipótese é que os erros  ij são independentes. A conseqüência disto é
que os efeitos de tratamentos não apresentam correlação entre si, ou seja, são
independentes. Pela utilização da casualização, o pesquisador pode fazer com
que os erros sejam não correlacionados.
Entretanto, na prática, uma ou mais dessas condições nem sempre são
satisfeitas, o que nos leva a procurar uma aproximação através da transformação
dos dados, antes de se proceder à análise de variância.
Um dos tipos mais freqüentes de afastamentos em relação às
pressuposições da análise de variância e dos testes de significância é a não
homogeneidade dos erros, que pode ser de dois tipos: (a) heterogeneidade de
erros irregular, que ocorre quando alguns tratamentos apresentam maior
variabilidade que outros; (b) heterogeneidade de erros regular, que ocorre devido
à falta de normalidade dos dados experimentais; neste caso, freqüentemente, as
médias dos tratamentos e as respectivas variâncias estão relacionadas.

7.1.5 – Testes de Homogeneidade de Variâncias


Os testes disponíveis para a verificação da homogeneidade de variâncias
dos erros são os de COCHRAN, de BARTLETT e de HARTLEY, mas o de
HARTLEY é o mais utilizado devido a sua facilidade de aplicação. O Teste de
HARTLEY ou Teste da razão máxima é dado pelo procedimento seguinte: seja
um conjunto de g grupos, cada um com r observações. Para testarmos a
homogeneidade de variâncias destes grupos devemos calcular as estimativas de
variância Si2, para cada um dos grupos, e a estatística
S 2 máx .
Hc  ,
S 2 mín .

Onde S 2 máx .  maior variância e S 2 mín .  menor variância. Comparamos o


valor da estatística, Hc, com os valores críticos, H( g; r 1)  , da tabela de Pearson &
Hartley.
A decisão estatística é que se Hc  H( g; r 1)  , rejeitamos a hipótese de
homogeneidade de variâncias (H0 :  12   2 2     t 2   2 ) e concluímos que não
existe homogeneidade de variâncias para os grupos testados.
Quando os grupos possuem números diferentes de observações temos
j

r
i1
i
que r  e o teste é aproximado. Este teste é exato para g  12 e para o
g
mesmo número de observações em todos os grupos.
O teste de LEVENE é usado para testar se k amostras têm variâncias iguais.
Variâncias iguais ao longo de amostras são denominadas de homogeneidade de
variâncias. Alguns testes estatísticos, como por exemplo, a análise de variância,
assume que as variâncias são iguais ao longo dos grupos ou amostras.
O teste de Levene é uma alternativa ao teste de Bartlett. O teste de Levene é
menos sensível que o teste de Bartlett para afastamentos da normalidade.
Quando se tem forte evidência de que os dados de fato provêm de uma
distribuição normal, ou aproximadamente normal, então o teste de Bartlett tem
uma melhor desempenho.
O teste de Levene é definido como: H :       contra H :    ,
0 1 2 k 1 i j
para pelo menos um par  i, j  .
Dada uma variável Y com amostra de tamanho N dividida em k subgrupos, em
que N é o tamanho de amostra do i-ésimo subgrupo, a estatística do teste de
i
Levene é definida como:
k
   
2
N  k  N i Z i.  Z..
W i 1 , em que Z pode ter uma das três definições
ij
 
k Ni 2
 
k 1   Z ij  Z i.
i 1 j 1
seguintes:

ij  Yij Yi. , em que i. é a média do i-ésimo subgrupo;


1. Z Y

ij  Yij Yi. , em que i. é a mediana do i-ésimo subgrupo;


2. Z Y
t
3. Z  Yij Yi. , em que Y t é a média censurada 10% do i-ésimo subgrupo.
ij i.
Os Z são as médias de grupos da Z
i. ij e Z.. é a média geral da Z ij .
As três escolhas para definir Z
ij determinam a robustez e o poder do teste de
Levene. Robustez significa a capacidade do teste em não detectar falsamente
variâncias desiguais quando os dados analisados não são normalmente
distribuídos e as variâncias de fato são iguais. Poder significa a capacidade do
teste em detectar variâncias desiguais quando as variâncias de fato são
desiguais.
O uso de média censurada tem melhor desempenho quando os dados seguem a
distribuição de Cauchy e o uso da mediana desempenha melhor quando os dados
seguem a distribuição  2 . Usando a média tem-se o melhor poder para
4
distribuições simétricas ou com assimetria moderada.
Embora a escolha ótima dependa da distribuição subjacente, a definição baseada
na mediana é recomendada como a escolha que fornece boa robustez contra
muitos tipos de dados não-normais enquanto mantém um bom poder. Se a
distribuição subjacente dos dados é conhecida, então é indicado o uso de uma
das outras escolhas.
O teste de Levene rejeita a hipótese que as variâncias são iguais se

W F , em que F é o valor crítico da distribuição F ,


 ,k 1, N k   ,k 1, N k 
com k 1 e N  k graus de liberdade a um nível de significância . 
Os testes para comparação de médias de populações normais geralmente
assumem que as populações têm a mesma variância. Desta forma, antes de usar
estes testes é recomendável que seja testada a pressuposição de
homogeneidade de variâncias. O teste de BARTLETT é comumente usado para
testar a igualdade (homogeneidade) de variâncias. As hipóteses do teste são as
seguintes: H :  2   2    2 contra H : as  i2 não são todas iguais.
0 1 2 k 1
Considere que se tenham amostras de tamanho n extraídas da i-ésima
i
população, i  1,2, , k , e as estimativas de variâncias usuais de cada amostra:

   
ni 2
2 2 2 2
s , s , , s , em que s   xij  xi. / n j 1 . Agora, considere a
1 2 k i
j 1
k
notação seguinte: v  n 1 (os v são os graus de liberdade) e v   vi ,
i j j
i 1
k 2
 vi si
s 2  i 1 . A estatística de teste M de Bartlett é definida por:
v
k 2
M  v log s 2   vi log si .
i 1
Quando nenhum dos graus de liberdade é pequeno, Bartlett demonstrou que M
é distribuído aproximadamente como  2 . A aproximação qui-quadrado
k 1
geralmente é aceitável se todos os n são no mínimo cinco. De acordo com
i
Bartlett, este é um teste ligeiramente viesado. Ele pode ser melhorado dividindo-

1  k 1  1 
se M pelo fator C  1   i    . É sugerido o uso de M / C ao
3 k 1  1 vi  v 
invés de M para o teste estatístico. Este teste não é robusto, é muito sensível a
afastamentos da normalidade. Quando existe suspeita de não-normalidade dos
dados, o teste de Levene é uma melhor escolha que o teste de Bartlett.
Um procedimento prático para aplicação do teste de Bartlett é o seguinte:
As hipóteses consideradas são:
H : as variâncias são homogêneas, ou seja, 12   22    I2 ;
0
H a : pelo menos uma variância difere das demais.
Para o caso de tratamentos com o mesmo número de repetições, a estatística do
teste é dada por:
 I  
  Si2  I 
2,302585( J 1)  
B  
I log i 1 

  log Si  , em que L é uma correção,
2
 i1
L I
 

  

dada por:
 I 1 
L  1   , sendo I o número de tratamentos e J o número de
 3I ( J 1) 
repetições. O valor B calculado deve ser comparado com o valor extraído de
tabela dado por:
B   2 , em que  2 é o valor da distribuição qui-quadrado,  é o nível
 ( I 1)
de significância e I é o número de tratamentos.
Se B  B , rejeita-se H , ou seja, as variâncias não são homogêneas
0
(semelhantes), sendo necessário transformar os dados para realizar a análise de
variância. Se B  B , não se rejeita H , ou seja, as variâncias são homogêneas,
0
não sendo necessário transformar os dados para que seja atendida a
pressuposição de homogeneidade de variâncias.

Exemplo de Aplicação: Considere um experimento desenvolvido no delineamento


inteiramente casualizado, com seis repetições, tendo como objetivo avaliar o
efeito de três herbicidas sobre a biomassa de capim elefante. Os valores
observados de biomassa seca (mg/planta) são apresentados a seguir (Extraído
de Garcia, 2001).

Quadro. Valores de biomassa seca de capim elefante

Herbicida Repetições Biomassa (mg/planta)


A 1 2950
A 2 2810
A 3 2100
A 4 2502
A 5 1537
A 6 2237
B 1 171
B 2 74
B 3 101
B 4 85
B 5 73
B 6 119
C 1 749
C 2 428
C 3 236
C 4 579
C 5 271
C 6 512

A verificação da pressuposição de homogeneidade de variâncias, por meio do


teste de Bartlett, para este conjunto de dados é realizada da seguinte forma:
1) As hipóteses estatísticas consideradas são H : as variâncias são homogêneas
0
e H a : pelo menos uma variância difere das demais.
2) As estimativas das variâncias de cada tratamento (tipo de herbicida) são:
S 2  263211, 20 , S 2  1388,97 e S 2  37453,90 mg2/planta.
1 2 3
3) Dado que I = 3 tratamentos e J = J1 = J2 = J3 = 6 repetições, tem-se que:
 I 1   3 1 
L  1    1    1, 0889 ;
 3I ( J 1)   3(3)(6  1) 
 I 
  Si2 
 I log i1   3log  263211, 20  1388,97  37453,90   15, 0089 ;
  
I   3 
 
 
 
I
 log Si2  log(263211, 20)  log(1388,97)  log(37453,90)  13,1365 . Então, o valor
i1
da estatística-teste é obtido como:
 I  
  Si2  I 
2,302585( J 1)  
B  
I log i 1 

  log Si 
2
 i1
L I
 

  

2,302585(6  1) 11,5129
B 15, 0089  13,1365  (1,8724)  19, 7968 . O valor tabelado
1, 0889 1, 0889
é B   2  2  9, 21 , para 1% de probabilidade (p < 0,01). Como B
 ( I 1)
0,01(2)
= 19,7968 > B  9, 21, rejeita-se H , ou seja, as variâncias não são
0
consideradas homogêneas (semelhantes), sendo indicada o uso de
transformação de dados para estabilizar a variância de tratamentos.

Para o caso de tratamentos com número de repetições diferente, a estatística de


teste é dada por:
  
 
I
  Ji 1 Si2  
2,302585  I
   
 I
B  
i
 Ji 1 .log I 1 

  Ji 1 log Si  , em que L é
2
L
 i1
 i1

 Ji 1  i1

 

uma correção, dada por:
  
  I 
 1  1 1   , sendo I o número de tratamentos e
L  1    



 3( I  1) i1 Ji  1 I
 
 Ji 1  
  i1  
J o número de repetições do tratamento de ordem i .
i
Outro Exemplo de Aplicação: Considere aqui os mesmos dados do exemplo
anterior com número de repetições diferentes para os tratamentos. Os valores
considerados de biomassa (mg/planta) são os apresentados a seguir.

Quadro. Valores de biomassa seca (mg/planta) de capim elefante

Herbicida Repetições Biomassa (mg/planta)


A 1 2950
A 2 2810
A 3 2100
A 4 2327
B 1 171
B 2 74
B 3 85
B 4 73
B 5 119
C 1 749
C 2 428
C 3 236

A aplicação do teste de Bartlett para homogeneidade de variâncias neste caso


(número diferente de repetições por tratamento) é realizada da seguinte forma:
1) As hipóteses testadas são H : as variâncias são homogêneas
0
( 12   22    I2 ) e H a : pelo menos uma variância difere das demais.
2) As estimativas das variâncias de cada tratamento são as seguintes:
S 2  159928,92 , S 2  1733,80 e S 2  67179,00 mg2/planta.
1 2 3
3) Dado que I = 3 tratamentos e J1 = 4, J2 = 5 e J3 = 3 repetições, tem-se:
  
  I 
 1  1 1 
a) Correção L  1     



 3( I  1) i1 Ji  1  I
 
 Ji 1  
  i1  
 1  1 1   
L  1  
1 1
    
 3(3  1)  (4  1) (5 1) (3 1)  (4 1)  (5 1)  (3 1)  
1  1 1 1  1 
L  1         1,1620 ;
 6  3 4 2  (3  4  2) 

 
I
b) Cálculos auxiliares  Ji 1  (4 1)  (5 1)  (3 1)  3  4  2  9 ;
i1
 
I
 Ji 1 Si2  (4 1)(159928,92)  (5  1)(1733,80)  (3 1)(67179,00)  621079,96;
i1
 
I
 Ji 1 log Si2  (4 1)log(159928,92)   (5 1)log(1733,80)   (3 1)log(67179,00);
i1
 3(5,2039)  4(3,2390)  2(4,8272)  38,2221 ;
c) A estimativa da estatística-teste
2,302585   621079,96   
B  9log     38,2221 ou
1,1620   9  
2,302585
B 9(4,8389)  38, 2221  10,5579 ;
1,1620 
d) O valor tabelado é B   2  2  9, 21 , para 1% de
 ( I 1) 0,01(2)
probabilidade na tabela de qui-quadrado;
e) A decisão estatística: como B  10,5579  B  9, 21 , rejeita-se H , ou seja,
0
as variâncias não são homogêneas, sendo necessária a transformação dos dados
para realizar a análise de variância.

O teste de Levene para homogeneidade de variâncias depende menos da


suposição de normalidade que os outros testes. Neste teste calcula-se, para cada
observação, a diferença entre o valor da observação e a média do subgrupo (ou
tratamento) correspondente a esta observação (parcela) e realiza uma análise de
variância de um fator para essas diferenças, ou seja, considera a configuração de
análise de variância seguinte:
k : número de tratamentos ( k  t para um fator; k  tl para dois fatores);
Y : observação amostral j do tratamento i ( j  1,2, , N e i  1,2, , k );
ij i
Ni : número de observações (repetições) do tratamento i (pelo menos um Ni
deve ser igual ou maior que 3);
N  N  N   N : tamanho da amostra (ou número de parcelas)
1 2 k
Yi. : média do tratamento i ;
Zij  Yij  Yi. : desvio absoluto da observação j da média do tratamento i ;
Zi. : média dos Ni desvios absolutos do tratamento i ;
Z.. : média de todos os N desvios absolutos.
Note que pelo menos um dos tratamentos deve ter 3 ou mais observações
(repetições), caso contrário a estatística de Levene será indefinida (o
denominador será igual a zero se cada tratamento tiver 1 ou 2 observações).
O procedimento de Levene pode ser resumido nos passos seguintes:

1) Cheque as pressuposições: a) Certifique que as amostras foram tomadas


independentemente uma das outras; b) Construa lado a lado gráficos caixa
(boxplots) ou gráficos Q-Q (Q-Q plots) para avaliar a normalidade.

2) Estabeleça as hipóteses estatísticas.


Nulidade H : 2   2    2
0 1 2 k
Alternativa H a : Nem todas as variâncias são iguais

3) Decida sobre o nível de significância (  ) a ser adotado.


4) Determine o valor crítico e a região de rejeição.

Abordagem Clássica Abordagem p-valor


Valor Crítico F -
 ( gl k 1;gl  N k )
1 2
Região de Rejeição W F p  valor  
 ( gl k 1;gl  N k )
1 2
5) Obtenha o valor da estatística de Levene, dado por:

 
k 2
( N  k )  Ni Zi.  Z..
W i1 .
k Ni  2
(k 1)    Zij  Zi. 
i1 j 1 

6) Tome a decisão estatística.


Rejeição de H : Ao nível de significância
0
 , se o valor da estatística W cai
na região de rejeição ou se p  valor   , então existe evidência segura par
concluir que “nem todas as variâncias são iguais”, ou seja, rejeita H .
0
Não Rejeição de H : Ao nível de significância
0
 , se o valor da estatística W
não cai na região de rejeição ou se p  valor   , então não existe evidência
segura para concluir que “nem todas as variâncias são iguais”, ou seja, não rejeita
H .
0
7) Relate a conclusão
Rejeita H : “A  % de probabilidade, há evidência suficiente para concluir
0
que nem todas as variâncias são iguais”.
Não Rejeita H : “ A  % de probabilidade, há evidência suficiente para
0
concluir que todas as variâncias são iguais”.

Exemplo de Aplicação: Considere os dados do experimento sobre o efeito de


herbicidas na biomassa seca de capim elefante, já utilizado anteriormente e
reapresentado a seguir.

Repetição ( j ) Média
Herbicida ( i )
_____________________________________ (Y )
i.
1 2 3 4 5 6
A 2950 2810 2100 2502 1537 2237 2356,00
B 171 74 101 85 73 119 103,83
C 749 428 236 579 271 512 462,50
Média ( Y.. ) - - - - - - 974,11

A avaliação da pressuposição de homogeneidade de variâncias, utilizando o teste


de Levene, é feita da seguinte forma:
1) Estabeleça as hipóteses estatísticas do teste.
H :  2   2   2 e H a : Nem todas as variâncias de tratamentos são
0 1 2 3
iguais.
2) Obtenha os valores dos desvios absolutos, Z
ij  Yij  Yi. , para cada
observação (parcela) do experimento, os quais são apresentados a seguir.

Repetição ( j ) Média
Herbicida ( i )
_____________________________________ (Z )
i.
1 2 3 4 5 6
A 594 454 256 146 819 119 398,00
B 67,17 29,83 2,83 18,83 30,83 15,17 27,77
C 322,5 34,5 190,5 152,5 155,5 49,5 150,83
Média ( Z.. ) - - - - - - 192,09

3) Estabeleça o valor crítico e a região de rejeição.

Valor Crítico
F 
gl  2; gl  15  3,68
0,05 1 2 
Região de Rejeição de H
0 W F (2;15)  3,68
0,05

4) Calcule o valor da estatística-teste de Levene.

 
k 2
( N  k )  Ni Zi.  Z..
W i1 . Os cálculos das somas de quadrados são
k Ni  2
(k 1)    Zij  Zi. 
i1 j 1 
realizados separadamente, da seguinte forma:

 
3 2  2  2  2
 Ni Zi.  Z..  6  398,00 192,09   6  27,44 192,09   6 150,83 192,09   427265,6292
i1      

3 6 2
   Zij  Zi.   594  398,00   454  398,00 
2 2 2 2
 155,5 150,83   49,5 150,83  437598,3400
i1 j 1 

(18  3)(427265,6292)
Então W   7,323 .
(3  1)(437598,34)

5) Tome a decisão estatística.

Como o valor da estatística de teste, W  7,323 , cai na região de rejeição, ou


seja, W  7,323  F (2;15)  3,68 , então se rejeita H .
0,05 0

6) Relate a conclusão do teste.


Conclusão: Existe evidência suficiente para concluir que nem todas as variâncias
de tratamentos são iguais, a 5% de probabilidade. Desta forma, a pressuposição
de homogeneidade de variâncias não foi atendida para esse conjunto de dados.
Portanto, seria recomendada a transformação dos dados antes de realizar a
análise de variância.

O teste de Cochran para avaliar a homogeneidade de variâncias tem como


base a razão entre a maior variância e a soma de todas as variâncias que estão
sob avaliação. Este teste é mais apropriado para os casos em que pelo menos
uma das variâncias avaliadas é muito discrepante das demais. Os passos para
realizar o teste de Cochran são os seguintes:

1) Estabeleça as hipóteses estatísticas.


H : As variâncias são semelhantes, ou seja, 12   22   2.
I
0
H a : Pelo menos uma variância difere das demais.

2) Calcule o valor da estatística de teste, que é dado por:

2
Smax I 2
C 2 : maior variância e 
, em que Smax Si : soma de todas as
I 2 i 1
 Si
i1
variâncias.

3) Obtenha o valor crítico tabelado C  C


 ( I ;J 1)
, em que  é a

probabilidade de Erro Tipo I, I é o número de tratamentos e J é o número de


repetições. Se os tratamentos tiverem número diferente de repetições, calcula-se
I
 Ji
um J médio, J  i1 , e obtém-se um teste aproximado.
I
4) Estabeleça a regra de decisão.

Se C  C , rejeita-se H , ou seja, as variâncias não são semelhantes, sendo


0
necessária a transformação dos dados para proceder à análise de variância.
Se C  C , não se rejeita H , ou seja, as variâncias são semelhantes, não
0
havendo necessidade de transformação dos dados para proceder à análise de
variância.

Exemplo de Aplicação: Considere o experimento de avaliação do efeito de três


herbicidas sobre a massa seca de capim elefante, já utilizado anteriormente. O
teste de Cochran é aplicado a este conjunto de dados da seguinte forma:

1) Estabelecimento das hipóteses estatísticas.


H : as variâncias são semelhantes (homogêneas), 12   22   32
0
H a : pelo menos uma variância difere das demais

2) Cálculo das estimativas das variâncias de cada tratamento.


S 2  263211,20; S 2  1388,97; S 2  37453,90 mg2.planta-1.
1 2 3
3) Cálculo do valor da estatística-teste.
S2 263211,20
C  max   0,8714 .
I 2 263211,20  1388,97  37453,90
S
i1 i
4) Obtenção do valor tabelado na Tabela de Valores Críticos da estatística C de
Cochran.
C  C C  0,7457
 ( I ;J 1) 0,05(3;5)

5) Tomada de decisão estatística.


Como C  0,8714  C  0,7457 , então se rejeita H , ou seja, as
0,05(3;5) 0
variâncias não são homogêneas, sendo necessária a transformação dos dados
desse experimento para proceder à análise de variância.

7.1.6 – Teste de Aditividade


O Teste de Tukey para não-aditividade é aplicado para saber se uma
transformação é necessária ou se teve êxito; serve também para evidenciar
observações discrepantes ou mesmo para sugerir uma possível transformação.
Suponhamos, por exemplo, um experimento em blocos casualizados, onde,
se os efeitos são aditivos, o modelo estatístico é dado por:
Yij  m  t i  b j  e ij , onde

Yij  observação relativa ao tratamento i no bloco j.


m  média dos valores Yij
t i  efeito do tratamento i
b j  efeito do bloco j
e ij  erro relativo ao valor Yij

Por outro lado, se os efeitos não são aditivos o modelo é:


Yij  m  t i  b j   t i b j  e ij

O teste de não-aditividade verifica as hipóteses seguintes:


H0 :   0 (modelo aditivo)
Ha :   0 (modelo não-aditivo)

Na análise de variância padrão a interação blocos x tratamentos somente


será resíduo se tivermos   0 . Se   0 , essa interação não é a medida
adequada da variação casual, ou seja, não pode ser considerada como resíduo. A
Soma de Quadrados para Não-aditividade nada mais é do que uma interação dos
efeitos lineares de blocos e tratamentos. Se a S.Q. Não-aditividade for
significativa, indica que a diferença entre os tratamentos não é constante para os
diversos blocos, como deveria ser se os efeitos fossem aditivos. Pode-se
exemplificar isso através do modelo não-aditivo:
e ( Y11 )  m  t 1  b1   t 1b1
e ( Y21 )  m  t 2  b1   t 2 b1 e
e ( Y11  Y21 )  ( t 1  t 2 )   b1 ( t 1  t 2 ) , que corresponde à diferença entre os
tratamentos 1 e 2 no bloco 1;
e ( Y12 )  m  t 1  b 2   t 1b 2
e ( Y22 )  m  t 2  b 2   t 2 b 2 e
e ( Y12  Y22 )  (t 1  t 2 )   b 2 (t 1  t 2 ) , que é a diferença entre os tratamentos
1 e 2 no bloco 2;
Observa-se, portanto, que a diferença entre os tratamentos 1 e 2 somente
será constante se   0 , ou seja, se o modelo for aditivo.
A Soma de Quadrados para Não-aditividade é dada por
2
 


 Yij ( Yi.  Y.. )( Y. j  Y.. ) 

S.Q. Não-aditividade  
i, j

 i, j
Yij ( Yi.  Y.. ) ( Y. j  Y.. ) 2
2

2
 

  Yij Z ij 

ou S.Q. Não-aditividade    , onde
i, j

 i, j
Z ij
2

Zij  ( Yi.  Y.. )( Y. j  Y.. )  estimativa da contribuição de blocos x tratamentos;

Yi.  Y..  estimativa do efeito do tratamento i;


Y. j  Y..  estimativa do efeito do bloco j.

Na aplicação do teste de Tukey para Não-aditividade, para um experimento


com p tratamentos e q blocos, a análise de variância tem a forma seguinte:

Fontes de Variação G.L. S.Q.


Tratamentos (T) p-1 S.Q.T.
Blocos (B) q-1 S.Q.B.
[ Resíduo (Interação T x B) ] (p-1)(q-1) [S.Q.Res.]
Não-aditividade 1 S.Q. Não-aditividade
Novo Resíduo (p-1)(q-1)-1 S.Q. Novo Res.
Total pq-1 S.Q.Total
Neste esquema temos que:
SQ Novo Resíduo = SQ Res. – SQ Não-aditividade e
SQ Resíduo = SQT – SQB.
A não-aditividade pode ser testada pelo teste F como
QM Não  aditividad e
F , com 1 e (pq  p  q) graus de liberdade, ou pelo
QM Novo Re síduo
teste t de Student como
QM Não  aditividade
t , com (pq  p  q) graus de liberdade.
QM Novo Re síduo

Quando o teste para não-aditividade for significativo, rejeitamos a hipótese


nulidade, a um nível  de probabilidade e concluímos que o modelo apropriado
não é aditivo, ou seja,   0 . Se essa não-aditividade for devida à interação dos
efeitos principais (tratamentos x blocos), devemos fazer uma transformação de
dados; se for devida a observações discrepantes, fazemos a análise
considerando-as como parcelas perdidas.
A presença de não-aditividade nos dados resulta em heterogeneidade do
erro, quando nenhuma transformação é feita antes da análise.
Conseqüentemente, a utilização de um erro médio (QMRes = variância residual)
pode conduzir a estimativas viciadas dos efeitos de tratamentos e fornecer níveis
de significância falsos para os testes.

7.1.7 – Testes de Normalidade


Os testes mais utilizados para verificar a normalidade de um conjunto de
dados são: de X2, de assimetria, de curtose e de Lilliefors. O último teste
parece ser o mais eficiente de todos.
O teste de LILLIEFORS introduziu uma modificação no teste de
Kolmogorov - Smirnov, ampliando o seu uso para os casos em que a média e a
variância não são especificadas, mas sim estimadas através dos dados da
amostra. Inicialmente, calculamos a média, m̂ , e a variância, S2, dos dados e
obtemos a variável padronizada:
X i  m̂
Zi 
S
Em seguida relacionamos os valores Zi em ordem crescente e
determinamos os valores seguintes:
F ( Z i )  proporção de valores esperados  Z i ; valor obtido na tabela de
distribuição normal padronizada;
S ( Z i )  proporção de valores obtidos  Z i , que é dado por S ( Z i )  K / n ,
onde K é o número de valores obtidos a partir dos  Z i e n é o número de
observações da amostra.
De acordo com o teste de Kolmogorov-Smirnov definimos:
D  Supz i F ( Z i )  S ( Z i ) , onde Supz i  supremo em relação a Zi, ou seja, a
distância máxima entre F ( Z i ) e S ( Z i ) . Para a determinação de D, considera-se
em cada ponto Zi as diferenças F ( Z i )  S ( Z i ) e toma-se apenas a maior delas
como valor D.
O teste é bilateral com as hipóteses seguintes:
H0 : É razoável estudar os dados com base na distribuição normal;
Ha : Não é razoável estudar os dados com base na distribuição normal.

A decisão estatística é que rejeitamos a hipótese nulidade, a um nível  de


probabilidade, quando D  d . O valor d é encontrado na Tabela de Lilliefors.
Deve ser lembrado, porém, que a não rejeição de Ho não significa que a
distribuição seja a normal, mas apenas indica que é uma aproximação razoável
para a distribuição desconhecida. Este teste é aproximado, uma vez que os
limites da tabela são obtidos empiricamente.
O teste de Shapiro-Wilk calcula uma estatística W que testa se uma amostra
aleatória, x , x , , x , é originada de uma distribuição normal. Pequenos
1 2 n
valores de W evidenciam afastamento da normalidade e pontos percentuais para
a estatística W foram reproduzidos por meio de tabela. Este teste tem se dado
muito bem em estudos comparativos com outros testes de qualidade de ajuste.
2
 n 
  ai x(i) 
A estatística W é calculada como a seguir: W 
 i 1  , em que
n
  xi  x 
2
i 1
x são valores da amostra ordenados ( x é o menor) é os ai são
(i) (1)
constantes geradas á partir das médias, variâncias e covariâncias das estatísticas
ordens de uma amostra de tamanho n extraída de uma distribuição normal.
Em geral, as conseqüências não são muito sérias quando as
pressuposições em conexão com a análise de variância apresentam apenas
pequenos afastamentos. Por exemplo, pequenos desvios da normalidade e/ou
algum grau de heterogeneidade de variâncias terão pouco efeito nos testes de
significância usuais e nas inferências resultantes. Em resumo, a técnica de
Análise de Variância é bastante robusta, e assim o pesquisador pode realmente
fazer um bom trabalho, na maioria das circunstâncias.
Quando os dados não estão conforme algumas dessas pressuposições,
podemos obter uma aproximação por meio da transformação dos dados.
Um procedimento prático para aplicação do teste de Lilliefors é o seguinte: O
teste de Lilliefors é uma variante do teste de Kolmogorov-Smirnov, baseado na
utilização da média e da variância estimadas a partir de uma amostra de dados. É
um teste mais poderoso que o teste de aderência Qui-quadrado quando o
propósito é avaliar a normalidade de um conjunto de dados. As hipóteses
consideradas são:
H : os dados podem ser analisados com base na distribuição normal
0
H a : os dados não podem ser analisados com base na distribuição normal.
O procedimento para obtenção do valor da estatística de teste é o seguinte:
1) Organizar os dados em ordem crescente;
n
 Yi
2) Calcular a média dos dados, utilizando a expressão Y  i 1 ;
n
3) Calcular a variância dos dados, utilizando a expressão
2
 n 
  Yi 
n 2  i1 
 iY 
S  1
2 i n
;
n 1
4) Calcular o desvio padrão dos dados, utilizando a expressão S  S 2 ;
Y Y
5) Calcular os valores padronizados z , utilizando a expressão z  i ;
i i S
 i
6) Obter a probabilidade acumulada crescente F z , de cada z , na Tabela da
i
Distribuição Normal Padrão, o que corresponde à proporção dos valores
esperados  z ;
i
 i
7) Calcular a freqüência relativa acumulada crescente S z , de cada z , o que
i
corresponde à proporção dos valores observados  z , por meio da expressão
i

 
k
S zi  i , em que ki (i  1,2, , n) é a freqüência absoluta acumulada
n
crescente e n é o número de elementos (observações) da amostra;

i i    
8) Calcular as diferenças F z  S z e obter os respectivos valores absolutos

   
F zi  S zi ;

 i   i  obtido é denominado supremo em relação a zi ,


9) O maior F z  S z

denotado por sup F  z   S  z  , e corresponde ao valor da estatística do teste


i i
de Lilliefors. Assim, o valor calculado para o teste de Lilliefors é dado por:
   
L  sup F zi  S zi ;
10) O valor tabelado L (n) , sendo  o nível de significância adotado e n o
número de observações da amostra, é obtido na Tabela de Lilliefors. A regra de
decisão do teste é a seguinte: se L  L , rejeita-se H , ou seja, os dados não
0
podem ser analisados com base na distribuição normal; se L  L , não se rejeita
H , ou seja, os dados podem ser analisados com base na distribuição normal, o
0
que significa que os dados seguem aproximadamente essa distribuição.

Exemplo de Aplicação: Considere novamente o conjunto de dados de biomassa


seca de capim elefante, apresentados nos exemplos anteriores. A avaliação da
normalidade destes dados é a seguinte:
As hipóteses consideradas são:
H : os dados podem ser analisados com base na distribuição normal
0
H a : os dados não podem ser analisados com base na distribuição normal.
O valor da estatística-teste é obtido como a seguir:
1) Os dados do experimento são organizados por ordem crescente de valores;
n
 Yi
2) A média do conjunto de dados é Y  i1 
17624, 00
 979,11 ;
n 18
3) A variância dos dados é
2
 n 
  Yi 
n 2  i1 
 i Y  36588242, 00 
(17624, 00) 2
S  1
2 i n
 18  1137199, 28 ;
n 1 18  1
4) O desvio padrão dos dados é S  S 2  1137199,28  1066,40 ;
5)Considere como exemplo o cálculo dos valores z seguintes:
i
Y  Y 73  979,11 Y Y 2950  979,11
z  1   0,85 e z  18   1,85 . Os
1 S 1066,40 18 S 1066,40
outros valores são calculados de forma análoga;
6) Os valores F z  i são obtidos da Tabela de Distribuição Normal Padrão.
Considere os seguintes exemplos:
   
F z  0,5  p z  0,85  0,5  0,3023  0,1977
1 1
e

   
F z  0,5  p z  1,85  0,5  0,4678  0,9678.
18 18
Observe que, ao utilizar a Tabela, quando os valores de z
i são negativos,
diminui-se a probabilidade encontrada na Tabela de 0,5. Quando os valores de z
i
são positivos, soma-se 0,5 à probabilidade encontrada na Tabela, para se obter
 i  i
os valores de F z . Isso é feito porque a F z desejada é a probabilidade

acumulada no intervalo   z  z , ou seja, F  z   P    z  z  .


i i i
7) Considere os exemplos de cálculo das proporções (freqüências relativas
acumuladas crescentes), S zi ,  
seguintes:
1 18
1
S z   0,0556 ,  
  7
S z   0,3889 e S z   1;
7 18
18
18 18  
i i    
8) Calcular os valores F z  S z . Assim, os valores auxiliares para obtenção
do valor da estatística do teste de Lilliefors são os seguintes:

Quadro. Valores auxiliares utilizados para estimar a estatística L de Lilliefors


ki Yi zi  
F zi  
S zi    
F zi  S zi    
F zi  S zi
1 73 -0,85 0,1977 0,0556 0,1421 0,1421
2 74 -0,85 0,1977 0,1111 0,0866 0,0866
3 85 -0,84 0,2005 0,1667 0,0338 0,0338
4 101 -0.82 0,2061 0,2222 -0,0161 0,0161
5 119 -0,81 0,2090 0,2778 -0,0688 0,0688
6 171 -0,76 0,2236 0,3333 -0,1097 0,1097
7 236 -0,70 0,2420 0,3889 -0,1469 0,1469
8 271 -0,66 0,2546 0,4444 -0,1898 0,1898
9 428 -0,52 0,3015 0,5000 -0,1985 0,1985
10 512 -0,44 0,3300 0,5556 -0,2256 0,2256
11 579 -0,38 0,3520 0,6111 -0,2591 0,2591
12 749 -0,22 0,4129 0,6667 -0,2538 0,2538
13 1537 0,52 0,6985 0,7222 -0,0237 0,0237
14 2100 1,05 0,8531 0,7778 0,0753 0,0753
15 2327 1,26 0,8962 0,8333 0,0629 0,0629
16 2502 1,43 0,9236 0,8889 0,0347 0,0347
17 2810 1,72 0,9573 0,9444 0,0129 0,0129
18 2950 1,85 0,9678 1,0000 -0,0322 0,0322
 i  i
Então, L  sup F z  S z = 0,2591. O valor tabelado L
0,01
(18)  0,239 .
Como L  0,2591  L (18)  0,239 , rejeita-se H , ou seja, os dados não
0,01 0
podem ser analisados com base na distribuição normal. Portanto, os dados
devem ser transformados para se verificar se pressuposição de normalidade
passa a ser atendida.
Um procedimento prático para aplicação do teste de Shapiro-Wilk é o seguinte: é
mais indicado quando o tamanho da amostra for menor que 50.
O procedimento para obtenção da estatística de teste é o seguinte:
1) Os erros ( e  Y  Y ) devem ser organizados em ordem crescente;
i i
2) As hipóteses consideradas são:
H : Os erros (ou dados) seguem a distribuição normal;
0
H a : Os erros (ou dados) não seguem a distribuição normal;
3) A estatística-teste é dada por:
g2
 
m n
W , em que: g   a e  e , SQE   e2 , e  Y  Y ,
SQE i1 i,n ni1 i i 1 i i i
m  n / 2 se n é par e m  (n 1) / 2 se n é ímpar, ai,n : obtido na Tabela de
Coeficientes de Shapiro-Wilk, n : tamanho da amostra (ou número de parcelas),
SQE: soma de quadrados do erro (ou resíduo).
4) A regra de decisão estatística do teste é a seguinte: se o valor W for menor
que W , obtido na Tabela de Valores Críticos de Shapiro-Wilk em função do
 ( n)
tamanho da amostra ( n ) e do nível de significância (  ) desejado, rejeita-se H ,
0
ou seja, os dados da característica da população em estudo (ou os erros) não
seguem a distribuição normal. Se W  W não se rejeita H , ou seja, os
 (n) 0
dados (ou os erros) seguem a distribuição normal.

Exemplo de Aplicação: Considere os dados de percentagem de germinação de


sementes de Dolichos biflorus L. em diferentes temperaturas (Extraído de
Santana e Ranal, 2004), apresentados a seguir.

Temperatura (0C) Repetições (j)


Tratamento (i) 1 2 3 4 5 Yi.
35,0 96,0 100,0 89,0 100,0 96,0 Y  98,0
1.
37,8 76,0 92,0 88,0 84,0 94,0 Y  86,8
2.
38,5 72,0 94,0 64,0 82,0 32,0 Y  68,8
3.
39,2 38,0 30,0 54,0 40,0 42,0 Y  40,8
4.
O teste de normalidade de Shapiro-Wilk é realizado da seguinte forma:

1) Os valores dos erros das n  20 parcelas são calculados são calculados com
base na seguinte expressão: e  Y  Y . Por exemplo, para o tratamento 1 e a
ij ij i.
repetição 1, o valor de e  96  98  2 . Os valores de eij em ordem
11
crescentes e representados apenas por e , estão representados no quadro a
i
seguir:

Parcelas ( i ) Erro e  i
1 -36,8
2 -10,8
3 -10,8
4 -4,8
5 -2,8
6 -2,8
7 -2,0
8 -2,0
9 -0,8
10 0,0
11 1,2
12 1,2
13 2,0
14 2,0
15 3,2
16 5,2
17 7,2
18 13,2
19 13,2
20 25,2

2) As hipóteses estatísticas são formuladas e o nível de significância é escolhido:


H : os dados (ou os erros) da característica percentagem de germinação
0
ajustam-se à distribuição normal;
H a : os dados (ou os erros) da característica percentagem de germinação não se
ajustam à distribuição normal.
O nível de significância adotado é de 5% de probabilidade (p < 0,05).
3) O valor da estatística de teste é obtido com base nos cálculos seguintes:
Como n é par, então m  n / 2  20/ 2  10 , e o valor de g é dado por

 
m
g   ai,n e  ei ou
i1 n i 1
g  0,4734(25,2  36,8)  0,3211(13,2 10,8)   0,0140(1,2  0,0)  48,6552 ,
em que os valores dos coeficientes a
i,n são obtidos na Tabela de Coeficientes de
Shapiro-Wilk. A Soma de Quadrados do Erro é dada por
n
SQE   ei2  (36,8)2  (10,8)2   (25,2)2  2718,4 . Então, o valor da
i1
g 2 (48,6552)2
estatística de teste é W    0,8708 .
SQE 2718,4
4) A decisão estatística do teste é a seguinte: como
W  0,8708  W  0,905 , rejeita-se H e conclui-se que os dados da
0,05(20) 0
característica percentagem de germinação não se ajustam à distribuição normal.
Alguns aplicativos computacionais apresentam problema para a aplicação dos
testes de normalidade. Por exemplo, frequentemente os aplicativos não
reconhecem que para uma amostra o valor de s é o desvio padrão de uma

 
2
Yi  Y
amostra de tamanho n , ou seja, s  , e que para duas ou mais
n 1
amostras o valor de s é a raiz quadrada do quadrado médio do erro (ou resíduo),
que para o delineamento inteiramente casualizado, é dado por
n
 ei2
s  QME  i1 .
t (r  1)

7.4 - Medidas Corretivas ou Transformação de Dados

Afastamentos (não adequação) em relação a qualquer uma das


pressuposições da análise de variância irão alterar de alguma forma as suas
propriedades padrões. O que ocorre, na realidade é que nem sempre todas as
pressuposições são satisfeitas e, nesse caso, a técnica estatística utilizada é
apenas aproximada.
Geralmente os fatores que causam mais distúrbios na análise de variância
são: assimetria extrema, presença de erros grosseiros, comportamento anormal
de certos tratamentos ou de parte do experimento, não-aditividade e variâncias
residuais como funções das médias. Os métodos utilizados para controlar estes
distúrbios são: omissão de determinada parte do experimento, subdivisão da
variância residual e transformação dos dados para uma outra escala antes da
análise de variância. Uma transformação adequada dos dados seria aquela em
que: (a) a variância da variável transformada não fosse afetada por mudanças do
valor médio; (b) a variável transformada fosse normalmente distribuída; (c) a
escala de transformação fosse tal que a média aritmética estimasse
imparcialmente a média verdadeira; (d) a escala de transformação fosse tal que
os efeitos reais fossem lineares.
Entretanto, se a variação entre a análise com dados transformados e não-
transformados for muito pequena, a utilidade da transformação é duvidosa.
Quando se tem dúvida quanto a transformação ser adequada ou não, deve-se
transformar os dados e depois verificar se as pressuposições foram satisfeitas.
Quando realizamos a transformação dos dados, todas as estimativas e
inferências devem ser feitas na nova escala, sendo que as médias podem ser
retransformadas para a escala original. Os tipos de transformações mais comuns
são as seguintes:

7.4.1 - Transformação Raiz Quadrada  Y


É utilizada quando os dados são provenientes de contagens, que
geralmente seguem a distribuição de Poisson, na qual a média é igual a variância;
na prática observa-se que a variância tende a ser proporcional à média. Quando
entre os dados ocorrem valores pequenos, inferiores a 10 e, principalmente zeros,
as transformações Y  0,5 , Y  1,0 ou Y  Y  1 estabilizam a variância mais
efetivamente que Y , sendo Y o valor observado.

7.4.2 - Transformação Angular (Arcsen Y / 100 )

Recomendável para dados de proporção (Y/N) ou percentagens (Y/N x


100), especialmente quando as percentagens cobrem uma grande amplitude de
valores. Este tipo de dado geralmente segue uma distribuição binomial; existem
tabelas apropriadas para essa transformação. Neste caso a variância é ao redor
de 50% e diminui quando a média cai para zero ou sobe para 100%.
Se as percentagens estiverem na faixa de 30 a 70%, torna-se
desnecessária a transformação e analisamos os dados originais. Além disso, o
valor zero deve ser corrigido para 1/4N e o valor 100% para 100 (1-1/4N) antes da
transformação, onde N é o número total sobre o qual a percentagem foi calculada.
Esta é uma correção empírica, sugerida por BARTLETT, para melhorar a
igualdade de variâncias.
A transformação é também desnecessária quando as percentagens são
resultantes da divisão dos valores observados nas parcelas por um valor
constante ou quando são representativas de concentração.

7.4.3 - Transformação Logarítmica  log Y 


Quando temos dados onde os desvios padrões dos tratamentos são
aproximadamente proporcionais às médias, a transformação mais eficiente é a
logarítmica. Esse tipo de relação entre média e desvio padrão é encontrado,
geralmente, quando os efeitos são multiplicativos em lugar de aditivos. Nesta
situação, a transformação logarítmica, além de estabilizar a variância, produz
aditividade nos efeitos e tende a normalizar a distribuição dos erros.
Se ocorrem zeros entre os dados recomenda-se a adição de 1 a todos os
dados antes da transformação. Para dados menores que 1 recomenda-se
multiplicar todos os valores por uma constante para evitarmos logaritmos
negativos.

7.4.4 - Transformação Recíproca  1/ Y 


Aplicável quando o desvio padrão é proporcional ao quadrado da média.

EXEMPLO DE APLICAÇÃO
1. Os dados a seguir referem-se a notas (médias de seis frutos) atribuídas à podridão
mole da manga, sob diferentes tratamentos térmicos. O experimento foi
realizado no delineamento inteiramente casualizado.

Repetições Totais de
Tratamentos
I II III IV Tratamentos
T1 1,6 1,7 1,3 1,4 6,0
T2 1,2 1,6 1,5 1,1 5,4
T3 1,8 1,4 1,2 1,4 5,8
T4 2,1 2,0 1,8 1,5 7,4
T5 1,4 1,7 1,8 1,7 6,6
T6 2,6 2,2 1,5 2,1 8,4
T7 1,8 2,5 2,3 1,6 8,2
47,8
Pede-se:
1) Utilizar os dados originais para:
1.1) Fazer análise de variância;
1.2) Obter o coeficiente de variação;
1.3) Aplicar os testes de Tukey e Duncan a 5% de probabilidade;
1.4) Verificar a homogeneidade de variâncias.
2) Repetir os cálculos do item (1) para os dados transformados em Y.
3) Comparar os resultados obtidos em (1) e (2).
Solução:
1.1) Análise de variância - feita da forma usual, apresentou o resultado
seguinte:

F.V. S.Q. G.L. Q.M. F


Tratamentos 2,1286 6 0,3547 3,90**
Resíduo 1,9099 21 0,0909
Total 4,0385 27

1.2) Coeficiente de variação:


100 QMRe s 100 0,0909
CV    17,66%
Y.. 1,7071

1.3) Teste de Tukey:


QM Re s
q
r
n  7
q5% 
n'  21 (não tem diretamente na tabela)
Devemos fazer uma interpolação harmônica:
n  7 n  7
q 5%  q 5%  4,62 q 5%  q 5%  4,54
n'  20 n'  24
1 1
  4,62  4,54  0,08
20 24
1 1
  x
20 21
4
 0,08
(20)( 24)
1
 x
(20)( 21)
1
(0,08) 0,08
(20)(21) (0,08)( 6)
x   21   0,02
4 1 21
(20)( 24) 6
Então q5%  4,62  0,02  4,60 ; logo temos que

0,0909
  4,60  0,69
4
Os possíveis contrastes entre as médias de tratamentos são:
 x n! 7!
C n      C7   21 contrastes.
x 2

 n  x! (n  x )! 2! (7  2)!

Quadro de contrastes:

m̂ 1 m̂ 2 m̂ 3 m̂ 4 m̂ 5 m̂ 6 m̂ 7
(1,50 ) (1,35 ) (1,45 ) (1,85 ) (1,65 ) ( 2,10 ) ( 2,05 )

m̂1 (1,50) 0,15 0,05 0,35 0,15 0,60 0,55


m̂ 2 (1,35) 0,10 0,50 0,30 0,75* 0,70*
m̂ 3 (1,45) 0,40 0,20 0,65 0,60
m̂ 4 (1,85) 0,20 0,25 0,20
m̂ 5 (1,65) 0,45 0,40
m̂ 6 (2,10) 0,05
m̂ 7 (2,05)

  d.m.s. de Tukey  69
Teste de Duncan:
n  número de médias abrangidas pelo contraste
Zi 
n'  número de graus de liberdade do resíduo
Médias de tratamentos em ordem decrescente:
m̂ 6  2,10
m̂ 7  205
m̂ 4  1,85
m̂ 5  1,65
m̂ 1  1,50
m̂ 3  1,45
m̂ 2  1,35
a) Contraste abrangendo 7 médias:
n  7 n  7 n  7
Z 7 (5%)  Z 7 (5%)   3,34 Z 7 (5%)   3,32
n'  21 n'  20 n'  22
1 1 1
   3,34  3,32  0,02
20 22 220
1 1 1
   x
20 21 420
1/ 420(0,02)
x   0,01; log o
1/ 220
0,0909
Z 7  3,34  0,01  3,33 e D 7  3,33  0,50
4
m̂ 6  m̂ 2  2,10  1,35  0,75 *

b) Contrastes abrangendo 6 médias:


Através de interpolação harmônica obtêm-se
n  6
Z 6 (5%)   Z 6 (5%)  3,295 e D 6  0,49
n'  21
m̂ 6  m̂ 3  2,10  1,45  0,65 *
m̂ 7  m̂ 2  2,05  1,35  0,70 *

c) Contrastes abrangendo 5 médias:


Por interpolação harmônica obtêm-se
n  5
Z 5 (5%)   Z 5 (5%)  3,245 e D 5  0,48
n'  21
m̂ 6  m̂1  2,10  1,50  0,60 *
m̂ 7  m̂ 3  2,05  1,45  0,60 *
m̂ 4  m̂ 2  1,85  1,35  0,50 *

d) Contrastes abrangendo 4 médias:


Por interpolação harmônica obtêm-se
n  4
Z 4 (5%)   Z 4 (5%)  3,175 e D 4  0,47
n'  21
m̂ 6  m̂ 5  2,10  1,65  0,45 ns
m̂ 7  m̂1  2,05  1,50  0,55 *
m̂ 4  m̂ 3  1,85  1,45  0,40 ns
m̂ 5  m̂ 2  1,65  1,35  0,30 ns

e) Contrastes abrangendo 3 médias:


Por interpolação harmônica obtêm-se
n  3
Z 3 (5%)   Z 3 (5%)  3,09 e D 3  0,46
n'  21
m̂ 6  m̂ 4  2,10  1,85  0,25 ns
m̂ 7  m̂ 5  2,05  1,65  0,40 ns
m̂ 4  m̂1  1,85  1,50  0,35 ns
m̂ 5  m̂ 3  1,65  1,45  0,20 ns
m̂1  m̂ 2  1,50  1,35  0,25 ns

f) Contrastes abrangendo 2 médias:


Não precisam ser testadas porque não houve nenhum contraste
significativo envolvendo 3 médias.
1.4) Teste de homogeneidade de variâncias:
Vamos utilizar o teste da razão máxima de Hartley que é dado por
S 2 máx
Hc  , que é comparado com os valores críticos H( g; r 1)  . Para tal, devemos
S 2 mín
calcular as variâncias dentro de cada tratamento (quadrados médios
independentes) como:

 X   X 
2 2
/n
S 2
 . Logo temos:
n 1
9,10  (6, 0) 2 / 4
S 
1
2
 0, 0333  var iância de T1
3
7, 46  7, 290
S2 2   0, 0566  var iância de T2
3
8, 60  8, 41
S3 2   0, 0633  var iância de T3
3
13,90  13, 690
S4 2   0, 0700  var iância de T4
3
10,980  10,890
S5 2   0, 0300  var iância de T5
3
18, 260  17, 640
S6 2   0, 2066  var iância de T6
3
17,340  16,810
S7 2   0,1766  var iância de T7
3
g

S i
2
0, 6364
2
S Media  i 1
  0, 0909  QM Re s.
g 7
0, 2066
Hc   6,8866ns
0, 0300
g
H 
r  1
H5%  72,9 e H1%  216
onde:
g  número de grupos de quadrados médios independentes  7 .
r 1  número de g.l. de cada grupo ou número de g.l. de cada quadrado
médio  3
Hc  6,89  H( 7;3 ) 0,01  216 
não podemos rejeitar a hipótese nula e
concluímos que existe homogeneidade de variâncias, ou seja, o papel do acaso é
igual para todos os tratamentos; nesse caso, não seria necessário transformar os
dados.
2) Cálculos do ítem (1) para os dados transformados para a escala
Y:
Transformamos cada dado e calculamos a análise de variância:

F.V. S.Q. G.L. Q.M. F


Tratamentos 0,3021 6 0,0503 3,96**
Resíduo 0,2627 21 0,0127
Total 0,5693 27

CV  8,70%
Teste de Hartley para homogeneidade de variância:
 0,0053;  0,0108;  0,0108;  0,0095;
2 2 2 2
S1 S2 S3 S4
 0,0048;  0,0262;  0,0218;
2 2 2
S5 S6 S7

S Média  0,0892 / 7  0,0127  QM Re s.


2

0,0262
Hc   5,45 ns
0,0048
Hc  5,45  H( 3;7 ) 0,01  216  Hc não significativo; não rejeita-se Ho e conclui-
se que as variâncias residuais dos tratamentos são homogêneas.
Teste de Tukey:
n  7
q   q5%  4,60
n'  21
0,0127
  4,60  0,26
4
Quadro de contrastes possíveis:

m̂1 m̂ 2 m̂ 3 m̂ 4 m̂ 5 m̂ 6 m̂ 7

m̂ 1 0,07 0,03 0,13 0,06 0,21 0,20


m̂ 2 0,04 0,20 0,13 0,28* 0,27*
m̂ 3 0,16 0,09 0,24 0,23
m̂ 4 0,07 0,08 0,07
m̂ 5 0,15 0,14
m̂ 6 0,01
m̂ 7
Teste de Duncan:
a) Contrastes abrangendo 7 médias:
0,0127
D 7  3,33  0,19
4
m̂ 6  m̂ 2  1,43  1,15  0,28 *

b) Contrastes abrangendo 6 médias:


0,0127
D 6  3,295  0,18
4
m̂ 6  m̂ 3  1,43  1,19  0,24 *
m̂ 7  m̂ 2  1,42  1,15  0,27 *

b) Contrastes abrangendo 5 médias:


D 5  3,245 (0,056)  0,18
m̂ 6  m̂1  1,43  1,22  0,21 *
m̂ 7  m̂ 3  1,42  1,19  0,23 *
m̂ 4  m̂ 2  1,35  1,15  0,20 *

d) Contrastes abrangendo 4 médias:


D 4  3,175 (0,056)  0,18
m̂ 6  m̂ 5  1,43  1,28  0,15
m̂ 7  m̂1  1,42  1,22  0,20 *
m̂ 4  m̂ 3  1,35  1,19  0,16
m̂ 5  m̂ 2  1,28  1,15  0,13

e) Contrastes abrangendo 3 médias:


D 3  3,09 (0,056)  0,17
m̂ 6  m̂ 4  1,43  1,35  0,08 ns
m̂ 7  m̂ 5  1,42  1,28  0,14 ns
m̂ 4  m̂1  1,35  1,22  0,13 ns
m̂ 5  m̂ 3  1,28  1,19  0,09 ns
m̂1  m̂ 2  1,22  1,15  0,07 ns

f) Contrastes abrangendo 2 médias:


Não precisam ser testadas porque não houve nenhum contraste
significativo abrangendo 3 médias.
3) Comparação dos resultados obtidos nos ítens (1) e (2):
Comparando-se os resultados obtidos com os dados originais e com
os dados transformados, observamos que:
a) Tanto para os dados originais quanto para os dados transformados o valor de F
foi significativo ao nível de 1% de probabilidade. O teste de Hartley demonstrou
a homogeneidade das variâncias dos tratamentos. Desta forma, a transformação
dos dados seria dispensável.
b) Em relação às estatísticas calculadas observa-se que:
 O valor de F calculado é maior para os dados transformados
(F  3,96) do que para os dados originais (F  3,90) .
 O valor de Hc é menor para os dados transformados (Hc  5,45) do
que para os dados originais (Hc  6,88) .
Conclui-se, portanto, que a transformação dos dados coloca os
valores de F e Hc em condições que favorecem a detecção de diferenças
entre tratamentos (no caso de F) e a homogeneidade das variâncias de
tratamentos (no caso de Hc).
c) O coeficiente de variação foi diminuído de 17,66% (nos dados originais) para
8,70% (nos dados transformados).
d) Tanto para os dados originais quanto para os dados transformados, os testes de
comparação de médias, de Tukey e Duncan, apresentaram significância, ao nível
de 5% de probabilidade, para os seguintes contrastes:
m̂ 6  m̂ 2 ; m̂ 7  m̂ 2 ; m̂ 6  m̂3 ; m̂ 6  m̂1; m̂ 7  m̂ 3 ; m̂ 4  m̂ 2 e m̂ 7  m̂1 .

Portanto, os testes apresentaram o mesmo desempenho para os


dados originais e para os dados transformados.

2. Num ensaio com bananeiras, realizado pelo Dr. Jairo Ribeiro de Matos, da E.S.A.
“Luiz de Queiroz”, em Piracicaba, SP, foram obtidos os seguintes pesos
médios (em Kg) de cacho:

13,9 18,9 21,1 22,2 23,4


17,7 19,4 21,3 22,7 23,8
17,9 19,8 21,7 22,8 24,4
18,3 20,2 21,9 23,2 24,4
18,5 20,6 22,0 23,3 24,9

Fonte: Campos (1983).

Pergunta-se: Seria razoável estudar os dados através de uma distribuição


normal de média m̂  20,0 e variância  2  5,25 ?
Solução: Vamos aplicar o teste de Lilliefors para normalidade, o que é feito
da maneira seguinte:

m̂ 
 X  528,3  21,13
n 25
 X   X 
2 2
/n
S 2
  6,8856 S  2,624
n 1
X i  m̂
Temos que Z i  , i  1, 2, , n, logo,
S
X i  21,13
Zi  . Os valores F( Z i ) são obtidos na Tabela de Distribuição
2,624
K K
Normal Padronizada e S (Z i )   e K  número de valores obtidos  Z i .
n 25
Organizamos então o quadro seguinte (com os dados em ordem
crescente):

X Zi F(Zi) S(Zi)  F(Zi) – S(Zi) 


13,9 -2,76 0,003 0,040 0,037
17,7 -1,31 0,095 0,080 0,015
17,9 -1,23 0,109 0,120 0,011
18,3 -1,08 0,140 0,160 0,020
18,5 -1,00 0,159 0,200 0,041
18,9 -0,85 0,198 0,240 0,042
19,4 -0,66 0,255 0,280 0,025
19,8 -0,51 0,305 0,320 0,015
20,2 -0,35 0,363 0,360 0,003
20,6 -0,20 0,421 0,400 0,021
21,1 0,00 0,500 0,440 0,060
21,3 0,06 0,524 0,480 0,044
21,7 0,22 0,587 0,520 0,067
21,9 0,29 0,614 0,560 0,054
22,0 0,33 0,629 0,600 0,029
22,2 0,41 0,659 0,640 0,019

Continua...
Continuação...
X Zi F(Zi) S(Zi)  F(Zi) – S(Zi) 
22,7 0,60 0,726 0,680 0,046
22,8 0,64 0,739 0,720 0,019
23,1 0,79 0,785 0,760 0,025
23,1 0,83 0,797 0,800 0,003
23,1 0,86 0,805 0,840 0,035
23,1 1,02 0,846 0,880 0,034
24,4 1,25 0,894 0,960 0,066
24,9 1,44 0,925 1,000 0,075

i
   
O valor da estatística D é calculado como D  SupZ F Zi  S Zi , ou seja,

   
D é igual ao maior valor F Zi  S Zi . O valor de D é comparado com d ( n) , em
que  é a probabilidade de significância desejada e n é o número de
observações. O valor de d ( n) é obtido na Tabela de Lilliefors, sob as hipóteses:
H0: Os dados têm distribuição normal
Há: Os dados não têm distribuição normal
Se D  d ( n) , então não se rejeita a hipótese H0.
Logo temos que:
d 5%  0,173
D  0,075 d  (n  25) 
d1%  0,200
D  0, 075  d5% (25)  0,173 ( p  0, 05)  não rejeitamos a hipótese nulidade
e concluímos que é razoável estudar os dados com base na distribuição normal.

CAPÍTULO VIII

ANÁLISE CONJUNTA DE UMA SÉRIE DE EXPERIMENTOS

8.1 - Introdução

Para estudos afetados fortemente por fatores ambientais, um experimento


individual é muito limitado porque seus resultados são, estritamente, aplicáveis
apenas a um determinado local e em um determinado ano. É difícil extrapolar
resultados para outras situações devido a diferenças de solo, drenagem, manejo
do cultivo e variação do clima. Uma vez que, geralmente, os resultados
experimentais devem ser amplamente aplicados, necessita-se de alguma
extrapolação. Desta forma, um experimento individual tem pouco valor na
pesquisa agrícola. As recomendações práticas terão uma base segura apenas
com uma série extensiva de experimentos, em vários locais e durante vários
anos.
A série de locais deverá ser constituída pelo conjunto de localidades que
representam a população sobre a qual vão ser aplicados os resultados e
inferências agrícolas que derivarão do experimento. Seria desejável que a
escolha das localidades se fizesse ao acaso, mas isto, comumente, não é
possível pela falta de segurança de encontrar um local adequado para colocar o
experimento em todas as localidades sorteadas. Os experimentos deverão ser
conduzidos por, pelo menos, três anos para ter-se uma amostra razoável do
clima, e, ainda assim, não se pode assegurar que a amostra do meio ambiente é
típica do local.

8.2 - Delineamento, Disposição e Uniformidade dos Experimentos


O delineamento experimental deve ser comum a todas as localidades e/ou
anos, bem como outras especificações do experimento, tais como, número de
repetições, número de tratamentos, tamanho e forma das parcelas. A disposição
dos ensaios também deve ser a mesma em todas as localidades e/ou anos, mas
em cada localidade e ano deve-se usar uma casualização separada.
As combinações localidade-ano podem ser consideradas como fatores
ambientais. Algumas configurações das séries de experimentos que procuram
realizar uma amostragem ambiental são as seguintes:
a) As mesmas localidades são utilizadas ano após ano – neste caso temos que

Localidade – ano
Localidades
Anos
Localidades x Anos (Classificação Cruzada)
Se não há casualização a cada ano, estamos na situação de um experimento
permanente.
b) As localidades se modificam de ano em ano – neste caso temos

Localidade – ano
Anos
Localidades dentro de anos (Classificação Aninhada)
c) Cada localidade é representada por um ano diferente, ou seja, a cada ano o
experimento é instalado numa localidade diferente – então temos

Localidade – ano
Localidades
Anos dentro de localidades
É possível determinar se os tratamentos reagem diferentemente nos
diferentes ambientes utilizando-se a análise de variância conjunta de uma série
de experimentos. A presença de interação dos tratamentos com o ambiente
significa que é difícil generalizar sobre os tratamentos em todos os ambientes
representativos do estudo. Na prática, estas interações ocorrem muito
freqüentemente, o que significa que deve-se ter muita cautela ao fazer
recomendações gerais. Algum incremento em precisão deve resultar da
combinação de dados de uma série de experimentos numa análise de variância
conjunta, uma vez que o erro experimental (resíduo) é estimado com maior
precisão do que em um experimento simples.
Quando se procura combinar os dados de uma série de experimentos se
apresentam dois problemas estatísticos: (a) as variâncias entre localidades
podem não ser homogêneas e (b) as interações dos tratamentos com o ambiente
podem não ser homogêneas. Neste caso, deve-se testar a homogeneidade de
variâncias através do teste de Hartley. Pode-se subdividir as interações de
tratamentos com ambiente e testá-las separadamente.

8.3 - Análise de Variância Conjunta de uma Série de Experimentos


Vimos que os experimentos devem ser repetidos em várias condições
ambientais (locais, anos e/ou épocas). Neste caso, o erro padrão das médias de
tratamentos é dado por S X   TA2 /(a   2 / ar ) , onde  2 é a variância relativa ao
erro experimental;  TA 2 é a variância devida à interação tratamentos x ambientes;
r é o número de repetições por ambiente e a é o número de ambientes. Observa-
se, portanto, que o aumento do número de ambientes é mais eficiente para a
diminuição do erro padrão da média do que o aumento do número de repetições
por local, principalmente se a interação TA for de grande magnitude.
Observa-se que na prática, que é bastante comum a repetição do mesmo
experimento em diversos locais, anos ou épocas de semeadura, com o objetivo
de se fornecer informações que possam ser extensivas no espaço e no tempo.
Por exemplo, nos experimentos de melhoramento genético, a repetição de
experimentos em vários ambientes contribui para minimizar os efeitos da
interação genótipo x ambiente no progresso resultante da seleção.
Na análise de variância de uma série de experimentos, faz-se inicialmente
uma análise para cada ambiente (locais, anos ou épocas de semeadura), onde as
fontes de variação são aquelas determinadas pelo delineamento experimental
utilizado. Em seguida, faz-se uma análise de variância conjunta, englobando
todos os dados disponíveis, aparecendo então novas fontes de variação.
Por exemplo, na análise conjunta para vários locais, a S.Q. de Blocos d.
Locais é dada pela soma da S.Q. de Blocos de cada local, somando-se também
os graus de liberdade correspondentes. O mesmo procedimento é feito com o
erro médio, cuja soma de quadrados é a soma das S.Q. correspondentes de cada
local. Porém, uma restrição para se utilizar o erro médio é que haja
homogeneidade dos erros para os experimentos. A heterogeneidade dos erros
invalida o teste F da interação e dos tratamentos. Entretanto, se a interação T x L
(tratamentos x locais) for de grande magnitude, o teste F de tratamentos é menos
afetado pela heterogeneidade das variâncias dos experimentos.
Sob a hipótese de homogeneidade de variâncias do erro, para um modelo
aleatório, existem dois quadrados médios, Q.M.TL. e Q.M.Res., que podem ser
utilizados para testar os efeitos de tratamentos. Primeiramente, a interação é
testada contra o resíduo; se for significativa, esta deve ser o Q.M. adequado para
testar tratamentos. Se a interação não for significativa, então o Q.M. de
tratamentos deve ser testado diretamente com o Q.M.Res. (erro médio) ou então
pode-se obter uma média ponderada pelos graus de liberdade, envolvendo o
Q.M.Res. e o Q.M.TL, que servirá como denominador mais adequado para testar
os tratamentos. Às vezes, quando a interação não é estatisticamente significativa,
mas há razões ou evidências prévias de sua ocorrência, admite-se então a
presença implícita da interação, cujo quadrado médio é utilizado como
denominador no teste F para tratamentos. No modelo fixo, todos os efeitos são
testados em relação ao Q.M.Res. (erro médio).
A presença de interação significa, do ponto de vista estatístico, que os
efeitos de tratamentos não são consistentes de um ambiente para outro, ou seja,
os tratamentos apresentam comportamentos relativos diferentes nos diversos
ambientes. Por exemplo, se na mudança de um local para outro as produções das
variedades aumentam igualmente, diz-se que não há interação e que os
aumentos são devidos somente aos efeitos de locais. A interação variedades x
locais existe se uma ou mais variedades apresentarem aumentos
significativamente diferentes das demais. Do mesmo modo, a significância da
interação tripla indica que as interações simples de dois fatores não são
constantes quando se altera o terceiro fator. Por exemplo, a significância da
interação tripla variedade x locais x anos indica que a interação V x L varia
significativamente de um ano para outro.
Observa-se que a análise de variância conjunta de uma série de
experimentos é essencialmente uma extensão da análise de parcelas divididas
em que são necessários dois termos erro. Um erro é necessário para testar
locais, anos e a interação locais x anos, enquanto que outro erro é necessário
para testar tratamentos e todas as interações que envolvem tratamentos.
A aplicação completa da análise de variância a uma série de experimentos
combinados apresenta situações que requerem a seleção do erro (resíduo)
apropriado na interpretação dos resultados. Nestes casos, será útil levar em
consideração os componentes de variância para o estabelecimento do erro
apropriado para os tipos específicos de inferências.
Como base para inferências gerais, assume-se que locais e anos
constituem amostras representativas das populações de locais e anos, para as
quais os resultados serão aplicados. Desta forma, parece apropriado tomar locais
e anos como variáveis (ou fatores) aleatórios. Por outro lado, os tratamentos são
tomados como variável (ou fator) fixa. Portanto, sob o ponto de vista de análise de
variância, geralmente o modelo misto é apropriado para a análise conjunta de
uma série de experimentos com culturas anuais.
Considerando os componentes de variância, o princípio geral para a
formação de uma razão F é escolher duas estimativas de quadrados médios que
diferem em seus valores esperados em relação a apenas um termo, isto é, no
termo que corresponde ao efeito que está sendo testado.
O teste de significância para tratamentos pode não ser aparente a partir da
relação dos componentes de variância, ou seja, nenhuma das linhas na tabela de
análise de variância serve como um denominador apropriado para o teste F do
quadrado médio de tratamentos. Neste caso, Cochran & Cox sugerem um teste
aproximado F’, onde os graus de liberdade apropriados para o teste são
computados de acordo com Satterthwaite.
Observa-se, portanto, que, como o teste F é feito com base na análise de
variância, através de quocientes entre quadrados médios, torna-se imperativo
conhecer os componentes de variância contidos nos quadrados médios, a fim de
que se possa conhecer o denominador adequado para o quadrado médio
correspondente ao efeito que se quer testar, ou seja, deve-se conhecer as
esperanças matemáticas dos quadrados médios. Esta esperança matemática
corresponde a um valor médio esperado do quadrado médio, quando o
experimento é repetido infinitas vezes.
A esperança matemática dos quadrados médios depende da natureza do
modelo estatístico utilizado. São reconhecidos três modelos: (1) fixo; (2) aleatório
e (3) misto. No modelo fixo, todos os efeitos, com exceção do erro, são fixos; no
modelo aleatório todos os efeitos são aleatórios, com exceção da média do
experimento. O modelo misto inclui alguns efeitos fixos e alguns aleatórios.
Entretanto, a representação matemática do modelo independe da natureza dos
efeitos. Um efeito é dito aleatório quando ele constitui uma amostra aleatória de
uma população, e/ou não pode ser repetido no tempo ou no espaço. Um efeito é
fixo quando ele não constitui uma amostra da população.
O conhecimento das esperanças matemáticas dos quadrados médios é
necessário para a estimação dos componentes de variância, que são as
variâncias associadas com os efeitos aleatórios.
Os critérios para decidir se um fator é aleatório ou fixo são os seguintes:
1) Deve-se saber se o pesquisador deseja, ou não, generalizar seus resultados
e/ou conclusões para uma maior população de níveis do fator em estudo.
 Aleatório - quando se deseja fazer generalizações para uma população
maior, o que é justificado pela análise estatística.
 Fixo - quando não se deseja fazer generalizações para uma população de
níveis maior que a utilizada no seu experimento; qualquer generalização
feita, neste caso, será subjetiva e não justificada pela análise estatística.
2) Como foram determinados os níveis dos fatores utilizados no experimento?
 Aleatório - quando os níveis dos fatores forem determinados por
procedimentos aleatórios.
 Fixo - quando os níveis dos fatores forem determinados por quaisquer outros
procedimentos (critérios técnicos).
3) Deve-se saber se os níveis dos fatores de um experimento deveriam, ou não,
ser precisamente os mesmos se o experimento é realizado outra vez.
 Aleatório - quando em qualquer repetição de um experimento, os níveis não
são necessariamente os mesmos do experimento original.
 Fixo - quando em qualquer repetição de um experimento, os níveis serão
precisamente os mesmos do experimento original.
As regras para a determinação dos quadrados médios esperados, uma vez
especificado o modelo aleatório, por exemplo, Yijk     i   j  ( )ij   k (ij) ,
i  1, 2, , a j  1, 2,, b k  1, 2, , n , são as seguintes:

1º) Constrói-se uma tabela colocando nas linhas os termos correspondentes às


variáveis (fatores) do modelo e, nas colunas, as letras usadas como índices
para os respectivos termos (por exemplo, i é o índice de  ).
2º) Para cada letra do índice ausente na coluna correspondente ao encontro com
a variável do modelo colocada em determinada linha, escreve-se o número de
níveis correspondentes (a, b, n, etc.). Para o modelo considerado, constrói-se
a tabela seguinte:

i j k
i b n
j a n
(   ) ij n
 k (ij)

3º) Havendo termos aninhados, coloca-se 1 nas colunas correspondentes aos


índices entre parênteses, ou seja:

i j k
i b n
j a n
(   ) ij n
 k (ij) 1 1

4º) O restante da tabela é preenchido com termos da forma 1 p / P , em que p é o


número de elementos na amostra e P é o número de elementos na
população. Para o termo correspondente ao erro usa-se o valor 1, porque
admite-se que a população de cada célula seja infinita. Tem-se então:

i j k
a
i 1 b n
A
b
j a 1 n
B
a b
(   ) ij 1 1 n
A B
 k (ij) 1 1 1

5º) Para se encontrar os coeficientes dos Q.Ms esperados, associados com


determinado termo do modelo, utiliza-se o procedimento seguinte:
a) Cobrir a(s) coluna(s) correspondentes aos índices sem parênteses da
linha cujos componentes se pretende determinar. Ou seja, cobrir a coluna i
para se determinar os componentes de  i , cobrir a coluna j para se
determinar os componentes de  j e cobrir as colunas i e j para se
determinar os componentes (   ) ij .

b) Cobrir as linhas que não representam todos os índices existentes no termo


cujo quadrado médio esperado se calcula. Ou seja, cobre-se a linha  j
quando se determina o quadrado médio esperado para  . Cobrem-se as
linhas  i e  j ao se determinarem os componentes de ( ) .

c) O produto dos valores não cobertos, em cada linha descoberta, é o


coeficiente do componente de variância para o efeito representado
naquela linha. Ou seja, para se obter o quadrado médio esperado de 
cobre-se a coluna i e a linha  j . Os produtos dos valores descobertos para
cada linha são: bn, representando o coeficiente de   2 ; (1  b / B) n ,
representando o coeficiente de   2 e 1 x 1, representando o coeficiente
de   2 .
d) Obter todos os produtos, multiplicar pela componente de variância da linha
correspondente e somá-los para se obter os quadrados médios esperados
para todos os termos.
Em geral é mais fácil iniciar a tabela de baixo para cima. A composição
final da tabela, para o modelo aleatório anterior, é a seguinte:

i j k Q.M.E. ou [E(QM)]
a
i 1 b n   2  n (1  b / B)  2  nb  2
A
b
j a 1 n   2  n (1  a / A)  2  na   2
B
a b
(   ) ij 1 1 n   n 
2 2
A B
 k (ij) 1 1 1 
2

Se o modelo considerado fosse fixo teríamos a  A, b  B e portanto


(1  a / A)  0 e (1  b / B)  0 . Nesse caso, a composição dos quadrados médios
seria:
i j k Q.M.E. ou [E(QM)]

i 0 b n   nb 
2 2

j a 0 n  2  n a   2

(   ) ij 0 0 n   n 
2 2

 k (ij) 1 1 1 
2

8.4. Modelagem da Análise de Variância Conjunta

Considere um experimento genérico, desenvolvido no delineamento experimental


blocos casualizados, com t tratamentos e r repetições. Considere ainda que o
referido experimento foi instalado em l locais diferentes. O modelo estatístico
para a análise individual dos experimentos é o seguinte:

Yij    b j  ti  ij , em que:

Yij : observação no j-ésimo bloco, referente ao i-ésimo tratamento;


 : média geral;
b j : efeito do j-ésimo bloco, com j = 1, 2, ..., r;
ti : efeito do i-ésimo tratamento, com i = 1, 2, ..., t;
 ij : erro aleatório associado à observação ij .
O modelo estatístico para a análise conjunta do grupo de experimentos é o
seguinte:

Y    (b / l )  ti  l j  tlij   , em que:
ijk jk ijk
Y : observação no k-ésimo bloco, avaliado no j-ésimo local e i-ésimo
ijk
tratamento;
 : média geral;
(b / l ) : efeito do k-ésimo bloco (k = 1, 2, ..., r) dentro do j-ésimo local;
jk
ti : efeito do i-ésimo tratamento, com i = 1, 2, ..., t;
l j : efeito do j-ésimo local, com j = 1, 2, ..., l ;
tlij : efeito da interação entre o i-ésimo tratamento e o j-ésimo local;
 : erro aleatório associado à observação ijk , sendo que:
ijk
t: número de tratamentos;
r: número de repetições (blocos);
l: número de locais.

A metodologia de análise conjunta de grupo de experimentos consta,


basicamente, dos passos seguintes:

Primeiro Passo: Análise de Variância Individual (por Local ou Experimento)

O esquema de Análise de Variância é o seguinte:

FV GL QM F
Blocos r 1 QMB
Tratamentos t 1 QMT QMT / QMR
Resíduo
(r 1)(t 1) QMR
Total tr 1
Média Y..
CV% 100 QMR  Y
  ..
 

Segundo Passo: Teste de Homogeneidade das Variâncias Residuais

2
S max
Geralmente utiliza-se o teste de Hartley, cuja equação é : H .
2
S min

Terceiro Passo: Análise de Variância Conjunta dos Experimentos


FV GL QM F
Blocos / Local l(r 1) QMB
Locais (L) *
Tratamentos (T) l 1 QML *
LxT t 1 QMT *
Resíduo (l 1)(t 1) QMLxT
l[(r 1)(t 1)] QMR
Total trl 1
Média Y ...
CV%  100 QMR  Y
  ...
 

(*) A estatística F varia de acordo com a natureza do modelo, se fixa, aleatória ou


mista.
Quarto Passo: Estimação dos Componentes de Variância e dos Componentes
Quadráticos para as Fontes de Variação da Análise de Variância Conjunta

A obtenção das estimativas dos componentes de variância e componentes


quadráticos dos parâmetros do modelo e a realização dos testes de significância
(testes F) dessas estimativas dependem da natureza do modelo estatístico
adotado pelo pesquisador. Podem ser adotados os seguintes modelos: i) Modelo
Aleatório; ii) Modelo Fixo; iii) Modelo Misto, com efeito de local fixo; iv) Modelo
Misto, com efeito de tratamento fixo. A metodologia de estimação dos parâmetros
consiste na combinação entre os resultados da análise de variância e as
expressões das esperanças de quadrados médios das fontes de variação.
As esperanças dos quadrados médios, denotadas por E (QM), e as estatísticas
para o teste F em função da natureza do modelo, para o modelo em
consideração, são as seguintes:

Modelo 1: Efeitos Aleatórios: B, T, L, TL e R

FV GL E (QM) F
Blocos / Locais l (r  1)  2  t 2
b
Locais (L) l 1   r 2  t 2  tr 2
2 QML  QMR
tl b l QMB  QMTL
Tratamentos (T) 2 2
  r  lr t 2
t 1 tl QMT / QMTL
LxT
(l 1)(t 1) QMTL / QMR
 2  r 2
Resíduo tl
[(r 1)(t 1)]l 2
Modelo 2: Efeitos Aleatórios: B e R; Efeitos Fixos: T, L e TL

FV GL E (QM) F
Blocos / Locais l (r  1)  2  t 2
b
Locais (L) l 1  2  t 2  tr QML QMB
b l
Tratamentos (T)
t 1 QMT QMR
 2  lrt
TxL
(l 1)(t 1) QMTL QMR
 2  r
Resíduo tl
[(r 1)(t 1)]l
2

Modelo 3: Efeitos Aleatórios: B, L, TL e R; Efeito Fixo: T

FV GL E (QM) F
Blocos / Locais l (r  1)  2  t 2
b
Locais (L) l 1   t 2  tr 2
2 QML QMB
b l
Tratamentos (T)
t 1 QMT / QMTL
 2  r  2  lrt
TxL tl
(l 1)(t 1) QMTL / QMR
 r 2
2
Resíduo tl
[(r 1)(t 1)]l  2
= t / (t-1)

Modelo 4: Efeitos Aleatórios: B, T, TL e R; Efeito Fixo: L

FV GL E (QM) F
Blocos / Locais l (r  1)  2  t 2
b
Locais (L) l 1  2  r  2  t 2  tr QMA  QMR
tl b l QMB  QMTL
Tratamentos(T) 2
  lr t2
t 1 QMT QMR
TxL (l 1)(t 1)
2 r 2 QMTL QMR
Resíduo [(r 1)(t 1)]l tl
2
= l / (l-1)

As estimativas dos componentes de variância (valores ˆ 2 ), obtidas para os


fatores de efeitos aleatórios, e dos componentes quadráticos (valores ˆ ),
obtidos para os fatores de efeitos fixos, para os modelos anteriores, são dadas
pelas seguintes expressões:

a) Para o fator Tratamento (T)

QMT  QMTL
Modelo 1: ˆt2  ;
lr

QMT  QMR
Modelo 2: ˆt  ;
lr

QMT  QMTL
Modelo 3: ˆt  ;
lr

QMT  QMR
Modelo 4: ˆt2  ;
lr
b) Para o fator Local (L)

(QML  QMR)  (QMTL  QMB)


Modelo 1: ˆ 2  ;
l tr

QML  QMB
Modelo 2: ˆ  ;
l tr

QML  QMB
Modelo 3: ˆ 2  ;
l tr

(QML  QMR)  (QMTL  QMB)


Modelo 4: ˆ  ;
l tr
c) Para a Interação Tratamentos x Locais (T x L)

QMTL  QMR
Modelo 1: ˆ 2  ;
tl r

QMTL  QMR
Modelo 2: ˆ  ;
tl r
(QMTL  QMR)  t 1 
Modelo 3: ˆ 2   t ;
tl r  

(QMTL  QMR)  l 1 
Modelo 4: ˆ 2   l .
tl r  

Os números de graus de liberdade associados às estatísticas F, cujas expressões


contenham no numerador e, ou, no denominador dois ou mais quadrados médios,
são obtidos pelas seguintes expressões:

QML  QMR
Para F  , que testa a significância do fator local no Modelo 1, os
QMB  QMTL
números de graus de liberdade associados ao numerador e ao denominador são,
respectivamente:

2 2
n 
QML  QMR  e n 
QMB  QMTL  .
1 2 2 2 2 2
QML   QMR  QMB   QMTL 
l 1 l (r 1)(t 1) l (r 1) (a 1)(t 1)

As estimativas das correlações intraclasse são dadas pelas seguintes


expressões:

ˆt2
Modelo 1:  ;
ˆt2  ˆ 2  ˆ 2
tl

ˆt
Modelo 2:  ;
ˆt  ˆ 2

ˆt
Modelo 3:  ;
ˆt  ˆ 2  ˆ 2
tl

ˆt2
Modelo 4:  .
ˆt2  ˆ 2
Na obtenção dessas estimativas tem-se ˆ 2  QMR .

Observe que, para os fatores de efeitos aleatórios no modelo adotado são


estimados os componentes de variância, que fornecem uma estimativa da
variabilidade dos fatores, uma vez que os níveis estudados desses fatores são
considerados como uma amostra aleatória de uma população de níveis. Por outro
lado, para os fatores de efeitos fixos são estimados os componentes
quadráticos, que são submetidos a testes de significância para avaliar se existe
diferença significativa entre as médias dos níveis dos fatores.
No caso dos componentes de variância não são realizados testes de significância,
mas são estimados para os mesmos variâncias e intervalos de confiança. Note
que, embora a análise de variância seja realizada da maneira usual, dependendo
da natureza do modelo (fixa, aleatória ou mista) as estimativas dos componentes
de variância, dos componentes quadráticos e dos valores das estatísticas do teste
F podem assumir resultados diferenciados, devido às diferentes composições das
expressões das esperanças dos quadrados médios.

Considere agora que os experimentos desenvolvidos em diferentes locais foram


realizados durante vários anos. Nesse caso, o modelo estatístico para a análise
conjunta do grupo de experimentos é o seguinte:

Y    Ti  A j  L  ( B / A) / L  TAij  TL  AL  TAL   ,
ijkm k jkm ik jk ijk ijkm
em que:

 : média geral;

Ti , A j e L : efeitos de tratamentos, anos e locais, respectivamente;


k

( B / A) / L : efeito de blocos dentro de anos e ambos dentro de locais;


jkm

TAij , TL e AL : efeitos das interações de primeira ordem entre tratamentos e


ik jk
anos, tratamentos e locais e anos e locais, respectivamente;

TAL : efeito da interação de segunda ordem entre tratamentos, anos e locais;


ijk

 : erro aleatório.
ijkm
Neste modelo têm-se: i = 1, 2, ..., t; j = 1, 2, ..., a; k = 1, 2, ..., l ; m=
1, 2, ..., r.

A análise é realizada adotando-se os passos seguintes:

Primeiro Passo: Análises de Variância Individuais dos a x l Experimentos


O esquema de Análise de Variância é o seguinte:

FV GL QM F
Blocos r 1 QMB
Tratamentos t 1 QMT QMT / QMR
Resíduo
(r 1)(t 1) QMR
Total tr 1
Média Y..
CV% 100 QMR  Y
  ..
 
Segundo Passo: Teste de Homogeneidade de Variâncias Residuais
2
S max
Geralmente utiliza-se o teste de Hartley, cuja equação é : H .
2
S min

Terceiro Passo: Análise de Variância Conjunta do Grupo de Experimentos

O esquema da análise de variância conjunta é o seguinte:

FV GL SQ QM
(B / A) / L (r 1)al SQB QMB

Anos (A) a 1 SQA QMA

Locais (L) SQL QML


l 1
Tratamentos (T) SQT QMT
t 1
TxA SQTA QMTA
(t 1)(a 1)
TxL SQTL QMTL
(t 1)(l 1)
AxL SQAL QMAL
(a 1)(l 1)
T x A xL SQTAL QMTAL

Resíduo
(t 1)(a 1)(l 1) SQR QMR

(r 1)(t  1)al

Quarto Passo: Estimação dos Componentes de Variância e dos Componentes


Quadráticos das Fontes de Variação da Análise de Variância Conjunta

As expressões das esperanças de quadrados médios [E (QM)] são obtidas com


base nas pressuposições feitas a respeito da natureza dos efeitos (fixa, aleatória
ou mista) dos fatores envolvidos no modelo. Toda interação envolvendo pelo
menos um fator de efeito aleatório é considerada como aleatória. Desta forma, as
alternativas de modelos para essas estimações são as seguintes:
Modelo 1: Efeitos Aleatórios: anos, locais, tratamentos, blocos e resíduo

FV E (QM)
(B / A) / L  2  t 2
b
Anos (A)  2  r 2  t 2  rt 2  rl ta
2  rtl 2
a
tal b al
Locais (L)
 2  r 2  t 2  rt 2  ra 2  rta 2
Tratamentos (T) tal b al tl l

TxA  2  r 2  ra 2  rl ta


2  ral 2
t
tal tl
TxL 2 2
  r  rl ta 2
tal
AxL  2  r 2  ra 2
tal tl
TxAxL  2  r 2  t 2  rt 2
tal b al
Resíduo 2
  r 2
tal
 2

As estatísticas para os testes F das fontes de variação são representadas como a


seguir:

FV F
Tratamentos (T) (QMT+QMTAL)/(QMTA+QMTL)
Anos (A) (QMA+QMTAL)/(QMTA+QMAL)
Locais (L) (QML+QMTAL)/(QMTL+QMAL)
TxA QMTA/QMTAL
TxL QMTL/QMTAL
AxL (QMAL+QMR)/(QMB+QMTAL)
TxAxL QMTAL/QMR

Modelo 2: Efeitos aleatórios: locais, tratamentos e blocos; efeito fixo: anos.

FV E (QM)
(B/A)/L  2  t 2
b
Anos (A)  2  r 2  t 2  rt 2  rl ta
2  rtl
a
tal b al
Locais (L)  2  t 2  ra 2  rta 2
b tl l
Tratamentos (T)  2  ra 2  ral t2
tl
TxA  2  r 2  rl ta 2
tal
TxL  2  ra 2
tl
AxL  2  r 2  t 2  rt 2
tal b al
TxAxL  2  r 2
tal
Resíduo 2
  a /(a 1)

As estatísticas para os testes F das fontes de variação são representadas como a


seguir:

FV F
Tratamentos (T) QMT/QMTL
Anos (A) (QMA + QMTAL)/(QMTA+QMAL)
Locais (L) (QML+QMR)/(QMB+QMTL)
TxA QMTA/QMTAL
TxL QMTL/QMR
AxL (QMAL+QMR)/(QMB+QMTAL)
TxAxL QMTAL/QMR

Modelo 3: Efeitos aleatórios: anos, tratamentos e blocos; fixo: locais

FV E (QM)
(B/A)/L  2  t 2
b
Anos (A)  2  t 2  rl ta
2  rtl 2
a
b
Locais (L)  2  r 2  t 2  rt 2  ra 2  rta
tal b al tl l
Tratamentos (T)  2  rl ta
2  ral 2
t
TxA  2  rlta
2

TxL  2  r 2  ra 2


tal tl
AxL  2  r 2  t 2  rt 2
tal b al
TxAxL  2  r 2
tal
Resíduo 2
  l /(l 1)

As estatísticas para os testes F das fontes de variação são representadas como a


seguir:

FV F
Tratamentos (T) QMT/QMTA
Anos (A) (QMA+QMR)/(QMB+QMTA)
Locais (L) (QML+QMTAL)/(QMTL+QMAL)
TxA QMTA/QMR
TxL QMTL/QMTAL
AxL (QMAL+QMR)/QMB+QMTAL)
TxAxL QMTAL/QMR

Modelo 4: Efeitos aleatórios: tratamentos e blocos; efeitos fixos: anos e locais

FV E (QM)
(B/A)/L  2  t 2
b
Anos (A)  2  t 2  rl ta
2  rtl
a
b
Locais (L)  2  t 2  ra 2  rta
b tl l
Tratamentos (T)  2  ral t2
TxA  2  rlta2
TxL  2  ra 2
tl
AxL  2  r 2  t 2  rt
tal b al
TxAxL  2  r 2
tal
Resíduo 2
     l /(l 1)   a /(a 1)

As estatísticas para os testes F das fontes de variação são representadas como a


seguir:

FV F
Tratamentos (T) QMT/QMR
Anos (A) (QMA+QMR)/(QMB+QMTA)
Locais (L) (QML+QMR)/(QMTL+QMB)
TxA QMTA/QMR
TxL QMTL/QMR
AxL (QMAL+QMR)/(QMB+QMTAL)
TxAxL QMTAL/QMR

Modelo 5: Efeitos aleatórios: locais e blocos; efeitos fixos: anos e tratamentos

FV E (QM)
(B/A)/L  2  t 2
b
Anos (A)  2  t 2  rt 2  rtla
b al
Locais (L)  2  t 2  rta 2
b l
Tratamentos (T)  2  ra 2  ralg
tl
TxA  2  r 2  rlta
tal
TxL  2  ra 2
tl
AxL  2  t 2  rt 2
b al
TxAxL  2  r 2
tal
Resíduo 2
     a /(a 1)   t /(t 1)

As estatísticas para os testes F das fontes de variação são representadas como a


seguir:

FV F
Tratamentos (T) QMT/QMTL
Anos (A) QMA/QMAL
Locais (L) QML/QMB
TxA QMTA/QMTAL
TxL QMTL/QMR
AxL QMAL/QMB
TxAxL QMTAL/QMR

Modelo 6: Efeitos aleatórios: anos e blocos; efeitos fixos: locais e tratamentos

FV E (QM)
(B/A)/L  2  t 2
b
Anos (A)  2  t 2  rtl a2
b
Locais (L)  2  t 2  rt 2  rta
b al l
Tratamentos (T)  2  rlta 2  ral
t
TxA  2  rlta 2

TxL  2  r 2  ra


tal tl
AxL  2  t 2  rt 2
b al
TxAxL  2  r 2
tal
Resíduo 2
     l /(l 1)   t /(t 1)

As estatísticas para os testes F das fontes de variação são representadas como a


seguir:

FV F
Tratamentos (T) QMT/QMTA
Anos (A) QMA/QMB
Locais (L) QML/QMAL
TxA QMTA/QMR
TxL QMTL/QMTAL
AxL QMAL/QMB
TxAxL QMTAL/QMR

Modelo 7: Efeitos fixos: anos, locais e tratamentos; efeito aleatório: blocos

FV GL E (QM)
(B/A)/L (r-1)al  2  t 2
b
Anos (A) a-1  2  t 2  rtla
b
Locais (L) l -1  2  t 2  rta
b l
Tratamentos (T) t-1  2  ralg
TxA (t-1)(a-1)  2  rlta
TxL (t-1)( l -1)  2  ra
tl
AxL (a-1)( l -1)  2  t 2  rt
b al
TxAxL (t-1)(a-1)( l -1)  2  r
tal
Resíduo (r-1)(t-1)a l 2
As estatísticas para os testes F das fontes de variação são representadas como a
seguir:

FV F
Tratamentos (T) QMT/QMR
Anos (A) QMA/QMB
Locais (L) QML/QMB
TxA QMTA/QMR
TxL QMTL/QMR
AxL QMAL/QMB
TxAxL QMTAL/QMR

Modelo 8: Efeitos aleatórios: anos, locais e blocos; efeito fixo: tratamentos

FV E (QM)
(B/A)/L  2  t 2
b
Anos (A)  2  t 2  rt 2  rtl a2
b al
Locais (L)  2  t 2  rt 2  rta 2
b al l
Tratamentos (T)  2  r 2  ra 2  rl ta
2  ral
g
tal tl
TxA  2  r 2  rl ta 2
tal
TxL  2  r 2  ra 2
tal tl
AxL  2  t 2  rt 2
b al
TxAxL  2  r 2
tal
Resíduo 2
  t /(t 1)
As estatísticas para os testes F das fontes de variação são representadas como a
seguir:

FV F
Tratamentos (T) (QMT+QMTAL)/(QMTL+QMTA)
Anos (A) QMA/QMAL
Locais (L) QML/QMAL
TxA QMTA/QMTAL
TxL QMTL/QMTAL
AxL QMAL/QMB
TxAxL QMTAL/QMR

EXEMPLO DE APLICAÇÃO 1
Os dados a seguir são provenientes de uma série de experimentos em 5
localidades. As características de cada experimento são:
Delineamento experimental: DBC.
Número de blocos: 5 por localidade (r=5).
Tratamentos: Arasan, Espergan, Semesan, Fermate, Testemunha (t=5).
Unidade experimental: 100 sementes de soja.
Modelo misto: Yijk  m  t i  l j  tl ij  b k ( j)  e ijk , com i  1, 2, , t ; j  1, 2, , l ;
k  1, 2, , b .
Resposta: Número total de plantas emergidas.

QUADRO 35. Número de plantas emergidas em 5 unidades experimentais


(500 sementes).

Tratamentos
Localidades Totais
Test. Aras. Esper. Semes. Ferm.
A 360 356 362 350 373 1801
B 302 354 349 332 332 1669
C 408 407 391 391 409 2006
D 244 267 293 235 278 1317
E 373 387 406 394 375 1935
Totais 1687 1771 1801 1702 1767 8728

QUADRO 36. Quadrados médios em cada localidade.

Localidades
F.V. G.L.
A B C D E
Blocos 4 185,14 54,64 5,64 70,76 4,80
Tratamentos 4 14,44 17,44 114,26 37,50
82,84* *
Resíduo 16 42,29 26,67 30,64 26,34 13,05

S2Médio  27,798
utilizando o teste de Hartley para testar a homogeneidade das variâncias
do erro temos:
2
S i máx . 42,29
Hc  2
  3,24
S i mín . 13,05

Valor que é menor que H tabelado, ao nível de 0,05, que é 4,29. Uma vez
que o teste detectou a não significância, conclui-se que as variâncias são
homogêneas. Portanto, é razoável que se realize a análise conjunta dos
experimentos.
Nos casos onde a hipótese de homogeneidade é rejeitada, podem-se omitir
da análise certas localidades até obter homogeneidade. Às vezes se divide o
conjunto completo de localidades em subconjuntos homogêneos e combinam-se
as localidades dentro de cada subconjunto.
Para o exemplo considerado temos a análise de variância conjunta
seguinte:

F.V. G.L. S.Q. Q.M.


Localidades (L) 4 11.852,61 2.963,16
Blocos d. Localidades 20 1.283,92 64,20
Tratamentos (T) 4 380,29 95,07
Interação L x T 16 658,63 41,16
Resíduo 80 2.223,88 27,80

Os quadrados médios esperados, sob a suposição de que as localidades


são aleatórias e os tratamentos fixos, são dados como a seguir:

F.V. G.L. E (Q.M.)

Localidades (L) 4  2  5  b2(l )  25  l2


Blocos d. Localidades 20  2  5  b2(l )
Tratamentos (T) 4  2  5  tl2  25  t2
Interação L x T 16  2  5  tl2
Resíduo 80 2

Utilizando-se testes de significância preliminares, sugeridos por Bancroft


(1964) e Carmer et alii (1969), ao nível de significância de 0,25, o F calculado
(igual a 1,48) para a interação LT excede o valor tabelado de F, ao nível de 0,25
(igual a 1,25). Portanto, o Q.M. de LT ( e não LT e resíduo combinados) é que
serão utilizados para testar os tratamentos (usando agora um nível de
significância de 0,05). O F para tratamentos foi não significativo.
EXEMPLO DE APLICAÇÃO 2
A seguir temos o esquema de análise de variância de um experimento com
cultura perene, em que os anos foram considerados aleatórios e os tratamentos
fixos. O experimento tem 4 blocos (b), 5 tratamentos (t) e 3 anos (a).

F.V. G.L. E (Q.M.)


 2  3  bt  15  b
2 2
Blocos (B) 3
 2  3  bt  4  at  12  t
2 2 2
Tratamentos (T) 4
 2  3  bt
2
Resíduo (a) 12

 2  5  ba  20  a
2 2
Anos (A) 2
 2  4  at
2
Interação T x A 8
 2  5  ba
2
Interação B x A 6
Resíduo (b) 24 2
Total 59
Observe que, neste caso, os tratamentos são testados com o Resíduo (a),
os anos com a interação B x A e, por último A x T é testada com o resíduo (b).
Neste tipo de experimento os resíduos de cada ano, dentro de uma parcela
estão interrelacionados, de modo que Snedecor & Cochran sugerem que a
análise de variância para tratamentos seja feita com base nos totais dos
tratamentos em todos os anos.

Exemplo de Aplicação: Considere os dados a seguir, referentes às médias de


produtividade de cinco cultivares em nove ambientes, bem como os resultados
das estimativas dos quadrados médios de resíduos das análises de variâncias
individuais. Os experimentos foram desenvolvidos no delineamento blocos
casualizados com quatro repetições.

Cultivares Ambientes
______________________________________________ Total
A1 A2 A3 A4 A5 A6 A7 A8 A9 Yi.
1 2,0 6,4 7,3 3,8 3,1 5,9 5,4 8,3 7,9 50,1
2 3,7 6,7 8,4 3,6 4,1 8,1 5,8 6,7 5,5 52,6
3 3,1 6,6 8,1 3,8 4,7 6,3 6,3 7,1 5,7 51,7
4 2,4 5,1 8,6 2,8 4,2 5,3 5,9 5,2 4,5 45,0
5 4,9 4,9 6,3 3,8 4,0 3,8 4,3 4,4 3,8 40,2
Y. j 16,1 30,7 38,7 17,8 20,1 29,4 27,7 31,7 27,4 239,6

QMR 0,450 0,520 0,730 0,220 0,350 0,580 0,410 0,610 0,234

1) Fazer a análise de variância individual (em cada ambiente), para avaliar a


precisão relativa de cada experimento e a homogeneidade das variâncias
residuais. Nesse caso deve ser feita a recomposição da análise de variância, uma
vez que se dispõe apenas das médias de cada cultivar em cada ambiente e dos
quadrados médios residuais de cada ambiente (experimento). Aqui, os quadrados
médios de tratamentos (cultivares) são obtidos pela expressão seguinte:

r  2 1 2

QM C / A j    
c 1 i
Yij  Y. j  .
c 
Por exemplo, para o

ambiente 1 se tem:

4  (16,1) 
 
2

QM C / A1   51 
2
 2,0   4,9 
2
  5,228 . Os

5 
cálculos para os outros ambientes são feitos de forma análoga, resultando no
quadro seguinte:

Quadrados Médios nos Ambientes


FV GL ______________________________________________________
A1 A2 A3 A4 A5 A6 A7 A8 A9
Blocos 3 - - - - - - - - -
Cultivares 4 5,228** 2,132* 3,572* 0,752* 1,348* 9,768** 2,332** 9,612** 9,688**
Resíduo 12 0,450 0,520 0,730 0,220 0,350 0,580 0,410 0,610 0,234
Média 3,22 6,14 7,74 3,56 4,02 5,88 5,54 6,34 5,48
CV(%) 20,83 11,74 11,04 13,17 14,72 12,95 11,56 12,32 8,83
ˆ c2 1,195 0,403 0,710 0,133 0,250 2,297 0,481 2,250 2,363
** e * : significativo, pelo teste F, a 1 e 5% de probabilidade, respectivamente.

2) Teste de homogeneidade das variâncias residuais, uma vez que se recomenda


fazer a análise conjunta apenas dos ambientes cujas variâncias residuais sejam
homogêneas. A homogeneidade das variâncias pode ser avaliada por meio do
teste de Pearson e Hartley, cuja expressão é dada por:
2 2
S max ˆ max
H  . O teste é aplicado para k variâncias
2 2
S min ˆ min
independentes, o valor é obtido e comparado com o tabelado para k e n graus
de liberdade, sendo n o número de graus de liberdade associado à variância
residual de cada experimento. Para o exemplo considerado obtém-se:

H  0,730  3,318 . Como H  3,32  H  9,5 , não se


0,220 9;12;0,01
rejeita a hipótese de que existe homogeneidade entre as variâncias residuais.

3) Realizar a análise de variância conjunta, cujas estimativas de quadrados


médios são dadas por:

2 4  2 239,6 
 
2
r  2 1 2
QMC    Yi.  (Y..)    50,1   40,2    12,119
a(c 1)  i c  9 x4  5 

QMA  r  Y 2  1 (Y )2   4  16.12  2
 27,42   239,6 
c(a 1)  j . j a ..  5x8    9 
   

   2
QMC , A  r    Yij  (Y..)    2,02 
2 1 2  4 2  239,6 
 3,8    11,837
ac 1  i j ac  44    45 
   

SQCA  SQC, A  (SQC  SQA)  44x11,837  (4x12,119  8x42,886) 129,264

SQCA 129,264
QMCA    4,039 . O quadrado médio do resíduo
(c 1)(a 1) 32
pode ser obtido pela média ponderada (ou média aritmética simples,quando os
graus de liberdade são os mesmos em todos os ambientes) dos quadrados
médios residuais em cada ambiente, sendo dado por:

1 1
QMR   QMR / A j  (0,450   0,234)  0,456 . Duas relações
a j 9
importantes são:

SQCA  SQC   SQC / A j  4(5,228  2,132   9,688)  177,728 e


j
2  1 ˆ 2
ˆc2  ˆca 
1
(1,195  0,403   2,363)  1,120 .
c/a j
a j 9
O resultado completo da análise de variância conjunta está representado no
quadro a seguir:
FV GL QM F
Blocos/Ambientes 27 - -
Ambientes (A) 8 QMA=42,886 -
Cultivares (C) 4 QMC=12,119 QMC/QMCA=3,00 *
CxA 32 QMCA=4,039 QMCA/QMR=8,86**
Resíduo 108 QMR=0,456
*,**: significativo, a 5% e 1% de probabilidade, respectivamente.

Considerando, neste caso, todos os efeitos do modelo, exceto a média, como


aleatórios devem ser estimados os componentes de variância das fontes de
variação de interesse, como a seguir:

ˆc2  QMC  QMCA  12,119  4,039  0,224


ar 9 x4
2  QMCAQMR  4,0390,456  0,896 .
ˆca
r 4
Para avaliar os erros associados aos componentes de variância é necessário
obter as estimativas das variâncias das estimativas das variâncias. A expressão
geral para o estimador da variância do estimador de uma variância é dada por:

 
2 
2 X 
 2 2
2 X
, em que v : número de graus de
v2
liberdade associado ao estimador do componente de variância da variável X.
Q Q
Para X  1 2 , o estimador de sua variância será:
r


 Q1 Q2  1 2 
 
2
ˆ ˆ X  ˆ 
2 2
 r  r  
 
  2 ˆ Q1 ˆ Q2  .
2
 
Uma vez que Q eQ são independentes, tem-se que:
1 2

 Q2 Q2 
  2 2
ˆ 2 ˆ X   1  2  .
r  v1  2 v2  2 
2
 
QMC QMCA
Por exemplo, o componente  c2 , que é estimado por ˆc2  ,
ra
tem o estimador de sua variância dado por:
2  QMC QMCA 
 
2 2
2
ˆ ˆ c 
2 
2 2  v  2 v  2
 , logo, a

r a  c ca 
estimativa da variância da estimativa desse componente é:

 (12,119)2 (4,039) 2 
  2
ˆ 2 ˆ c 
2
2 2  4 2
4 x9 

32  2
  0,03816 .


QMCAQMR
A estimativa do componente  ca
2 , cuja expressão é ˆca
2  ,
r
tem o estimador de sua variância dado por:

 QMCA2 QMR 
  2 2
ˆ 2 ˆ ca   
2  v  2 v  2 
r  ca r 
, logo a estimativa

da variância da estimativa deste componente é:

2  (4,039) (0,456) 
 
2 2
2
ˆ ˆ ca  
2    0,06021.
2 32 2 108 2 
4  
Os erros padrões das estimativas dos componentes anteriores são:

   
2 2 2
s ˆ c  ˆ ˆ c  0,03816  0,19535 e

s ˆ ca   ˆ ˆ ca  
2 2 2
0,06021  0,24538 .

Para avaliar o erro associado às estimativas de variância (componentes de


variância), ou seja, para avaliar a precisão dessas estimativas, pode-se obter
também o intervalo de confiança por meio da expressão:

2 2
v X ˆ X v X ˆ X
IC :  
2 , em
(1 )100% 2 X 2
 / 2 1 / 2
que:
ˆ 2 , é a estimativa da variância entre os níveis da variável X;
X
v , é o número de graus de liberdade associados à estimativa, que pode
X
ser obtido pelo método de Satterthwaite;

2 e 2 , são os valores do modelo de distribuição de


 /2 1 / 2
probabilidade  2 para v graus de liberdade.
X
Admitindo que o número de graus de liberdade associado a ˆ 2 , a ser obtido, é
X
n , tem-se, pelo método de Satterthwaite:

 
2 2
ˆ X
n .
   
2 2 2 2
a1 Q1 a2 Q2

v1  2 v2  2

Se a  a  1, tem-se que ˆ 2 estará associado a v e v graus de liberdade,


1 2 X 1 2
de acordo com a distribuição de  2 , e, o número de graus de liberdade a ser
obtido será dado por:

 
2
 Q1Q2  .
2
ˆ 2X
n  
 1   2   1   2 
2 2 2 2
Q Q Q Q
v1  2 v2  2 v1  2 v2  2

Para o exemplo em consideração, o número de graus de liberdade associado ao


QMC QMCA
componente de variância ˆc2  é obtido pela expressão:
ra

n 
 QMC QMCA 
2
, em que:
 QMC    QMCA 
2 2

vc  2 vca  2

vc é o número de graus de liberdade associado à fonte de variação cultivares


(C);
vca é o número de graus de liberdade associado à fonte de variação interação
cultivares x ambientes (CA).
Então, o número de graus de liberdade associado a ˆc2 será:

n 
12,119 4,039 
2
 2,62  3 .
12,119    4,039 
2 2

4 2 32  2

O intervalo de confiança, com grau de confiança de 95%, para ˆc2 é dado por:

2 2
nˆ c nˆ c
IC :   c2 
(10,05)100% 2 2
[0,05/ 2;3] [(10,05)/ 2;3]

3(0,224) 3(0,224)
IC :   c2 
95% 9,348 0,2158

IC :0,07189   c2  3,11399 .
95%
O número de graus de liberdade associado ao componente de variância
QMCAQMR
ˆca
2  é obtido por meio da expressão:
r

n 
 QMCAQMR 
2
, em que:
 QMCA    QMR 
2 2

vca  2 vr  2

vr é o número de graus de liberdade associado à fonte de variação resíduo (R);


vca é o número de graus de liberdade associado à fonte de variação interação
cultivares x ambientes (CA).

Então, o número de graus de liberdade associado a ˆca


2 será:

n 
 4,0390,456 
2
 26,65  27 .
 4,039    0,456 
2 2

32 2 108 2
O intervalo de confiança, com grau de confiança de 95%, para ˆca
2 é dado por:

2 2
nˆ ca nˆ ca
IC :   ca 
2
(10,05)100% 2 2
[0,05/ 2;27] [(10,05)/ 2;27]

27(0,896) 2  27(0,896)
IC :   ca
95% 43,195 14,573

IC :0,56006   ca
2  1,66006 .
95%
Note que quanto menor for o valor da estimativa da variância da estimativa de
variância obtida, menor será o seu erro padrão e mais estreito será o seu intervalo
de confiança. Consequentemente, maior será a confiabilidade na interpretação
dos resultados obtidos e nas inferências realizadas com o conjunto de dados
analisado.

8.4 - Alguns Critérios Práticos para a


Combinação de Experimentos
na Análise Conjunta

1º) Admite-se que o Q.M. Resíduo Médio pode ser obtido pela média ponderada
dos Q.M. Resíduo de cada experimento individual; os graus de liberdade do
resíduo médio podem ser obtidos pela soma dos graus de liberdade dos
resíduos das análises individuais; não há interesse prático pelos efeitos de
blocos dentro de locais; isto simplifica grandemente a análise conjunta.
2º) As pressuposições anteriores só têm validade se os quadrados médios
residuais dos experimentos forem homogêneos. Um modo prático de se
verificar esta homogeneidade é calcular o quociente entre o maior e o menor
quadrado médio e aceitar a homogeneidade quando for menor do que 7.
Havendo homogeneidade, faz-se a análise conjunta da maneira usual. Se não
houver homogeneidade deve-se seguir uma das alternativas seguintes:
a) Agrupar os experimentos de acordo com fatores físicos, tais como tipo de
solo, topografia, irrigação e práticas agrícolas;
b) Agrupar os experimentos dentro de cada ano agrícola, devido às
diferenças climáticas de ano para ano;
c) Reagrupar os experimentos em dois ou mais grupos, tendo em vista a
homogeneidade dos quadrados médios (por exemplo, Q.M. maiores num
grupo e menores em outro grupo); a cada um desses grupos aplica-se a
análise conjunta;
d) Se apenas um ou dois quadrados médios diferem muito dos demais, pode-
se simplesmente realizar a análise conjunta com os outros restantes;
e) Não se leva em conta a heterogeneidade dos quadrados médios residuais
e realiza-se a análise conjunta da maneira usual. Porém, ao se consultar a
tabela de F e dos testes de comparação de médias deve-se utilizar
número de graus de liberdade corrigidos, tanto para o resíduo quanto para
a interação T x L. Este é o chamado Método de Cochran para Análise
Conjunta. As expressões de correção dos graus de liberdade são as
seguintes:

n Re s. 
 QM Re s (L )  QM Re s (L
1 2)  QM Re s (L j )  2

 QM Re s (L ) 
, onde:
 QM Re s (L1 )  2   QM Re s (L 2 )  2 
j
2

n1 n2 nj

nRe s.  número de graus de liberdade do resíduo corrigido;


n1, n 2 , , n j  graus de liberdade dos resíduos dos locais 1, 2, ..., j.

(I  1)(J  1) 2 V1
2
nt  1  , onde:
(J  2) V2  V1
2

n t  1  número de graus de liberdade da interação T x L corrigido;


I  número de tratamentos;
J  número de locais.
QM Re s (L 1 )    QM Re s (L j )
V1   QM Re s. Médio
J

V2 

QM Re s (L 1 ) 2    QM Re s (L j ) 2 
 QM Re s. Médio
J

CAPÍTULO IX

Fundamentos de Regressão e Correlação

9.1 - Regressão Linear Simples


Suponhamos que um técnico florestal deseje julgar o crescimento de
plantas de pinho com base no volume de copa. O que ele deve fazer é expressar
uma relação entre o crescimento da árvore e o volume da copa por meio de uma
equação, utilizando a técnica de análise de regressão. Dado certo volume de
copa ele pode predizer qual seria o crescimento da árvore, usando a equação de
regressão.
Os dados a seguir referem-se ao volume de copa em 100 pés-cúbicos (X) e
ao crescimento de área basal em pés-quadrados (Y).

Volume de Copa Volume de Copa


(X) Crescimento (Y) (X) Crescimento (Y)

22 0,36 53 0,47
6 0,09 70 0,55
93 0,67 5 0,07
62 0,44 90 0,69
84 0,72 46 0,42
14 0,24 36 0,39
52 0,33 14 0,09
69 0,61 60 0,54
104 0,66 103 0,74
100 0,80 43 0,64
41 0,47 22 0,50
85 0,60 75 0,39
90 0,51 29 0,30
27 0,14 76 0,61
51 0,41 18 0,32

Continua...

Continuação...

Volume de Copa Crescimento (Y) Volume de Copa Crescimento (Y)


(X) (X)

75 0,66 48 0,21
6 0,18 37 0,54
20 0,21 67 0,70
36 0,29 56 0,67
50 0,56 31 0,42
9 0,13 17 0,39
2 0,10 7 0,25
21 0,18 2 0,06
17 0,17 20 0,29
87 0,63 29 0,38
97 0,66 50 0,53
33 0,18 59 0,58
20 0,06 70 0,62
81 0,66 14 0,14
93 0,69 96 0,58
99 0,71 61 0,42
Volume de Copa (X) Crescimento (Y)

Totais 3050 26,62


Médias (n=62) 49,1935 0,42935

Geralmente o primeiro passo consiste em representar os dados reais em


papel quadriculado (diagrama de dispersão). Isto é feito para se ter alguma
representação gráfica da possível relação entre as duas variáveis. O tipo de
configuração apresentada neste diagrama influirá na escolha do modelo de
regressão (linha reta, curva parabólica, curva exponencial, etc.) a ser ajustado.
Neste caso em particular (exemplo anterior) suporemos uma reta.
Depois de escolher o modelo de regressão a ser ajustado, o passo
seguinte consiste nos cálculos das somas de quadrados e de produtos corrigidos.
Nas equações a seguir as letras maiúsculas indicam valores das variáveis sem
correção e as minúsculas são empregadas para valores que forem submetidos a
correção ( y  Y  Y ) . Assim temos:
Soma de quadrados corrigida para Y:

(Y 2 )  (26,62)2
y 2  Y 2   (0,36)2  (0,09)2   (0, 42)2    2,7826
n   62
Soma de quadrados corrigida para X:

2 2 (X 2 )   (3050)2
x  X   (22)2  (6)2  2
 (61)    59397,6775
n   62
Soma de produtos corrigida para XY:
(X )(Y )
xy  XY 
n
(3050)(26, 62)
xy   (22)(0,36)  (6)(0, 09)   (61)(0, 42)   354,1477
62
A forma geral de uma equação para uma linha reta é Y= a + bX, onde a e b
são a constante e o coeficiente de regressão, respectivamente, que devem ser
estimados. De acordo com o princípio dos quadrados mínimos, os melhores
estimadores para estes valores são:
xy 354,1477
b   0, 005962
x2 59397, 6775
a  Y  bX  0, 42935  (0, 005963)(49,1935)  0,13606
Substituindo estas estimativas na equação geral temos:
ˆ
Y  0,13606  0, 005963 X .
Com esta equação podemos estimar o crescimento da área basal a partir
das medições do volume da copa. Devido ao fato de Y ser calculado a partir de
valores conhecidos de X, Y é denominada de variável dependente e X de variável
independente.
A linha de regressão pode ser considerada como uma média móvel. Ela
fornece um valor médio de Y associado a um determinado valor de X. Desta
forma, alguns valores de Y estão acima da linha de regressão e outros estão
abaixo, da mesma maneira que alguns valores de Y se localizam acima ou abaixo
da média geral de Y.
A soma de quadrados corrigida para Y (ou seja, y 2 ) estima a quantidade
de variação dos valores individuais de Y em relação ao valor médio de Y. A
equação de regressão é uma indicação de que parte da variação observada em Y
(estimada por y 2 ) está associada com a relação entre Y e X. A quantidade de
variação em Y que está associada com a sua regressão sobre X é conhecida
como a soma de quadrados da redução ou a soma de quadrados de regressão,
sendo calculada por

(xy )2 (354,1477)2
S .Q. Re dução  S .Q.Re gressao    2,1115
x 2 (59397, 6775)
Observe que a variação total em Y é estimada por y 2  2,7826 . A porção
de variação total em Y que não está associada com a regressão é conhecida
como soma de quadrados residual, sendo calculada por:
S .Q. Re sidual  y 2  S .Q. Re gressao  2, 7826  2,1115  0, 6711
Em análise de variância utilizamos a variação residual (não explicada)
como padrão para testar a quantidade de variação atribuível a tratamentos, por
meio do teste F. Em análise de regressão podemos fazer o mesmo. Então temos:

F.V. G.L. S.Q. Q.M. F

Regressão 1 2,1115 2,1115 188,86


Residual 60 0,6711 0,01118

Total 61 2,7826

Como o F calculado é muito maior que o F0 , 01 (1; 60 g. l . ) a regressão é


aceita como altamente significativa.
Antes de termos ajustado a linha de regressão aos dados Y tinha certa
quantidade de variação em relação a sua média ( Y ) . O ajuste da regressão foi,
portanto, uma tentativa de explicar parte desta variação linear de Y com X.
Entretanto, mesmo depois da linha ter sido ajustada, se observou alguma
variação sem explicação (aquela de Y em relação à linha de regressão). Quando
aceitamos a linha de regressão anterior simplesmente admitimos que a variação
em Y explicada pela linha ajustada é significativamente maior que a variação não
explicada. O teste não mostra que a linha que ajustamos é a melhor descrição
possível dos dados (uma linha curva poderia ser melhor). Também não quer dizer
que encontramos a verdadeira relação matemática entre as variáveis.
Pode ser observado que a soma de quadrados residual é igual a soma de
quadrados dos desvios dos valores observados de Y em relação à linha de
regressão. Ou seja, S. Q. Re sidual  (Y  Yˆ )2  (Y  a  bX )2 . O princípio dos
quadrados mínimos nos diz que os melhores estimadores de a e b são aqueles
que minimizam esta soma de quadrados.
Como uma medida de quão bem ajustada está uma regressão podemos
calcular a proporção da variação total em Y que corresponde à regressão. Esta
razão é denominada de coeficiente de determinação, que é dado por
S .Q. Re gressão 2,1115
R2    0, 758823
S .Q. Total 2, 7826
Isto significa que 76% da variação em Y encontra-se associada com a
variação em X.
O coeficiente de determinação é igual ao quadrado do coeficiente de
correlação. Ou seja,

S .Q. Re gressão (xy ) 2 / x 2 (xy ) 2


R2     (r )2
S .Q. Total y 2 (x 2 )(y 2 )
Ocasionalmente, a quantidade 1- R2 é conhecida como “coeficiente de não-
determinação” e 1  R 2 tem sido denominado de “índice de alienação”.
Uma equação de regressão está sujeita à erros de amostragem porque ela
é construída com base em dados amostrais. Portanto, podem-se obter intervalos
de confiança sobre a linha de regressão, através da especificação de valores
sobre a faixa de variação de X. Ou seja,

 1 ( X  X )2 
Limites de Confiança = Yˆ  t (Q.M . Re s.)   0 2 
n x 
, onde X : valor selecionado de X e t ( gl ) : valor de t tabelado com o número de
0
graus de liberdade do Q.M. Residual.
No exemplo temos:
Y  0,13606  0, 005962 X
Q.M . Re sidual  0, 01118 com 60 g.l.
n  62; X  49,1935; x 2  59397, 6775
Desta forma, se escolhermos X  28 temos Y  0,303 e limites de 95% de
0
confiança iguais a

 1 (28  49,1935)2 
L.C.  0,303  2, 000 (0, 01118)     0, 270 a 0,336
 62 59397, 6775 

Para outros valores de X 0 obteríamos:

X0 
Y Limites de 95%

8 0,184 0,139 0,229


49,1935 0,402 0,402 0,456
70 0,521 0,521 0,585
90 0,673 0,629 0,717
Observe que estes são os limites dentro dos quais se encontrará a média
de Y para determinado valor de X. Estes limites não são aplicáveis a um único
valor predito de Y. Os limites dentro dos quais se pode encontrar um Y individual
é dado por:

 1 ( X  X )2 
Yˆ  t (Q.M . Re s.) 1   0 2 
 n x 

9.2. Correlação Simples

A análise de regressão é apropriada para quando uma variável aleatória Y


depende de uma variável causal X que frequentemente é controlada pelo
pesquisador e a análise é conduzida para determinar o efeito de X sobre Y, ou a
capacidade de X para predizer Y. Por outro lado, o objetivo principal do
pesquisador pode ser estudar o grau de relacionamento entre duas variáveis
aleatórias, nenhuma das quais podendo ser considerada como causa da outra.
Um conjunto de dados constituído de medições de X e Y, feitas sobre uma
amostra de n materiais experimentais, pode ser vista como uma amostra aleatória
bivariada (X1, Y1), (X2, Y2), ..., (Xn, Yn), onde os diferentes pares são
independentes. A partir desta perspectiva, um estudo da relação entre essas
variáveis é efetuado através da análise de correlação.
O primeiro passo no estudo de uma relação consiste em colocar as
observações sobre um gráfico. O diagrama de dispersão fornece uma boa ajuda
no discernimento da natureza da relação.

Coeficiente de Correlação Amostral


Um tipo simples de associação entre as variáveis X e Y produz pares de
valores ou, graficamente, pontos que se distribuem em torno de uma linha reta.
Uma pequena dispersão, em torno da linha indica forte associação; uma grande
dispersão é uma manifestação de associação fraca. Uma medida numérica desta
relação é chamada de coeficiente de correlação da amostra ou, às vezes, de
coeficiente de correlação momento-produto de Pearson. Este coeficiente é dado
por:

n
 (X i  X )(Yi  Y )
r i 1 , onde (X1, Y1), ... (Xn, Yn)
 n 2  n 2 
  ( X i  X )    (Yi  Y ) 
i 1  i1 
são n pares de observações, cada par tendo a mesma distribuição bivariada.

O coeficiente de correlação da população, para uma distribuição bivariada,


COV ( X , Y )
é definido por Corr ( X , Y )    xy . A estatística r é um análogo
 X Y
amostral de , como se pode ver substituindo os parâmetros da população pelos
seus análogos da amostra. Isto é, substitui-se COV (X, Y) por
( X i  X )(Yi  Y ) / ( n  1),  2 X por ( X i  X )(Yi  Y ) /(n 1) e  2Y por

(Yi  Y )2 /(n  1) . Portanto, o coeficiente de correlação da amostra r pode ser


considerado um estimador da correlação populacional .
Outra fórmula de r, útil em cálculos manuais é:
n  n  n 
 X iYi    X i   Yi  / n
i 1  i 1  i 1   xy
r 
n
 2  n 
2  
 n 2  n 
2 

  X i    X i  / n    Yi    Yi  / n 
 
x
2
y
2

i 1  i 1   i 1  i 1  

O r pode assumir valores entre -1 e 1. A proporção de variabilidade nos


valores de Y que pode ser explicada por uma relação linear com X é
precisamente r2. Assim, para r= 0,90, tem-se que 81% da variabilidade nos
valores de Y é explicada por uma relação linear com X.

r = 0,9 r = 0,5 r = 0,0 r = -0,9 r = -0,5

Figura 4. Correspondência entre os valores de r e a quantidade de


dispersão.

As principais propriedades de r são:


(1) r deve estar entre -1 e +1;
(2) o valor numérico de r mede a intensidade da relação linear e o sinal de
r indica a direção da relação;
(3) r2 é a proporção da variabilidade nos valores de Y que é explicada por
uma linha reta, ajustada pelo método dos quadrados mínimos;
(4) r não varia se os valores de X são modificados para aX+b e os de Y
para cY+d, onde a e c são constantes que têm o mesmo sinal.
O coeficiente de correlação amostral, r, mede a intensidade da relação
linear de duas variáveis. Pode haver o caso em que, X e Y são fortemente
relacionados, mas que a relação é curvilínea. Às vezes a curva pode ser tal que r
é aproximadamente zero, o que indica uma falta de relação linear; mas não afirma
que não existe qualquer relação. Nenhuma medida de relação é apropriada
quando o diagrama de dispersão divide-se em dois ou mais aglomerados de
pontos. As figuras a seguir ilustram esses casos.
Figura 5. O coeficiente de correlação linear.

A. Uma forte relação ao longo de uma curva para a qual r é quase zero.
B. Relação não linear.
C. Amostras provenientes de duas populações.
Uma alta correlação amostral não significa necessariamente qualquer
relação causal entre duas variáveis. A observação de que duas variáveis tendem
a variar simultaneamente numa certa direção não implica na presença de uma
relação direta de causa e efeito entre elas. Pode acontecer que uma terceira
variável é que realmente está causando a correlação observada entre as duas
variáveis. A falsa correlação que é produzida é chamada de correlação sem
sentido. Quando se usa o coeficiente de correlação como uma medida de relação,
deve-se ter o cuidado de evitar que uma variável “emboscada” possa afetar
qualquer das variáveis que estão sendo estudadas.
Numa amostra bivariada uma importante questão a ser considerada é se
as duas variáveis aleatórias são ou não correlacionadas. Quando a população é
modelada como uma população bivariada normal, existe um teste simples para a
hipótese nulidade H0:=0. Neste tipo de modelo, =0 é equivalente à
independência das duas variáveis. A estatística apropriada para testar a
independência num modelo normal bivariado é:

t
 
n2 r
, que tem distribuição t de Student com graus de liberdade

1 r2 
igual a n-2.
Dada uma alternativa bilateral para o teste, a hipótese nula, é rejeitada se o
valor observado deste teste de significância for maior que t /2 ou menor que -t/2.
Em outras palavras, para testar H0:  = 0 versus H1:   0, com base em n pares
de observações obtidos, a partir de uma população normal bivariada, tem-se que:

Rejeita-se H0 se
 
n2 r
t
 2 com g.l.= n-2 para t.
1 r2

Esse teste pode ser obtido também por meio da seguinte expressão:

(n  2) r 2
F que é comparado com F(1, n-2). Observa-se que a
1 r2
estatística F é o quadrado da estatística t, ou seja, F = t2.
Uma forma simples de obter o intervalo de confiança para , é a que utiliza
a estatística Z de Fisher que é dada por:
1 (1  r )
Z  log e . Demonstra-se que a estatística Z tem distribuição
2 (1  r )
aproximadamente normal. A média da distribuição de Z é aproximadamente
1 (1   ) 1
E ( Z )  log e  Z e sua variância é aproximadamente VARz  .
2 (1   ) n3
 1 
Portanto, Z é ND  Z , .
 n3
Calcula-se Z a partir da equação anterior ou obtém-se seu valor em tabela
própria. Um intervalo de confiança para Z pode ser formado como: Z  Z*(1-
/2) 1/(n  3) , onde Z* representa a distribuição normal padronizada.

9.3 - Considerações Gerais sobre Regressão e Correlação

A variável que é a base de estimação é convencionalmente chamada de


variável independente e designada de X, e a variável cujo valor deve ser estimado
é chamada de variável dependente e designada de Y. Quando uma equação é
formulada para estimar Y a partir de X, tal equação é chamada de uma regressão
de Y sobre X.
A técnica de análise de regressão não é nada mais que um procedimento
de estimação ou predição. O termo regressão é usado aqui simplesmente porque
ele está bem estabelecido na estatística. Ele foi introduzido pela primeira vez em
1877 por Sir Francis Galton, que encontrou em seus estudos de hereditariedade
que pais altos tendem a ter filhos baixos. Entretanto, a altura média dos filhos de
vários pais altos foi menor que a altura média de seus pais, enquanto que os
filhos de vários pais baixos foram, na média, mais altos do que seus pais. Galton
referiu a esta tendência através da altura média de todos os homens como uma
regressão. Associações semelhantes foram observadas por Galton em vários
outros fenômenos, que os generalizaram como uma lei universal de
comportamento entre duas ou mais variáveis associadas.
Num experimento com repetições, o quadrado médio da regressão e o
quadrado médio do desvio podem ser testados com o mesmo erro usado para
testar o quadrado médio de tratamento. O uso de totais ao invés de médias reduz
a quantidade de erros de arredondamento.
Deve ser sempre lembrado que o coeficiente de correlação ordinário
assume uma relação linear entre as duas variáveis. E também que, ele não nos
ajuda a decidir se a relação é de causa e efeito.
Um coeficiente de correlação baixo nem sempre significa uma falta de
relação. A relação pode ser curvilinear.
Um coeficiente de correlação alto não implica num relacionamento direto
de causa e efeito. As duas variáveis podem simplesmente estarem ambas
relacionadas com uma terceira variável, tal como o tempo.
Evite correlação de uma variável com uma de suas partes componentes.
As conclusões alcançadas são triviais.
Evite extrapolação de uma linha de regressão.
Qual curva utilizar?
1) A Curva Potência:
Y é uma função de alguma potência de X; a forma geral é:

Y  a Xb
Y  log a  b log X
Y '  a ' bX '

2) A Curva Exponencial (Curva de crescimento ou decaimento):


X aparece como um expoente e o coeficiente b descreve a taxa de
crescimento ou decaimento. A equação geral é:
Y  a bx
log Y  log a  (log b) X
Y '  a ' b ' X

3) A Curva Assintótica:
Nas curvas exponenciais, se o coeficiente b na equação Y  a b x é menor
que 1, Y aproxima-se de zero à medida que X cresce sem limite. Uma linha
aproximada por uma curva desta forma é chamada de assintótica, no caso acima
a assíntota é o eixo X. A absorção de cátions por uma planta é um bom exemplo.
Se Y diminui à medida que X aumenta e aproxima-se de uma assíntota,
uma equação da forma Y  c  a b x pode fornecer um bom ajuste.

4) O Tipo Polinomial:
A equação geral é:

Y  a  b X  c X 2  d X 3  ...
As equações normais são:

an  bX  cX 2  d X 3  ...  Y


aX  bX 2  cX 3  d X 4  ...  XY
aX 2  bX 3  cX 4  d X 5  ...  X 2Y
aX 3  bX 4  cX 5  d X 6  ...  X 3Y

5) Combinação de Tipos de Curvas:


Às vezes vale a pena usar uma combinação de dois tipos de curva. Por
exemplo, pode-se ajustar uma curva do segundo grau a dados transformados por
linearização, tal como Y’ = log Y ao invés de Y como variável dependente.

6) O Tipo Periódico:
Esta é uma curva que relaciona alguma variável com o tempo e é repetida
a intervalos de tempo fixados. É conhecida na matemática como curva Fourier e é
útil para qualquer tipo de dado que tende a flutuar para cima e para baixo a
intervalos regulares. A equação geral para uma curva periódica é
Y  a  a cos CX  b sen CX  a cos 2CX  b sen 2CX  a cos3CX  b sen 3CX 
0 1 1 2 2 3 3
, onde X+ é um tempo observado expresso como unidades a partir de um tempo
inicial arbitrário e C é uma constante igual a 360° dividido pelo número de
unidades num ciclo.
Uma curva Fourier de primeiro grau é a curva de uma onda simples com
equação Y  a 0  a cos CX  b sen CX .
1 1
Com os valores x medidos como desvios a contar de sua média, os valores
de a e b pelos quadrados mínimos são:
xiYi
a Y e b 
xi 2

As variáveis aleatórias Yi são estatisticamente independentes, com média


(i )    i e variância =  2 .

Yi     xi  i , onde os  i são variáveis aleatórias independentes, com


média = 0 e variância =  2 , no modelo RLS (Regressão Linear Simples).
As distribuições de Y e  são idênticas, exceto quanto ao fato de suas
médias serem diferentes. De fato, a distribuição de  nada mais é que a
distribuição de Y transladada para média zero.
De onde provém a parte “puramente aleatória” de Yi ? Por que não
obtemos um valor preciso e exato de Yi , já que o valor de xi é dado? O termo
erro pode ser encarado como a soma de duas componentes: 1) Erro de
mensuração; 2) Erro estocástico, que ocorre em conseqüência de
irreprodutibilidade inerente aos fenômenos biológicos; mesmo que não houvesse
erro de mensuração, a repetição continuada de um experimento resultaria em
diferenças imprevisíveis que se dizem “estocásticas” ou “aleatórias”. Elas podem
ser reduzidas, mas não completamente controladas. O erro estocástico pode ser
encarado como a influência sobre Y de muitas variáveis omitidas no modelo, cada
uma com um pequeno efeito individual.
No modelo RLS, os valores de  e  têm os seguintes momentos:

2
E (ˆ )   ; Var (ˆ )   2 / n; E ( ˆ )  
e Var ( ˆ )  , onde  2 é a
xi 2
variância do erro  (ou seja, a variância de Y em torno da reta de regressão).
A principal justificativa para utilizarmos o método dos quadrados mínimos
para estimar uma regressão linear é o Teorema de Gauss-Markov: “Na classe de
estimadores lineares não-tendenciosos de beta, o estimador  de mínimos
quadrados tem variância mínima (é o mais eficiente). Analogamente,  é o
estimador de  de variância mínima”.
Corolário de Gauss-Markov: “Dentro da classe de estimadores lineares
não-tendenciosos de uma média populacional  , a média amostral Y tem
variância mínima”. Pode haver um estimador não-linear que tenha menor
variância do que o estimador de quadrados mínimos.
S
Erro padrão de ˆ : S  , utilizado para fazer inferências estatísticas:
ˆ  xi 2
S
Intervalo de confiança para  : IC : ˆ  t com n  2 graus
(1 /2)  /2
xi 2
de liberdade;
S
Intervalo de confiança para a interseção (  ): IC : ˆ  t
(1 /2)  /2 n ;


Teste t 
S
ˆ
ˆ0  ˆ  ˆ x0 ; E (ˆ0 )  0

2
1 x0
0  ˆ0  t /2 S  , intervalo de confiança para a média  0 .
n x 2
i
2
1 x0
Y  ˆ  t S   1 , intervalo de confiança para uma observação
0 0  /2 n x 2
i
ˆ ˆ
individual Y (Y  ˆ   x  ˆ ) .
0 0 0
A maior parte da teoria de regressão linear (RL) e, em particular, a
justificativa de Gauss-Markov dos quadrados mínimos não exige a hipótese de
normalidade do termo erro (ou seja, normalidade de Y). Mesmo no caso de
pequenas amostras, a distribuição t é freqüentemente uma aproximação
razoavelmente boa para populações não-normais.
Supõe-se que a variável independente X tome um dado conjunto fixo de
valores. Mas, em muitos casos X não pode ser controlado. Por exemplo, no caso
de precipitação relacionada com produção, X é uma variável totalmente aleatória.
O que surpreende é que a maior parte da teoria de RL permanece válida, quer X
seja fixo ou uma variável aleatória, desde que seja suposto, juntamente com o
Teorema de Gauss-Markov, que  2 (e  e  ) sejam independentes de X, e o erro
 , seja estatisticamente independente de X.
É aconselhável incluir mais de uma variável na análise de regressão por
dois motivos:
1) Para reduzir a variação aleatória, ou seja, reduzir a variância residual
(S2), e, assim, aumentar a poder dos testes estatísticos;
2) Mais importante ainda, para eliminar a tendenciosidade que poderia
resultar se simplesmente fosse ignorada uma variável que afeta Y
substancialmente.
Regressão Linear Múltipla (RLM) com dois regressores (variáveis
explicativas): O modelo geral pode ser expresso como
Yi     xi   zi  i .

Também em RLM são obtidas as estimações de quadrados mínimos para a


escolha dos estimadores  ,  e  , que minimizam a soma dos quadrados dos
desvios entre os valores observados Yi e os valores ajustados Y  , ou seja,
i

minimizar  (Yi  ˆ  ˆ xi  ˆ zi ) . Utilizando o cálculo diferencial e igualando as


2
derivadas parciais em relação a  ,  e  , obtêm-se como resultado três
equações estimadoras chamadas de equações normais:
ˆ  Y
 xiYi  ˆ  xi 2  ˆ  xi zi

 ziYi  ˆ  xi zi  ˆ  zi 2

Intervalo de confiança: IC : ˆ  t , com g.l.  n  k  1 para t,


(1 /2)  /2Sˆ
onde:
k = número de regressores;
ˆ ˆ
t ; t
S S
ˆ ˆ
O teste de hipótese (F e t) não deve ser feito mecanicamente, pois exige:
1) Bom julgamento e bom entendimento a priori do modelo a ser testado;
2) Compreensão das hipóteses e limitações das técnicas estatísticas.
Quando as variáveis independentes X e Z, em RLM são colineares, ou
quase colineares (isto é, altamente correlacionadas) temos o problema de
multicolinearidade. Isto não gera problemas na predição de Y, desde que não
usemos valores de X e Z afastados da reta de colinearidade. Entretanto, não é
possível investigar a influência de X somente (ou Z somente) sobre Y.
Em RL,   aumento em Y se x i for aumentado de 1 unidade, mantendo-
se constantes todas as outras variáveis x. Por exemplo, para o modelo
Y     x   z,  : aumento em Y, quando aumentarmos x de 1 unidade,
mantendo-se z constante.
O coeficiente de correlação de Pearson é definido como
 xy  ( X   x ) (Y   y )  X  x   Y   y 
  ou   E    .
 x y  x y   x   y 
A correlação amostral é, por definição:

1 n  Xi  X   Yi  Y 
r     
n  1 i1  S x 
 Sy


A covariância amostral é
xy
S xy  ou
n 1
S xy 
1
n 1
 Xi  X   Yi  Y   n 1 1  xy
Uma fórmula prática para o cálculo de r é
 ( X i  X )(Yi  Y ) xy
r 
 ( X  X )2   (Y  Y )2  x2y 2
 i   i 
Como se relaciona regressão e correlação?

xy xy
Temos que ˆ  b  (1) e r  (2). Dividindo-se (1) por (2)
x 2 2 2
(x )(y )
tem-se

ˆ x 2 y 2 y 2
 
r x 2 x 2
ˆ y 2 /(n  1) S y Sy
   ˆ  r
r x 2 /(n  1) S x Sx

 (Yi  Y )2   (Yˆi  Y )2   (Yi  Yˆi )2

Variação = Variação + Variação


Total Explicada Não-explicada

 (Yi  Y )2  ˆ 2xi 2   (Yi  Yˆi )2

Variação = Variação + Variação


Total Explicada por X Não-explicada

Variação explicada pela regressão


F
Variação não-explicada

ˆ 2xi 2

S2
O coeficiente de determinação é dado por

2  (Yˆi  Y )2 Variação explicada de Y


R   Variação total de Y
 (Yi  Y )2

Tanto o modelo padrão de regressão como o de correlação exige que Y


seja uma variável aleatória. Mas os dois modelos diferem quanto às hipóteses
feitas à respeito de X. O modelo de regressão faz poucas hipóteses sobre X, mas
o modelo de correlação, mais restrito, exige que X seja uma variável aleatória,
tendo com Y uma distribuição normal bivariada. Portanto, o modelo de regressão
tem maior aplicação porque pode ser usado para X em níveis fixos pré-
estabelecidos ou numa população normal bivariada X, Y. Quando X é pré-fixado,
o R2 pode ser calculado, mas não podemos utilizar r  R2 para inferências a
respeito de  (coeficiente de correlação populacional). Como a correlação, a
regressão indica se duas variáveis estão relacionadas, mas também estima de
que maneira.
Em uma equação de regressão múltipla, obtemos a discernibilidade
(significância) estatística de cada regressor (variável explicativa) a partir da razão
t. A mesma informação pode ser expressa de forma equivalente pela correlação
parcial, que se define como a correlação de um regressor e da resposta, se todos
os outros regressores pudessem ser mantidos constantes.
Enquanto as correlações parciais medem o grau com que Y se relaciona
com cada um dos regressores, um a um, a correlação múltipla, R, mede esse
relacionamento de Y com todos os regressores conjuntamente. A correlação
múltipla R se define como a correlação simples entre o valor ajustado
Yˆ  ˆ  ˆ x  ˆ z e o valor observado Y:
R r
ˆˆ
yy
Variação de Y explicada por todos os regressores
2  (Yˆi  Y )2
R   Variação total de Y
 (Yi  Y )2

Observem que, à medida que acrescentamos outros regressores ao nosso


modelo, podemos ver quão úteis eles são para explicar a variação em Y,
observando o quanto eles aumentam o R2.
No caso de regressão não-linear, o processo de regressão padrão ainda
pode ser aplicado simplesmente redefinindo as variáveis ou transformando a
equação. Temos situações de não-linearidade das variáveis e linearidade dos
parâmetros e não-linearidade dos parâmetros.
Os modelos lineares recebem esta denominação porque os parâmetros no
modelo ocorrem numa forma linear simples. Por exemplo:
2
Y  a  bX ; Y  a  bX  cX e Y  a  bX  cZ   dXZ . O segundo modelo é linear
porque os parâmetros ocorrem numa forma linear, embora a relação entre Y e X
seja definitivamente não-linear, mas sim quadrática.
Os modelos lineares têm dominado os métodos estatísticos para investigar
relações, não porque tais modelos sejam sempre os mais apropriados, mas
porque a teoria de ajuste de tais modelos a um conjunto de dados é muito
simples. Os cálculos envolvidos na obtenção de estimativas dos parâmetros nos
modelos lineares requerem apenas a solução de um conjunto de equações
simultâneas simples. Estes cálculos podem ser feitos sem a ajuda de um
computador, embora possam ser feitos mais facilmente com o computador.
Alguns modelos não-lineares foram desenvolvidos antes do advento de
computadores, mas devido às suas complexidades não foram amplamente
utilizados. Com a disponibilidade dos computadores o ajuste de modelos não-
lineares deixou de ser mais difícil do que para modelos lineares.
O princípio dos quadrados mínimos é utilizado também para o ajuste de
at
modelos não lineares. Tomemos como exemplo o modelo Yˆ  . O princípio
k t
dos quadrados mínimos requer que escolhamos a e k tal que a soma de
quadrados S   (Y  at / k  t )2 seja minimizada. O processo de minimizar os
valores de k e a é essencialmente um processo organizado de tentativa (processo
iterativo) porque as equações matemáticas são insolúveis.
Um método alternativo para a análise de modelos não-lineares é o método
da máxima verossimilhança. Este método estima o valor dos parâmetros
desconhecidos de tal forma que a probabilidade de se observar os dados
realmente obtidos é máxima. O método está disponível em programas de
computador.
Na análise de regressão linear, após obter as estimativas de quadrados
mínimos dos parâmetros são consideradas as inferências estatísticas sobre eles e
sobre a relação ajustada. São considerados erro padrão do coeficiente de
regressão, erro padrão de um valor predito para Y e análise de variância da
regressão ajustada. Os resultados correspondentes, para modelos não-lineares,
não são tão fáceis de serem obtidos e geralmente são aproximados. Entretanto,
resultados semelhantes àqueles obtidos para regressão linear podem ser obtidos
para não-linear e interpretados da mesma maneira, porém com bastante cuidado.

9.4. Análise de Regressão Polinômios Ortogonais


Este procedimento consiste na partição da soma de quadrados de
tratamento de um experimento em componentes de regressão.
Suponha um experimento em blocos casualizados, com 5 níveis de fósforo
e 6 repetições, com os seguintes resultados:

Níveis de Fósforo Produção Total


(X) (Y)

0 445,80
50 482,70
100 508,32
150 489,78
200 463,50

S.Q. Blocos = 735,6497 S.Q. Resíduo = 177,6581 G = 2390,10


Pede-se:
a) Dar a ANOVA e concluir (=1%); r=repetição=6; t=tratamento=5.
N  r  t  6  5  30
( G) 2 ( 2390,10) 2
C   190419, 2670
N 30
( 445, 80) 2  ( 482, 70) 2  . . .  ( 463, 50) 2
SQTrat  C
6
SQTrat  190807,1418  190419, 2670
SQTrat  387, 8748
As somas de quadrados de blocos, resíduo e total são calculadas da
maneira usual.
O quadro da Análise de Variância (ANOVA) é o seguinte:

Fontes de G.L. S.Q. Q.M. F


Variação

Blocos 5 735,6497
Tratamento 4 387,8748 96,9687 10,92**
Resíduo (erro) 20 177,6581 8,8829
Total 29 1301,1826

O nível crítico para o teste de significância é F0,01 (4; 20) = 4,43. Portanto, a
hipótese nulidade de que as médias observadas são provenientes da mesma
população, deve ser rejeitada. Assim, pode-se concluir que existem diferenças
altamente significantes entre algumas das médias de tratamento.
Como se trata de fatores quantitativos, ao invés dos testes de comparação
de médias, comumente utilizados, recomenda-se a decomposição da soma de
quadrados de tratamento em componentes de regressão.
b) Decompor a Soma de Quadrados de Tratamentos (Níveis de Fósforo),
como segue:
Regressão Linear 1 G.L.
Regressão 1 G.L.
Quadrática
Regressão Cúbica 1 G.L.
Regressão Quártica 1 G.L.
Aplicar o teste F, admitindo-se um nível de até 5% de probabilidade.

Para resolver este problema devem ser ajustados polinômios ortogonais


aos dados obtidos. Os coeficientes relativos aos polinômios ortogonais são tirados
de tabela própria. Assim, tem-se:

Totais de Coeficientes Polinomiais


Tratamentos
1 Grau 2 Grau 3 Grau 4 Grau

445,80 (6) -2 +2 -1 +1
482,70 (6) -1 -1 +2 -4

Continua...
Continuação...
Totais de Coeficientes Polinomiais
Tratamentos
1 Grau 2 Grau 3 Grau 4 Grau

508,32 (6) 0 -2 0 +6
489,78 (6) +1 -1 -2 -4
463,50 (6) +2 +2 +1 +1

2930,10 (30)

K 10 14 10 70
M 1 1 5/6 35/12

A Soma de Quadrados relativa ao efeito linear do fósforo é dado por:


( C i T) 2
SQP’ = , onde:
rk i
C i , indica os coeficientes relativos ao 1° grau; T indicam os totais de
tratamentos; r é o número de repetições e K i é tirado da tabela dos coeficientes
para ajustamento de polinômios ortogonais (veja Pimentel Gomes). Os cálculos
para os efeitos quadrático, cúbico e quártico são feitos de maneira análoga,
utilizando-se os coeficientes do segundo, terceiro e quarto graus,
respectivamente. Então, tem-se:

 ( 2 ( 445,80)  1 ( 482,70)  0 ( 508,32)  1 ( 489,78)  2 ( 463,50) 2

SQP’ =
6  10
( 42,48) 2
SQP’ =  30, 0758
60
Analogamente obtém-se:

 ( 2 ( 445,80)  1 ( 482,70)  2 ( 508,32)  1 ( 489,78)  2 ( 463,50) 2

SQP’’ =
6  14
( 170,52) 2
SQP’’’ =  346,1556
84
 ( 1 ( 445,80)  2 ( 482,70)  0 ( 508,32)  2 ( 489,78)  1 ( 463,50) 2

SQP’’’ =
6  10
( 3,5) 2
SQP’’’ =  0,2089
60
 ( 1 ( 445,80)  4 ( 482,70)  6 ( 508,32)  4 ( 489,78)  1 ( 463,50) 2

SQP’’’’ =
6  70
( 69, 30) 2
SQP’’’’ =  11,4345
420
A análise de variância para a decomposição dos graus de liberdade de
tratamentos em componentes de regressão é a seguinte:

Fontes de Variação G.L. S.Q. Q.M. F

Blocos 5 735,6497
Fósforo Linear (P’) 1 30,0758 30,0758 3,39
Fósforo Quadrático 1 346,1556 346,1556 38,97**
(P’’)
Fósforo Cúbico (P’’’) 1 0,2096 0,2096 0,02
Fósforo Quártico (P’’’’) 1 11,4350 11,4350 1,29
Resíduo (erro) 20 177,6581 8,8829

Total 29 1301,1826

Os níveis críticos para o teste de significância são F0,05; (1, 20) = 4,35 e
F0,01; (1, 20) = 8,10. Portanto, o efeito quadrático do fósforo é altamente
significativo, para este experimento. Os efeitos linear, cúbico e quártico não são
significativos.
c) Dar a equação de regressão polinomial de mais alto grau significativo:
A equação de regressão, para o efeito de fósforo, será um polinômio
ortogonal do segundo grau. Se a equação incluir o termo quadrático, deverá
incluir também o linear, mesmo que este não seja significativo. O polinômio é
expresso da seguinte forma:
Y  Y  B M P  B M P , onde:
i 1 1 1 2 2 2

Y é a média geral dos valores de Y, M1 e M2 são tirados da tabela anterior;


P1 e P2 são os polinômios ortogonais; B1 e B2 são coeficientes calculados por:
 C1 T C 2 T
B1  e B2 
rk 1 rk 2
A variável x que aparece nos polinômios ortogonais:
n2  1
P1  x e P2  x 2  ,
12
é uma transformação do X original através da expressão:
X X
x , onde
q
X é a média dos valores de X e q é a diferença entre dois níveis
consecutivos de X; nos polinômios ortogonais mostrados anteriormente, n é o
número de níveis da variável independente X. Assim, tem-se:
0  50  100  150  200
X  100; q  50
5
X  100
x
50
445,80  482,70  508, 32  489,78  463,50
Y
56
Y  79,67
2 ( 445,80)  1 ( 482,70)  0 ( 508,32)  1 ( 489,78)  2 ( 463,50)
B1 
6  10
42,48
B1   0,708. Analogamente, obtém-se:
60
2 ( 445, 80)  1 ( 482, 70)  2 ( 508, 32)  1 ( 489, 78)  2 ( 463, 50)
B2 
6  14
170, 52
B2   2, 030
84
52  1
P1  x; P2  x  2
 x2  2
12
  79, 67  ( 0, 708)(1) x  ( 2, 030)(1)( x 2  2)
Y i

Y  79, 67  0, 7x  2, 030 ( x 2  2)
i

Para obter a equação relativa à variável original X (níveis de fósforo), faz-


se:
 X  100   X  100  2 
Y  79, 67  0, 71       
 50 
2, 030 2
 50  
Y  74,19  0,1766 X  0, 000812X 2 ( 0  X  200)
d) Calcular o ponto de máximo e estimar a resposta neste ponto:
  74,19  0,1766X  0,000812X2
Y
 '  0,1766  0,001624X
Y
 ''  0, 001624 , o que implica que a equação tem um ponto de máximo.
Y
Calcula-se então este ponto, da seguinte forma:
 '  0,1766  0,001624 X  0 (o ponto de máximo é aquele que anula a
Y
derivada primeira).
0,1766  0,001624 X
0,1766
X  108,74  109
0,001624
, logo, o ponto de máximo é o nível de fósforo X=109. A resposta média estimada
neste ponto máximo é dada por:
  74,19  0,1766 (109 )  0,000812 (109 ) 2
Y
109
  74,19  19, 294  9,647  83,792
Y109

  83,79
Y109 (resposta média)
A resposta média observada, para o nível de 100 de fósforo é
508, 32
 84,72 .
6
e) Obter o intervalo de confiança para o valor médio Y i , ou seja, E( Y i ),
para os cinco níveis de fósforo, a um coeficiente de confiança de 95% (=5%).
Para os valores dados de Yi , a resposta média, Y i é dada por E( Yi ). O
intervalo de confiança 1- para E( Yi ) é dado por:
  t ( n  k  1) S  E( Y )  Y
Y   t ( n  k  1) S
i / 2 y i i i / 2 y i

, onde Y i é a resposta estimada; n-k-1 é o número de graus de liberdade do


resíduo, sendo k o número de coeficientes de regressão estimados e

  1 xi2 
S ( Yi )   
2
2  QM Re s.;
 n x i 
x i  X i  X e n é o número total de observações. Assim, substituindo os
valores de X na equação estimada, tem-se:
  74,19  0,1766 (0 )  0,000812 (0 ) 2
Y0
  74,19
Y0

Analogamente, obtém-se:
  80,99
Y 50
  83,73
Y 100

Y  82,41
150
  77,03
Y200

x i 2   ( X i  X ) 2  25000; então
 1 (0  100 ) 2
S ( Y0 ) 
2
 8,8829  3,8492
30 25000
 )  1  ( 50  100 ) 8,8829  1,1844
2
S2 (Y 50
30 25000
2  1 (100  100 ) 2
S ( Y100 )   8,8829  0, 2961
30 25000
2  1 (150  100 ) 2
S ( Y150 )   8,8829  1,1844
30 25000
 )  1  ( 200  100 ) 8,8829  3,8492
2
S2 (Y 200
30 25000
Tem-se t  ( n  1  k ) , onde n é o número de observações e k é o número de
variáveis explicativas, então t(0; 05; 27)=2,052, logo os intervalos de confiança
para os diferentes níveis de X são:
74,19  ( 2,052)(1,9619 )  E(Y0 )  74,19  ( 2,052)(1,9619 )
70,16  E(Y0 )  78, 22
78,76  E(Y50 )  83, 22
82,61  E(Y100 )  84,85
80,18  E(Y150 )  84,64
73,00  E(Y200 )  81,06
f) Obter o coeficiente de determinação da equação de regressão:
O coeficiente de determinação (R2) representa quanto da variação na
resposta é explicado, pela regressão ajustada. Para obter o R 2, devem ser
somadas as somas de quadrados de todos os graus da equação de regressão
ajustada e dividir o resultado pela soma de quadrados de tratamentos. Neste
caso, tem-se:
S. Q. P. linear  S. Q. P. quadrá tico
R2 
S. Q. Tratamentos
30,0758  346,1556
R2   0,9699  96,99%
387,8748
Significa que 96,99% da variabilidade em produção total pode ser explicada
por uma função quadrática com os níveis de fósforo, no intervalo 0  X  200 .
O próximo passo desta análise é a construção de um gráfico representativo
da curva de regressão no sistema de eixos cartesianos. Nesse gráfico são
representados, além da curva, a equação de regressão estimada e o valor de R 2
com a probabilidade de significância.
BIBLIOGRAFIA

ATKINSON, A. C.; BAILEY, R. A. One hundred years of experiments on and off


the pages of Biometrika. Biometrika, v. 88, n. 1, p. 53-97, 2001.

BAILEY, R. A. Hasse diagrams in designed experiments: a pictorial aid to think


about blocking, stratification, degrees of freedom, randomization, and analysis
of variance. In: Simpósio de Estatística Aplicada à Experimentação
Agronômica, 110, Anais. Londrina, 4-8 de julho de 2005. Londrina: UEL, 2005.
CD-ROM.

BANZATTO, D. A.; KRONKA, S. do N. Experimentação agrícola. Jaboticabal :


FUNEP, 1989. 247 p.

BARBIN, D. Planejamento e análise estatística de experimentos


agronômicos. Arapongas: Editora Midas, 2003. 208 p.

BEIGUELMAN, B. Curso prático de bioestatística. 2ª ed. Ribeirão Preto :


Revista Brasileira de Genética, 1991. 224 p.

BRIEN, C. J. Statistical modeling. Disponível em


http://chris.brien.name/ee2/smcourse.html. Acesso em 27/12/2006.

BUSSAB, W. O.; MORETTIN, P. A. Estatística básica. 5a edição. São Paulo:


Editora Saraiva, 2002. 526 p.

CAMPOS, H. de. Estatística experimental não-paramétrica. 4ª ed.


Piracicaba : ESALQ/USP, 1983. 349 p.

CARRANZA, C. A. Sobre el cociente CM (Bloques/CM Residuo). Rev. de


Agricultura, v. 73, n. 3, p. 295-306, 1998.

CASTAÑEDA, P. R. Diseño de experimentos aplicados. 2a edición. Mexico:


Editoria Trillas, 1981. 344 p.

COCHRAN, W. G.; COX, G. M. Diseños experimentales. México : Trillas,


1981. 661 p.

CONAGIN, A.; NAGAL, V.; IGUE, T. Poder discriminativo de diferentes testes de


comparção de medias. Rev. de Agricultura, v. 65, n. 2, 1990.
CHEW, V. Comparing treatment means: a compendium. HortScience, 11 (4) :
348-357. 1976.

DEMÉTRIO, C. G. B. Transformação de dados: efeito sobre análise de


variância. Piracicaba : ESALQ/USP, 1978. 113 p. (Tese de Mestrado).

DYKE, G. How to avoid bad statistics. Field Crops Research, v. 51, p. 165-187,
1997.

FERREIRA, D. F. Estatística básica. Lavras: Editora UFLA, 2005. 664 p.

FINNEY, D. J. Problems, data, and inference. J. R. Statist. Soc. A., 137 : 1-22.
1974.

FINNEY, D. J. Numbers and data. Biometrics, v. 31, p. 375-386, 1975.

FONSECA, J. S. da.; MARTINS, G. de A. Curso de estatística. 4ª ed. São


Paulo : Atlas, 1993. 317 p.

GARCIA, S. L. R. Curso de estatística experimental. Viçosa: Faculdade de


Viçosa, 2001. 268 p.

GATES, C. E.; BILBRO, J. D. Illustration of a cluster analysis method for mean


separation. Agronomy Journal, 70 : 462-465. 1978.

GILL, J. L. Design and analysis of experiments in the animal and medical


sciences. Ames: Iowa State University Press, v. 3, 1978. 173 p.

GILMOUR, S. G. Advanced modeling from designed experiments. In: Simpósio de


Estatística Aplicada à Experimentação Agronômica, 10 0, Anais. Lavras, 7-11
de julho de 2003. Lavras: DEX-UFLA, 2003. CD-ROM.

GOMES, F. P. A estatística moderna na pesquisa agropecuária. Piracicaba:


Potafos, 1984. 160 p.

GOMES, F. P. Curso de estatística experimental. São Paulo: Nobel, 1987.


467 p.

GOMEZ, K. A.; GOMEZ, A. A. Statistical procedures for agricultural research.


New York: Sec. Ed. John Wiley & Sons, 1984. 680 p.

GUIMARÃES, R. C.; CABRAL, J. A. S. Estatística. Edição Revista. Lisboa:


McGraw-Hill, 1999. 621 p.

HAMMER, P. A. Controlling variability. HortScience, v. 16, n. 5, 628-630, 1981.

HOEL, P. G. Estatística matemática. 4a edição. Rio de Janeiro: Editora


Guanabara Dois, 1980. 373 p.

KEMPTHORNE, O. The design and analysis of experiments. Malabar: Robert


E. Kriger Publishing Company, 1983. 631 p.

KIRK, R. E. Effect magnitude: a different focus. Journal of Statistical Planning


and Inference, v. 137, p. 1634-1646, 2007.
LECLERG, E. L.; LEONARD, W. H.; CLARK, A. G. Field plot technique.
Minneapolis : Sec. Ed. Burgess, 1962. 373 p.

LEGENDRE, P.; BORCARD, D. Statistical comparison of univariate tests of


homogeneity of variances.Submitted to the Journal of Statistical Computation
and Simulation. Disponível em http:
biol10.biol.umontreal.ca/BIO2042/MS_THV.pdf. Consultado em 04/04/2007.

LITTLE, T. M.; HILLS, F. J. Agricultural experimentation: design and analysis.


New York : John Wiley & Sons, 1978. 350 p.

LITTLE, T. M. Interpretation and presentation of results. HorScience, v. 16, n. 5,


p. 637-640, 1981.

MACHADO, A. A.; SILVA, J. G. C.; DEMÉTRIO, C. G. B.; FERREIRA, D. F.


Estatística experimental: uma abordagem baseada no planejamento e no uso
de recursos computacionais. In: Simpósio de Estatística Aplicada à
Experimentação Agronômica, 110, Anais. Londrina, 4-8 de julho de 2005.
Londrina: UEL, 2005. CD-ROM.

MCINTOSHI, M. S. Analysis of combined experiments. Agronomy Journal, v. 75,


p. 153-155, 1983.

MEAD, R.; CURNOW, R. N. Statistical methods in agriculture and


experimental biology. London : Chapman & Hall, 1990. 335 p.

MIRANDA FILHO, J. B. Princípios de experimentação e análise estatística. In:


Paterniani, E.; Viégas, G. P. (eds.). Melhoramento e produção de milho. Vol
2. Campinas: Fundação Cargill, 1987. p. 763-795.

MONTGOMERY, D. C. Design and analysis of experiments. 4th ed. New York:


John Wiley & Sons, 1997. 704 p.

NETER, J.; WASSERMAN, W.; KUTNER, M. H. Applied linear statistical


models. 3rd ed. Burr Ridge : Irwin, 1990. 1881 p.

NOGUEIRA, M. C. S. Orthogonal contrasts: definitions and concepts. Sci. Agric.,


v. 61, n. 1, p. 118-124, 2004.

PASQUALI, L. Psicometria: teoria dos testes na psicologia e na educação.


Petrópolis: Editora Vozes, 2003. 397 p.

PERECIN, D.; BARBOSA, J. C. Uma avaliação de seis procedimentos para


comparações múltiplas. Rev. Mat. Estat., v. 6, p. 95-103, 1988.

PEREIRA, J. C. R. Análise de dados qualitativos: estratégias metodológicas


para as ciências da saúde, humanas e sociais. São Paulo: EDUSP, 2004.
156 p.

PIMENTEL-GOMES, F.; GARCIA, C. H. Estatística aplicada a experimentos


agronômicos e florestais: exposição com exemplos e orientações para
uso de aplicativos. Piracicaba: FEALQ, 2002. 309 p.

RAMALHO, M. A. P.; FERREIRA, D. F.; OLIVEIRA, A. C. Experimentação em


genética e melhoramento de plantas. 2a Edição. Lavras: Editora UFLA,
2005. 322 p.
REMMENGA, E. E. Statistical approaches to studies involving annual crops.
HortScience, v. 16, n. 5, 631-633, 1981.

SANTANA, D. G.; RANAL, M. A. Análise de germinação: um enfoque


estatístico. Brasília: Editora UnB, 2004. 248 p.

SCOTT, A. J.; KNOTT, M. A. Cluster analysis method for grouping means in the
analysis of variance. Biometrics, 30(3) : 507-512. 1974.

SNEDECOR, G. W.; COCHRAN, W. G. Statistical methods. Eight Edition.


Ames : Iowa State University Press, 1996. 503 p.

SOKAL, R. R.; ROHLF, F. J. Biometry: the principles and practice of statistics


in biological research. Third Edition. New York: W. H. Freeman and
Company, 1995. 887 p.

SPATA, A. V. Métodos de pesquisa: ciências do comportamento e


diversidade humana. Rio de Janeiro: Editora LTC, 2005. 247 p.

STEEL, R. G. D.; TORRIE, J. H. Principles and procedures of statistics. New


York : Sec. Ed. McGraw-Hill, 1980. 633 p.

STORCK, L.; GARCIA, D. C.; LOPES, S. J.; ESTEFANEL, V. Experimentação


vegetal. Santa Maria: Editora UFSM, 2000. 198 p.

SWALLOW, W. H. Statistical approaches to studies involving perennial crops.


HortScience, v. 16, n. 5, p. 634-636, 1981.

URQUHART, N. S. The anatomy of a study. HortScience, v. 16, n. 5, p. 621-627,


1981.

YASSIN, N.; MORAIS, A. R.;MUNIZ, J. A. Análise de variância em um


experimento fatorial de dois fatores com tratamentos adicionais. In: Simpósio
de Estatística Aplicada à Experimentação Agronômica, 10 0, Anais, Lavras, 7-
11 de julho de 2003. Lavras: DEX-UFLA, 2003. CD-ROM.

ZAR, J. H. Biostatistical analysis. New Jersey: Prentice Hall, 1999. 663 p.

ZIMMERMANN, F. J. P. Estatística aplicada à pesquisa agrícola. Santo Antônio


de Goiás: Embrapa Arroz e Feijão, 2004. 402 p.

ZIMMERMANN, F. J. P. Efeito de heterogeneidade de variância e distribuição de


probabilidade dos dados sobre o poder e tamanho do teste F. Pesq. Agrop.
Bras., v. 22, n. 11/12, p. 1209-1213, 1987.

TABELAS ESTATÍSTICAS
TABELA 01. Distribuição normal padrão.

z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753
0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549
0,7 0,2580 0,2611 0,2642 0,2673 0,2703 0,2734 0,2764 0,2794 0,2823 0,2852
0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133
0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830
1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015
1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319
1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633
1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936

Continua...

Continuação...
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952
2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990

TABELA 02. Distribuição de  2 .


0,995 0,990 0,975 0,950 0,900 0,750 0,500 0,250 0,100 0,050 0,025 0,010 0,005
g.l.
1 0,0000 0,0002 0,0010 0,0039 0,0158 0,102 0,455 1,32 2,71 3,84 5,02 6,63 7,88
2 0,0100 0,0001 0,0506 0,103 0,211 0,575 1,39 2,77 4,61 5,99 7,38 9,21 10,6
3 0,0717 0,115 0,216 0,352 0,584 1,021 2,37 4,11 6,25 7,81 9,25 11,3 12,8
4 0,207 0,297 0,484 0,711 1,06 1,92 3,36 5,39 7,78 9,49 11,1 13,3 14,9
5 0,412 0,554 0,831 1,15 1,61 2,67 4,35 6,63 9,24 11,1 12,8 15,1 16,7
6 0,676 0,872 1,24 1,64 2,20 3,45 5,35 7,84 10,6 12,6 14,4 16,8 18,5
7 0,989 1,24 1,69 2,17 2,83 4,25 6,35 9,04 12,0 14,1 16,0 18,5 20,3
8 1,34 1,65 2,18 2,73 3,49 5,07 7,34 10,2 13,4 15,5 17,5 20,1 22,0
9 1,73 2,09 2,70 3,33 4,17 5,90 8,34 11,4 14,7 16,9 19,0 21,7 23,6
10 2,16 2,56 3,25 3,94 4,87 6,74 9,34 12,5 16,0 18,3 20,5 23,2 25,2
11 2,60 3,05 3,82 4,57 5,58 7,58 10,3 13,7 17,3 19,7 21,9 24,7 26,8
12 3,07 3,57 4,40 5,23 6,30 8,44 11,3 14,8 18,5 21,0 23,3 26,2 28,3
13 3,57 4,11 5,01 5,89 7,04 9,30 12,3 16,0 19,8 22,4 24,7 27,7 29,8
14 4,07 4,66 5,63 6,57 7,79 10,2 13,3 17,1 21,1 23,7 26,1 29,1 31,3
15 4,60 5,23 6,23 7,26 8,55 11,0 14,3 18,2 22,3 25,0 27,5 30,6 23,8
16 5,14 5,80 6,91 7,96 8,31 11,9 15,3 19,4 23,5 26,3 28,4 32,0 34,3
17 5,70 6,41 7,56 8,67 10,1 12,8 16,3 20,5 24,8 27,6 30,2 53,4 35,7
18 6,26 7,01 8,23 9,39 10,9 13,7 17,3 21,6 26,0 28,9 31,5 34,8 37,2
19 6,84 7,63 8,91 10,1 11,7 14,6 18,3 22,7 27,2 30,1 32,9 36,2 38,6
20 7,43 8,26 9,59 10,9 12,4 15,5 19,3 23,8 28,4 31,4 34,2 37,6 40,0
21 8,03 8,90 10,3 11,6 13,2 16,3 20,3 24,9 29,6 32,7 35,5 38,9 41,4
Continua...

Continuação...


0,995 0,990 0,975 0,950 0,900 0,750 0,500 0,250 0,100 0,050 0,025 0,010 0,005
g.l.
22 8,64 9,54 11,0 12,3 14,0 17,2 21,3 26,0 30,8 33,9 36,8 40,5 42,8
23 9,26 10,2 11,7 13,1 14,8 18,1 22,3 27,1 32,0 35,2 38,1 41,6 44,2
24 9,89 10,9 12,4 13,8 15,7 19,0 23,3 28,2 33,1 36,4 39,4 43,0 45,6
25 10,5 11,5 13,1 14,6 16,5 19,9 24,3 29,3 34,4 37,7 40,6 44,3 46,9
26 11,2 12,2 13,8 15,4 17,3 20,8 25,3 30,4 35,6 38,9 41,9 45,6 48,3
27 11,8 12,9 14,6 16,2 18,1 21,7 26,3 31,5 36,7 40,1 43,2 47,0 49,6
28 12,5 13,6 15,3 16,9 18,9 22,7 27,3 32,6 37,9 41,3 44,5 48,3 51,0
29 13,1 14,3 16,0 17,7 19,8 23,6 28,3 33,7 39,1 42,6 45,7 49,6 52,5
30 13,8 15,0 16,8 18,5 20,6 24,5 29,3 34,8 40,3 43,8 47,0 50,9 53,7

TABELA 03. Distribuição t de Student.


0,50 0,25 0,10 0,05 0,025 0,01 0,005
g.l.
1 1,00000 2,4142 6,3138 12.706 25.542 63.657 127,32
2 0,81650 1,6036 2,9200 4,3127 6,2053 9,9248 14,089
3 0,76489 1,4226 2,3534 3,1825 4,1765 5,8409 7,4533
4 0,74070 1,3444 2,1318 2,7764 3,4954 4,6041 5,5976
5 0,72669 1,3009 2,0150 2,5706 3,1634 4,0321 4,7733
6 0,71756 1,2733 1,9432 2,4469 2,9687 3,7074 4,3168
7 0,71114 1,2543 1,8946 2,3646 2,8412 3,4995 4,0293
8 0,70639 1,2403 1,8595 2,3060 2,7515 3,3554 3,8325
9 0,70272 1,2297 1,8331 2,2622 2,6850 3,2498 3,6897
10 0,69981 1,2213 1,8125 2,2281 2,6338 3,1693 3,5814
11 0,69745 1,2145 1,7959 2,2010 2,5931 3,1058 3,4966
12 0,69548 1,2089 1,7823 2,1788 2,5600 3,9545 3,4284
13 0,69384 1,2041 1,7709 2,1604 2,5326 3,0123 3,3725
14 0,692 1,2001 1,7613 2,1448 2,5096 2,9768 3,3257
15 0,69120 1,1967 1,7530 2,1315 2,4899 2,9467 3,2860
16 0,69013 1,1937 1,7459 2,1199 2,4729 2,9208 3,2520
17 0,68919 1,1910 1,7396 2,1098 2,4581 2,8982 3,2225
18 0,68837 1,1887 1,7341 2,1009 2,4450 2,8784 3,1966
19 0,68763 1,1866 1,7291 2,0930 2,4334 2,8609 3,1737

Continua...
Continuação...


0,50 0,25 0,10 0,05 0,025 0,01 0,005
g.l.
20 0,68696 1,1848 1,7247 2,0860 2,4231 2,8453 3,1534
21 0,68635 1,1831 1,7207 2,0796 2,4138 2,8314 3,1352
22 0,68580 1,1816 1,7171 2,0739 2,4055 2,8188 3,1188
23 0,68531 1,1802 1,7139 2,0687 2,3979 2,8073 3,1040
24 0,68485 1,1789 1,7109 2,0639 2,3910 2,7969 3,0905
25 0,68443 1,1777 1,7081 2,0595 2,3846 2,7874 3,0782
26 0,68405 1,1766 1,7056 2,0555 2,3788 2,7787 3,0669
27 0,68370 1,1757 1,7033 2,0518 2,3734 2,7707 3,0565
28 0,68335 1,1748 1,7011 2,0484 2,3685 2,7633 3,0469
29 0,68304 1,1739 1,6991 2,0452 2,3638 2,7564 3,0380
30 0,68276 1,1731 1,6973 2,0423 2,3596 2,7500 3,0298
40 0,68066 1,1673 1,6839 2,0211 2,3289 2,7045 2,9712
60 0,67862 1,1616 1,6707 2,0003 2,2991 2,6603 2,9146
120 0,67656 1,1559 1,6577 1,9799 2,2699 2,6174 2,8599
 0,67449 1,1503 1,6449 1,9600 2,2414 2,5758 2,8070

TABELA 04. Valores de F para o nível de significância de 1%.

Nº de
graus de
liberdade Número de graus de liberdade do
do deno-
minador numerador
1 2 3 4 5 6 7 8 9
1 4052 5000 5403 5625 5764 5859 5928 5982 6022
2 98,5 99,0 99,2 99,2 99,3 99,3 99,4 99,4 99,4
3 34,1 30,8 29,5 28,7 28,2 27,9 27,7 27,5 27,3
4 21,2 18,0 16,7 16,0 15,5 15,2 15,0 14,8 14,7
5 16,3 13,3 12,1 11,4 11,0 10,7 10,5 10,3 10,2
6 13,7 10,9 9,78 9,15 8,75 8,47 8,26 8,10 7,98
7 12,2 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72
8 11,3 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91
9 10,6 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35
10 10,0 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94
11 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63
12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39
13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19
14 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03

Continua...

Continuação...

Nº de
graus de
liberdade Número de graus de liberdade do
do deno-
minador numerador
1 2 3 4 5 6 7 8 9
15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89
16 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78
17 8,40 6,11 5,18 4,67 4,34 4,10 3,93 3,79 3,68
18 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52
20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40
22 7,95 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35
23 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30
24 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,26
25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22
26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18
27 7,68 5,49 4,60 4,11 3,78 3,56 3,39 3,26 3,15
28 7,64 5,45 4,57 4,07 3,75 3,53 3,36 3,23 3,12
29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09
30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07
40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56
 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41

TABELA 04. (Continuação)

Nº de
graus de
liberdade Número de graus de liberdade do
do deno-
minador numerador
10 12 15 20 24 30 40 60 120 

1 6056 6106 6157 6209 6235 6261 6287 6313 6339 6366
2 99,4 99,4 99,4 99,4 99,5 99,5 99,5 99,5 99,5 99,5
3 27,2 27,1 26,9 26,7 26,6 26,5 26,4 26,3 26,2 26,1
4 14,5 14,4 14,2 14,0 13,9 13,8 13,7 13,7 13,6 13,5
5 10,1 9,89 9,72 9,55 9,47 9,38 9,29 9,20 9,11 9,02
6 7,87 7,72 7,56 7,40 7,31 7,23 7,14 7,06 6,97 6,88
7 6,62 6,47 6,31 6,16 6,07 5,99 5,91 5,82 5,74 5,65
8 5,81 5,67 5,52 5,36 5,28 5,20 5,12 5,03 4,95 4,86
9 5,26 5,11 4,96 4,81 4,73 4,65 4,57 4,48 4,40 4,31

Continua...
Continuação...
Nº de
graus de
liberdade Número de graus de liberdade do
do deno-
minador numerador
10 12 15 20 24 30 40 60 120 

10 4,85 4,71 4,56 4,41 4,33 4,25 4,17 4,08 4,00 3,91
11 4,54 4,40 4,25 4,10 4,02 3,94 3,86 3,78 3,69 3,60
12 4,30 4,16 4,01 3,86 3,78 3,70 3,62 3,54 3,45 3,36
13 4,10 3,96 3,82 3,66 3,59 3,51 3,43 3,34 3,25 3,17
14 3,94 3,80 3,66 3,51 3,43 3,35 3,27 3,18 3,09 3,00

15 3,80 3,67 3,52 3,37 3,29 3,21 3,13 3,05 2,96 2,87
16 3,69 3,55 3,41 3,26 3,18 3,10 3,02 2,93 2,84 2,75
17 3,59 3,46 3,31 3,16 3,08 3,00 2,92 2,83 2,75 2,65
18 3,51 3,37 3,23 3,08 3,00 2,92 2,84 2,75 2,66 2,57
19 3,43 3,30 3,15 3,00 2,92 2,84 2,76 2,67 2,58 2,49

20 3,37 3,23 3,09 2,94 2,86 2,78 2,69 2,61 2,52 2,42
21 3,31 3,17 3,03 2,88 2,80 2,72 2,64 2,55 2,46 2,36
22 3,26 3,12 2,98 2,83 2,75 2,67 2,58 2,50 2,40 2,31
23 3,21 3,07 2,93 2,78 2,70 2,62 2,54 2,45 2,35 2,26
24 3,17 3,03 2,89 2,74 2,66 2,58 2,49 2,40 2,31 2,21

25 3,13 2,99 2,85 2,70 2,62 2,54 2,45 2,36 2,27 2,17
26 3,09 2,96 2,81 2,66 2,58 2,50 2,42 2,33 2,23 2,13
27 3,06 2,93 2,78 2,63 2,55 2,47 2,38 2,29 2,20 2,10
28 3,03 2,90 2,75 2,60 2,52 2,44 2,35 2,26 2,17 2,06
29 3,00 2,87 2,73 2,57 2,49 2,41 2,33 2,23 2,14 2,03

30 2,98 2,84 2,70 2,55 2,47 2,39 2,30 2,21 2,11 2,01
40 2,80 2,66 2,52 2,37 2,29 2,20 2,11 2,02 1,92 1,80
60 2,63 2,50 2,35 2,20 2,12 2,03 1,94 1,84 1,73 1,60
120 2,47 2,34 2,19 2,03 1,95 1,86 1,76 1,66 1,53 1,38
 2,32 2,18 2,04 1,88 1,79 1,70 1,59 1,47 1,32 1,00

Fonte: Scheffé, H. The analysis of variance. New York : Wiley, 1959.

TABELA 05. Valores de F para o nível de significância de 5%.

Nº de
graus de
liberdade Número de graus de liberdade do
do deno-
minador numerador
1 2 3 4 5 6 7 8 9
1 161 200 216 225 230 234 237 239 241
2 18,5 19,00 19,2 19,2 19,3 19,3 19,4 19,4 19,4
3 10,1 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81
4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00

5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77


6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10
7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68
8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39
9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18

10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02


11 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90
12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80
13 4,67 3,81 3,41 3,18 3,03 2,92 2,83 2,77 2,71
14 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 2,65

15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59


16 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54
17 4,45 3,59 3,20 2,96 2,81 2,70 2,61 2,55 2,49
18 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 2,46
19 4,38 3,52 3,13 2,90 2,74 2,63 2,54 2,48 2,42

20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39


21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37
22 4,30 3,44 3,05 2,82 2,66 2,55 2,46 2,40 2,34
23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32
24 4,26 3,40 3,01 2,78 2,62 2,51 2,42 2,36 2,30

25 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28


26 4,23 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27
27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,31 2,25
28 4,20 3,34 2,95 2,71 2,56 2,45 2,36 2,29 2,24
29 4,18 3,33 2,93 2,70 2,55 2,43 2,35 2,28 2,22

30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21


40 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12
60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04
120 3,92 3,07 2,68 2,45 2,29 2,17 2,09 2,02 1,96
 3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 1,88

TABELA 05. (Continuação)

Nº de
graus de
liberdade Número de graus de liberdade do
do deno-
minador numerador
10 12 15 20 24 30 40 60 120 

1 242 244 246 248 249 250 251 252 253 254
2 19,4 19,4 19,4 19,4 19,5 19,5 19,5 19,5 19,5 19,5
3 8,79 8,74 8,70 8,66 8,64 8,62 8,59 8,57 8,55 8,53
4 5,96 5,91 5,86 5,80 5,77 5,75 5,72 5,69 5,66 5,63

5 4,74 4,68 4,62 4,56 4,53 4,50 4,46 4,43 4,40 4,36
6 4,06 4,00 3,94 3,87 3,84 3,81 3,77 3,74 3,70 3,67
7 3,64 3,57 3,51 3,44 3,41 3,38 3,34 3,30 3,27 3,23
8 3,35 3,28 3,22 3,15 3,12 3,08 3,04 3,01 2,97 2,93
9 3,14 3,07 3,01 2,94 2,90 2,86 2,83 2,79 2,75 2,71

10 2,98 2,91 2,85 2,77 2,74 2,70 2,66 2,62 2,58 2,54
11 2,85 2,79 2,72 2,65 2,61 2,57 2,53 2,49 2,45 2,40
12 2,75 2,69 2,62 2,54 2,51 2,47 2,43 2,38 2,34 2,30
13 2,67 2,60 2,53 2,46 2,42 2,38 2,34 2,30 2,25 2,21
14 2,60 2,53 2,46 2,39 2,35 2,31 2,27 2,22 2,18 2,13

15 2,54 2,48 2,40 2,33 2,29 2,25 2,20 2,16 2,11 2,07
16 2,49 2,42 2,35 2,28 2,24 2,19 2,15 2,11 2,06 2,01
17 2,45 2,38 2,31 2,23 2,19 2,15 2,10 2,06 2,01 1,96
18 2,41 2,34 2,27 2,19 2,15 2,11 2,06 2,02 1,97 1,92
19 2,38 2,31 2,23 2,16 2,11 2,07 2,03 1,98 1,93 1,88

20 2,35 2,28 2,20 2,12 2,08 2,04 1,99 1,95 1,90 1,84
21 2,32 2,25 2,18 2,10 2,05 2,01 1,96 1,92 1,87 1,81
22 2,30 2,23 2,15 2,07 2,03 1,98 1,94 1,89 1,84 1,78
23 2,27 2,20 2,13 2,05 2,01 1,96 1,91 1,86 1,81 1,76
24 2,25 2,18 2,11 2,03 1,98 1,94 1,89 1,84 1,79 1,73

25 2,24 2,16 2,09 2,01 1,96 1,92 1,87 1,82 1,77 1,71
26 2,22 2,15 2,07 1,99 1,95 1,90 1,85 1,80 1,75 1,69
27 2,20 2,13 2,06 1,97 1,93 1,88 1,84 1,79 1,73 1,67
28 2,19 2,12 2,04 1,96 1,91 1,87 1,82 1,77 1,71 1,65
29 2,18 2,10 2,03 1,94 1,90 1,85 1,81 1,75 1,70 1,64

30 2,16 2,09 2,01 1,93 1,89 1,84 1,79 1,74 1,68 1,62
40 2,08 2,00 1,92 1,84 1,79 1,74 1,69 1,64 1,58 1,51
60 1,99 1,92 1,84 1,75 1,70 1,65 1,59 1,53 1,47 1,39
120 1,91 1,83 1,75 1,66 1,61 1,55 1,50 1,43 1,35 1,25
 1,83 1,75 1,67 1,57 1,52 1,46 1,39 1,32 1,22 1,00

Fonte: Scheffé, H. The analysis of variance. New York : Wiley, 1959.

TABELA 06. Valores de F para o nível de significância de 10%.

Nº de
graus de
liberdade Número de graus de liberdade do
do deno-
minador numerador
1 2 3 4 5 6 7 8 9
1 39,9 49,5 53,6 55,8 57,2 58,2 58,9 59,4 59,9
2 8,53 9,00 9,16 9,24 9,29 9,33 9,35 9,37 9,38
3 5,54 5,46 5,39 5,34 5,31 5,28 5,27 5,25 5,24
4 4,54 4,32 4,19 4,11 4,05 4,01 3,98 3,95 3,94

5 4,06 3,78 3,62 3,52 3,45 3,40 3,37 3,34 3,32


6 3,78 3,46 3,29 3,18 3,11 3,05 3,01 2,98 2,96
7 3,59 3,26 3,07 2,96 2,88 2,83 2,78 2,75 2,72
8 3,46 3,11 2,92 2,81 2,73 2,67 2,62 2,59 2,56
9 3,36 3,01 2,81 2,69 2,61 2,55 2,51 2,47 2,44

10 3,29 2,92 2,73 2,61 2,52 2,46 2,41 2,38 2,35


11 3,23 2,86 2,66 2,54 2,45 2,39 2,34 2,30 2,27
12 3,18 2,81 2,61 2,48 2,39 2,33 2,28 2,24 2,21
13 3,14 2,76 2,56 2,43 2,35 2,28 2,23 2,20 2,16
14 3,10 2,73 2,52 2,39 2,31 2,24 2,19 2,15 2,12

15 3,07 2,70 2,49 2,36 2,27 2,21 2,16 2,12 2,09


16 3,05 2,67 2,46 2,33 2,24 2,18 2,13 2,09 2,06
17 3,03 2,64 2,44 2,31 2,22 2,15 2,10 2,06 2,03
18 3,01 2,62 2,42 2,29 2,20 2,13 2,08 2,04 2,00
19 2,99 2,61 2,40 2,27 2,18 2,11 2,06 2,02 1,98

20 2,97 2,59 2,38 2,25 2,16 2,09 2,04 2,00 1,96


21 2,96 2,57 2,36 2,23 2,14 2,08 2,02 1,98 1,95
22 2,95 2,56 2,35 2,22 2,13 2,06 2,01 1,97 1,93
23 2,94 2,55 2,34 2,21 2,11 2,05 1,99 1,95 1,92
24 2,93 2,54 2,33 2,19 2,10 2,04 1,98 1,94 1,91

25 2,92 2,53 2,32 2,18 2,09 2,02 1,97 1,93 1,89


26 2,91 2,52 2,31 2,17 2,08 2,01 1,96 1,92 1,88
27 2,90 2,51 2,30 2,17 2,07 2,00 1,95 1,91 1,87
28 2,89 2,50 2,29 2,16 2,06 2,00 1,94 1,90 1,87
29 2,89 2,50 2,28 2,15 2,06 1,99 1,93 1,89 1,86

30 2,88 2,49 2,28 2,14 2,05 1,98 1,93 1,88 1,85


40 2,84 2,44 2,23 2,09 2,00 1,93 1,87 1,83 1,79
60 2,79 2,39 2,18 2,04 1,95 1,87 1,82 1,77 1,74
120 2,75 2,35 2,13 1,99 1,90 1,82 1,77 1,72 1,68
 2,71 2,30 2,08 1,94 1,85 1,77 1,72 1,67 1,63

TABELA 06. (Continuação)

Nº de
graus de
liberdade Número de graus de liberdade do
do deno-
minador numerador
10 12 15 20 24 30 40 60 120 

1 60,2 60,7 61,2 61,7 62,0 62,3 62,5 62,8 63,1 63,3
2 9,39 9,41 9,42 9,44 9,45 9,46 9,47 9,47 9,48 9,49
3 5,23 5,22 5,20 5,18 5,18 5,17 5,16 5,15 5,14 5,13
4 3,92 3,90 3,87 3,84 3,83 3,82 3,80 3,79 3,78 3,76

5 3,30 3,27 3,24 3,21 3,19 3,17 3,16 3,14 3,12 3,10
6 2,94 2,90 2,87 2,84 2,82 2,80 2,78 2,76 2,74 2,72
7 2,70 2,67 2,63 2,59 2,58 2,56 2,54 2,51 2,49 2,47
8 2,54 2,50 2,46 2,42 2,40 2,38 2,36 2,34 2,32 2,29
9 2,42 2,38 2,34 2,30 2,28 2,25 2,23 2,21 2,18 2,16

10 2,32 2,28 2,24 2,20 2,18 2,16 2,13 2,11 2,08 2,06
11 2,25 2,21 2,17 2,12 2,10 2,08 2,05 2,03 2,00 1,97
12 2,19 2,15 2,10 2,06 2,04 2,01 1,99 1,96 1,93 1,90
13 2,14 2,10 2,05 2,01 1,98 1,96 1,93 1,90 1,88 1,85
14 2,10 2,05 2,01 1,96 1,94 1,91 1,89 1,86 1,83 1,80

15 2,06 2,02 1,97 1,92 1,90 1,87 1,85 1,82 1,79 1,76
16 2,03 1,99 1,94 1,89 1,87 1,84 1,81 1,78 1,75 1,72
17 2,00 1,96 1,91 1,86 1,84 1,81 1,78 1,75 1,72 1,69
18 1,98 1,93 1,89 1,84 1,81 1,78 1,75 1,72 1,69 1,66
19 1,96 1,91 1,86 1,81 1,79 1,76 1,73 1,70 1,67 1,63

20 1,94 1,89 1,84 1,79 1,77 1,74 1,71 1,68 1,64 1,61
21 1,92 1,88 1,83 1,78 1,75 1,72 1,69 1,66 1,62 1,59
22 1,90 1,86 1,81 1,76 1,73 1,70 1,67 1,64 1,60 1,57
23 1,89 1,84 1,80 1,74 1,72 1,69 1,66 1,62 1,59 1,55
24 1,88 1,83 1,78 1,73 1,70 1,67 1,64 1,61 1,57 1,53

25 1,87 1,82 1,77 1,72 1,69 1,66 1,63 1,59 1,56 1,52
26 1,86 1,81 1,76 1,71 1,68 1,65 1,61 1,58 1,54 1,50
27 1,85 1,80 1,75 1,70 1,67 1,64 1,60 1,57 1,53 1,49
28 1,84 1,79 1,74 1,69 1,66 1,63 1,59 1,56 1,52 1,48
29 1,83 1,78 1,73 1,68 1,65 1,62 1,58 1,55 1,51 1,47

30 1,82 1,77 1,72 1,67 1,64 1,61 1,57 1,54 1,50 1,46
40 1,76 1,71 1,66 1,61 1,57 1,54 1,51 1,47 1,42 1,38
60 1,71 1,66 1,60 1,54 1,51 1,48 1,44 1,40 1,35 1,29
120 1,65 1,60 1,55 1,48 1,45 1,41 1,37 1,32 1,26 1,19
 1,60 1,55 1,49 1,42 1,38 1,34 1,30 1,24 1,17 1,00

Fonte: Scheffé, H. The analysis of variance. New York : Wiley, 1959.

TABELA 07. Valores de q para o nível de significância de 1%.

Nº de
graus de
liberdade Número de tratamentos
do resíduo 2 3 4 5 6 7 8 9 10
1 90,0 135 164 186 202 216 227 237 246
2 14,0 19,0 22,3 24,7 26,6 28,2 29,5 30,7 31,7
3 8,26 10,6 12,2 13,3 14,2 15,0 15,6 16,2 16,7
4 6,51 8,12 9,17 9,96 10,6 11,1 11,5 11,9 12,3
5 5,70 6,97 7,80 8,42 8,91 9,32 9,67 9,97 10,2
6 5,24 6,33 7,03 7,56 7,97 8,32 8,61 8,87 9,10
7 4,95 5,92 6,54 7,01 7,37 7,68 7,94 8,17 8,37
8 4,74 5,63 6,20 6,63 6,96 7,24 7,47 7,68 7,87
9 4,60 5,43 5,96 6,35 6,66 6,91 7,13 7,32 7,49
10 4,48 5,27 5,77 6,14 6,43 6,67 6,87 7,05 7,21
11 4,39 5,14 5,62 5,97 6,25 6,48 6,67 6,84 6,99
12 4,32 5,04 5,50 5,84 6,10 6,32 6,51 6,67 6,81
13 4,26 4,96 5,40 5,73 5,98 6,19 6,37 6,53 6,67
14 4,21 4,89 5,32 5,63 5,88 6,08 6,26 6,41 6,54
15 4,17 4,83 5,25 5,56 5,80 5,99 6,16 6,31 6,44
16 4,13 4,78 5,19 5,49 5,72 5,92 6,08 6,22 6,35
17 4,10 4,74 5,14 5,43 5,66 5,85 6,01 6,15 6,27
18 4,07 4,70 5,09 5,38 5,60 5,79 5,94 6,08 6,20
19 4,05 4,67 5,05 5,33 5,55 5,73 5,89 6,02 6,14
20 4,02 4,64 5,02 5,29 5,51 5,69 5,84 5,97 6,09
24 3,96 4,54 4,91 5,17 5,37 5,54 5,69 5,81 5,92
30 3,89 4,45 4,80 5,05 5,24 5,40 5,54 5,65 5,76
40 3,82 4,37 4,70 4,93 5,11 5,27 5,39 5,50 5,60
60 3,76 4,28 4,60 4,82 4,99 5,13 5,25 5,36 5,45
120 3,70 4,20 4,50 4,71 4,87 5,01 5,12 5,21 5,30
 3,64 4,12 4,40 4,60 4,76 4,88 4,99 5,08 5,16

TABELA 07. (Continuação)

Nº de
graus de
liberdade Número de tratamentos
do resíduo
11 12 13 14 15 16 17 18 19 20
1 253 260 266 272 277 282 286 290 294 298
2 32,6 33,4 34,1 34,8 35,4 36,00 36,5 37,0 37,5 37,9
3 17,1 17,5 17,9 18,2 18,5 18,8 19,1 19,3 19,5 19,8
4 12,6 12,8 13,1 13,3 13,5 13,7 13,9 14,1 14,2 14,4

Continua...
Continuação...

Nº de
graus de
liberdade Número de tratamentos
do resíduo
11 12 13 14 15 16 17 18 19 20
5 10,5 10,7 10,9 11,1 11,2 11,4 11,6 11,7 11,8 11,9
6 9,30 9,49 9,65 9,81 9,95 10,1 10,2 10,3 10,4 10,5
7 8,55 8,71 8,86 9,00 9,12 9,24 9,35 9,46 9,55 9,65
8 8,03 8,18 8,31 8,44 8,55 8,66 8,76 8,85 8,94 9,03
9 7,65 7,78 7,91 8,03 8,13 8,23 8,32 8,41 8,49 8,57
10 7,36 7,48 7,60 7,71 7,81 7,91 7,99 8,07 8,15 8,22
11 7,13 7,25 7,36 7,46 7,56 7,65 7,73 7,81 7,88 7,95
12 6,94 7,06 7,17 7,26 7,36 7,44 7,52 7,59 7,66 7,73
13 6,79 6,90 7,01 7,10 7,19 7,27 7,34 7,42 7,48 7,55
14 6,66 6,77 6,87 6,96 7,05 7,12 7,20 7,27 7,33 7,39
15 6,55 6,66 6,76 6,84 6,93 7,00 7,07 7,14 7,20 7,26
16 6,46 6,56 6,66 6,74 6,82 6,90 6,97 7,03 7,09 7,15
17 6,38 6,48 6,57 6,66 6,73 6,80 6,87 6,94 7,00 7,05
18 6,31 6,41 6,50 6,58 6,65 6,72 6,79 6,85 6,91 6,96
19 6,25 6,34 6,43 6,51 6,58 6,65 6,72 6,78 6,84 6,89
20 6,19 6,29 6,37 6,45 6,52 6,59 6,65 6,71 6,76 6,82
24 6,02 6,11 6,19 6,26 6,33 6,39 6,45 6,51 6,56 6,61
30 5,85 5,93 6,01 6,08 6,14 6,20 6,26 6,31 6,36 6,41
40 5,69 5,77 5,84 5,90 5,96 6,02 6,07 6,12 6,17 6,21
60 5,53 5,60 5,67 5,73 5,79 5,84 5,89 5,93 5,98 6,02
120 5,38 5,44 5,51 5,56 5,61 5,66 5,71 5,75 5,79 5,83
 5,23 5,29 5,35 5,40 5,45 5,49 5,54 5,57 5,61 5,65

Fonte: Scheffé, H. The analysis of variance. New York : Wiley, 1959.

TABELA 08. Valores de q para o nível de significância de 5%.

Nº de
graus de
liberdade Número de tratamentos
do resíduo
2 3 4 5 6 7 8 9 10
1 18,0 27,0 32,8 37,1 40,4 43,1 45,4 47,4 49,1
2 6,08 8,33 9,80 10,9 11,7 12,4 13,0 13,5 14,0
3 4,50 5,91 6,82 7,50 8,04 8,48 8,85 9,18 9,46
4 3,93 5,04 5,76 6,29 6,71 7,05 7,35 7,60 7,83
5 3,64 4,60 5,22 5,67 6,03 6,33 6,58 6,80 6,99
6 3,46 4,34 4,90 5,30 5,63 5,90 6,12 6,32 6,49
7 3,34 4,16 4,68 5,06 5,36 5,61 5,82 6,00 6,16
8 3,26 4,04 4,53 4,89 5,17 5,40 5,60 5,77 5,92
9 3,20 3,95 4,41 4,76 5,02 5,24 5,43 5,59 5,74

Continua...
Continuação...
Nº de
graus de
liberdade Número de tratamentos
do resíduo
2 3 4 5 6 7 8 9 10
10 3,15 3,88 4,33 4,65 4,91 5,12 5,30 5,46 5,60
11 3,11 3,82 4,26 4,57 4,82 5,03 5,20 5,35 5,49
12 3,08 3,77 4,20 4,51 4,75 4,95 5,12 5,27 5,39
13 3,06 3,73 4,15 4,45 4,69 4,88 5,05 5,19 5,32
14 3,03 3,70 4,11 4,41 4,64 4,83 4,99 5,13 5,25
15 3,01 3,67 4,08 4,37 4,59 4,78 4,94 5,08 5,20
16 3,00 3,65 4,05 4,33 4,56 4,74 4,90 5,03 5,15
17 2,98 3,63 4,02 4,30 4,52 4,70 4,86 4,99 5,11
18 2,97 3,61 4,00 4,28 4,49 4,67 4,82 4,96 5,07
19 2,96 3,59 3,98 4,25 4,47 4,65 4,79 4,92 5,04
20 2,95 3,58 3,96 4,23 4,45 4,62 4,77 4,90 5,01
24 2,92 3,53 3,90 4,17 4,37 4,54 4,68 4,81 4,92
30 2,89 3,49 3,85 4,10 4,30 4,46 4,60 4,72 4,82
40 2,86 3,44 3,79 4,04 4,23 4,39 4,52 4,63 4,73
60 2,83 3,40 3,74 3,98 4,16 4,31 4,44 4,55 4,65
120 2,80 3,36 3,68 3,92 4,10 4,24 4,36 4,47 4,56
 2,77 3,31 3,63 3,86 4,03 4,17 4,29 4,39 4,47

TABELA 08. (Continuação)

Nº de
graus de
liberdade Número de tratamentos
do resíduo
11 12 13 14 15 16 17 18 19 20
1 50,6 52,0 53,2 54,3 55,4 56,3 57,2 58,0 58,8 59,6
2 14,4 14,7 15,1 15,4 15,7 15,9 16,1 16,4 16,6 16,8
3 9,72 9,95 10,2 10,3 10,5 10,7 10,8 11,0 11,1 11,2
4 8,03 8,21 8,37 8,52 8,66 8,79 8,91 9,03 9,13 9,23
5 7,17 7,32 7,47 7,60 7,72 7,83 7,93 8,03 8,12 8,21
6 6,65 6,79 6,92 7,03 7,14 7,24 7,34 7,43 7,51 7,59
7 6,30 6,43 6,55 6,66 6,76 6,85 6,94 7,02 7,10 7,17
8 6,05 6,18 6,29 6,39 6,48 6,57 6,65 6,73 6,80 6,87
9 5,87 5,98 6,09 6,19 6,28 6,36 6,44 6,51 6,58 6,64
10 5,72 5,83 5,93 6,03 6,11 6,19 6,27 6,34 6,40 6,47
11 5,61 5,71 5,81 5,90 5,98 6,06 6,13 6,20 6,27 6,33
12 5,51 5,61 5,71 5,80 5,88 5,95 6,02 6,09 6,15 6,21
13 5,43 5,53 5,63 5,71 5,79 5,86 5,93 5,99 6,05 6,11
14 5,36 5,46 5,55 5,64 5,71 5,79 5,85 5,91 5,97 6,03

Continua...
Continuação...

Nº de
graus de
liberdade Número de tratamentos
do resíduo
11 12 13 14 15 16 17 18 19 20
15 5,31 5,40 5,49 5,57 5,65 5,72 5,78 5,85 5,90 5,96
16 5,26 5,35 5,44 5,52 5,59 5,66 5,73 5,79 5,84 5,90
17 5,21 5,31 5,39 5,47 5,54 5,61 5,67 5,73 5,79 5,84
18 5,17 5,27 5,35 5,43 5,50 5,57 5,63 5,69 5,74 5,79
19 5,14 5,23 5,31 5,39 5,46 5,53 5,59 5,65 5,70 5,75
20 5,11 5,20 5,28 5,36 5,43 5,49 5,55 5,61 5,66 5,71
24 5,01 5,10 5,18 5,25 5,32 5,38 5,44 5,49 5,55 5,59
30 4,92 5,00 5,08 5,15 5,21 5,27 5,33 5,38 5,43 5,47
40 4,82 4,90 4,98 5,04 5,11 5,16 5,22 5,27 5,31 5,36
60 4,73 4,81 4,88 4,94 5,00 5,06 5,11 5,15 5,20 5,24
120 4,64 4,71 4,78 4,84 4,90 4,95 5,00 5,04 5,09 5,13
 4,55 4,62 4,68 4,74 4,80 4,85 4,89 4,93 4,97 5,01

Fonte: Scheffé, H. The analysis of variance. New York : Wiley, 1959.

TABELA 09. Valores de q para o nível de significância de 10%.

Nº de
graus de
liberdade Número de tratamentos
do resíduo
2 3 4 5 6 7 8 9 10
1 8,93 13,4 16,4 18,5 20,2 21,5 22,6 23,6 24,5
2 4,13 5,73 6,77 7,54 8,14 8,63 9,05 9,41 9,72
3 3,33 4,47 5,20 5,74 6,16 6,51 6,81 7,06 7,29
4 3,01 3,98 4,59 5,03 5,39 5,68 5,93 6,14 6,33
5 2,85 3,72 4,26 4,66 4,98 5,24 5,46 5,65 5,82
6 2,75 3,56 4,07 4,44 4,73 4,97 5,17 5,34 5,50
7 2,68 3,45 3,93 4,28 4,55 4,78 4,97 5,14 5,28
8 2,63 3,37 3,83 4,17 4,43 4,65 4,83 4,99 5,13
9 2,59 3,32 3,76 4,08 4,34 4,54 4,72 4,87 5,01
10 2,56 3,27 3,70 4,02 4,26 4,47 4,64 4,78 4,91
11 2,54 3,23 3,66 3,96 4,20 4,40 4,57 4,71 4,84
12 2,52 3,20 3,62 3,92 4,16 4,35 4,51 4,65 4,78
13 2,50 3,18 3,59 3,88 4,12 4,30 4,46 4,60 4,72
14 2,49 3,16 3,56 3,85 4,08 4,27 4,42 4,56 4,68
15 2,48 3,14 3,54 3,83 4,05 4,23 4,39 4,52 4,64
16 2,47 3,12 3,52 3,80 4,03 4,21 4,36 4,49 4,61
17 2,46 3,11 3,50 3,78 4,00 4,18 4,33 4,46 4,58
18 2,45 3,10 3,49 3,77 3,98 4,16 4,31 4,44 4,55
19 2,45 3,09 3,47 3,75 3,97 4,14 4,29 4,42 4,53

Continua...
Continuação...
Nº de
graus de
liberdade Número de tratamentos
do resíduo
2 3 4 5 6 7 8 9 10
20 2,44 3,08 3,46 3,74 3,95 4,12 4,27 4,40 4,51
24 2,42 3,05 3,42 3,69 3,90 4,07 4,21 4,34 4,44
30 2,40 3,02 3,39 3,65 3,85 4,02 4,16 4,28 4,38
40 2,38 2,99 3,35 3,60 3,80 3,96 4,10 4,21 4,32
60 2,36 2,96 3,31 3,56 3,75 3,91 4,04 4,16 4,25
120 2,34 2,93 3,28 3,52 3,71 3,86 3,99 4,10 4,19
 2,33 2,90 3,24 3,48 3,66 3,81 3,93 4,04 4,13

TABELA 09. (Continuação)

Nº de
graus de
liberdade Número de tratamentos
do resíduo
11 12 13 14 15 16 17 18 19 20
1 25,2 25,9 26,5 27,1 27,6 28,1 28,5 29,0 29,3 29,7
2 10,0 10,3 10,5 10,7 10,9 11,1 11,2 11,4 11,5 11,7
3 7,49 7,67 7,83 7,98 8,12 8,25 8,37 8,48 8,58 8,68
4 6,49 6,65 6,78 6,91 7,02 7,13 7,23 7,33 7,41 7,50
5 5,97 6,10 6,22 6,34 6,44 6,54 6,63 6,71 6,79 6,86
6 5,64 5,76 5,87 5,98 6,07 6,16 6,25 6,32 6,40 6,47
7 5,41 5,53 5,64 5,74 5,83 5,91 5,99 6,06 6,13 6,19
8 5,25 5,36 5,46 5,56 5,64 5,72 5,80 5,87 5,93 6,00
9 5,13 5,23 5,33 5,42 5,51 5,58 5,66 5,72 5,79 5,85
10 5,03 5,13 5,23 5,32 5,40 5,47 5,54 5,61 5,67 5,73
11 4,95 5,05 5,15 5,23 5,31 5,38 5,45 5,51 5,57 5,63
12 4,89 4,99 5,08 5,16 5,24 5,31 5,37 5,44 5,49 5,55
13 4,83 4,93 5,02 5,10 5,18 5,25 5,31 5,37 5,43 5,48
14 4,79 4,88 4,97 5,05 5,12 5,19 5,26 5,32 5,37 5,43
15 4,75 4,84 4,93 5,01 5,08 5,15 5,21 5,27 5,32 5,38
16 4,71 4,81 4,89 4,97 5,04 5,11 5,17 5,23 5,28 5,33
17 4,68 4,77 4,86 4,93 5,01 5,07 5,13 5,19 5,24 5,30
18 4,65 4,75 4,83 4,90 4,98 5,04 5,10 5,16 5,21 5,26
19 4,63 4,72 4,80 4,88 4,95 5,01 5,07 5,13 5,18 5,23
20 4,61 4,70 4,78 4,85 4,92 4,99 5,05 5,10 5,16 5,20
24 4,54 4,63 4,71 4,78 4,85 4,91 4,97 5,02 5,07 5,12
30 4,47 4,56 4,64 4,71 4,77 4,83 4,89 4,94 4,99 5,03
40 4,41 4,49 4,56 4,63 4,69 4,75 4,81 4,86 4,90 4,95
60 4,34 4,42 4,49 4,56 4,62 4,67 4,73 4,78 4,82 4,86
120 4,28 4,35 4,42 4,48 4,54 4,60 4,65 4,69 4,74 4,78
 4,21 4,28 4,35 4,41 4,47 4,52 4,57 4,61 4,65 4,69

Fonte: Scheffé, H. The analysis of variance. New York : Wiley, 1959.


TABELA 10. Valores de z para o nível de significância de 1%.
Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
contraste
2 3 4 5 6 7 8 9 10
1 90,03 90,03 90,03 90,03 90,03 90,03 90,03 90,03 90,03
2 14,04 14,04 14,04 14,04 14,04 14,04 14,04 14,04 14,04
3 8,261 8,321 8,321 8,321 8,321 8,321 8,321 8,321 8,321
4 6,512 6,677 6,740 6,756 6,756 6,756 6,756 6,756 6,756
5 5,702 5,893 5,989 6,040 6,065 6,074 6,074 6,074 6,074
6 5,243 5,439 5,549 5,614 5,655 5,680 5,694 5,701 5,703
7 4,949 5,145 5,260 5,334 5,383 5,416 5,439 5,454 5,464
8 4,746 4,939 5,057 5,135 5,189 5,227 5,256 5,276 5,291
9 4,596 4,787 4,906 4,986 5,043 5,086 5,118 5,142 5,160
10 4,482 4,671 4,790 4,871 4,931 4,975 5,010 5,037 5,058
11 4,392 4,579 4,697 4,780 4,841 4,887 4,924 4,952 4,975
12 4,320 4,504 4,622 4,706 4,767 4,815 4,852 4,883 4,907
13 4,260 4,442 4,560 4,644 4,706 4,755 4,793 4,824 4,850
14 4,210 4,391 4,508 4,591 4,654 4,704 4,743 4,775 4,802
15 4,168 4,347 4,463 4,547 4,610 4,660 4,700 4,733 4,760
16 4,131 4,309 4,425 4,509 4,572 4,622 4,663 4,696 4,724
17 4,099 4,275 4,391 4,475 4,539 4,589 4,630 4,664 4,693
18 4,071 4,246 4,362 4,445 4,509 4,560 4,601 4,635 4,664
19 4,046 4,220 4,335 4,419 4,483 4,534 4,575 4,610 4,639
20 4,024 4,197 4,312 4,395 4,459 4,510 4,552 4,587 4,617
24 3,956 4,126 4,239 4,322 4,386 4,437 4,480 4,516 4,546
30 3,889 4,056 4,168 4,250 4,314 4,366 4,409 4,445 4,477
40 3,825 3,988 4,098 4,180 4,244 4,296 4,339 4,376 4,408
60 3,762 3,922 4,031 4,111 4,174 4,226 4,270 4,307 4,340
120 3,702 3,858 3,965 4,044 4,107 4,158 4,202 4,239 4,272
 3,643 3,796 3,900 3,978 4,040 4,091 4,135 4,172 4,205

TABELA 10. (Continuação)

Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
contraste
11 12 13 14 15 16 17 18 19 20
1 90,03 90,03 90,03 90,03 90,03 90,03 90,03 90,03 90,03 90,03
2 14,04 14,04 14,04 14,04 14,04 14,04 14,04 14,04 14,04 14,04
3 8,321 8,321 8,321 8,321 8,321 8,321 8,321 8,321 8,321 8,321
4 6,756 6,756 6,756 6,756 6,756 6,756 6,756 6,756 6,756 6,756
5 6,074 6,074 6,074 6,074 6,074 6,074 6,074 6,074 6,074 6,074
6 5,703 5,703 5,703 5,703 5,703 5,703 5,703 5,703 5,703 5,703
7 5,470 5,472 5,472 5,472 5,472 5,472 5,472 5,472 5,472 5,472
Continua...
Continuação...

Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
contraste
11 12 13 14 15 16 17 18 19 20
8 5,302 5,309 5,314 5,316 5,317 5,317 5,317 5,317 5,317 5,317
9 5,174 5,185 5,193 5,199 5,203 5,205 5,206 5,206 5,206 5,206
10 5,074 5,088 5,098 5,106 5,112 5,117 5,120 5,122 5,124 5,124
11 4,994 5,009 5,021 5,031 5,039 5,045 5,050 5,054 5,057 5,059
12 4,927 4,944 4,958 4,969 4,978 4,986 4,993 4,998 5,002 5,006
13 4,872 4,889 4,904 4,917 4,928 4,937 4,944 4,950 4,956 4,960
14 4,824 4,843 4,859 4,872 4,884 4,894 4,902 4,910 4,916 4,921
15 4,783 4,803 4,820 4,834 4,846 4,857 4,866 4,874 4,881 4,887
16 4,748 4,768 4,786 4,800 4,813 4,825 4,835 4,844 4,851 4,858
17 4,717 4,738 4,756 4,771 4,785 4,797 4,807 4,816 4,824 4,832
18 4,689 4,711 4,729 4,745 4,759 4,772 4,783 4,792 4,801 4,808
19 4,665 4,686 4,705 4,722 4,736 4,749 4,761 4,771 4,780 4,788
20 4,642 4,664 4,684 4,701 4,716 4,729 4,741 4,751 4,761 4,769
24 4,573 4,596 4,616 4,634 4,651 4,665 4,678 4,690 4,700 4,710
30 4,504 4,528 4,550 4,569 4,586 4,601 4,615 4,628 4,640 4,650
40 4,436 4,461 4,483 4,503 4,521 4,537 4,553 4,566 4,579 4,591
60 4,368 4,394 4,417 4,438 4,456 4,474 4,490 4,504 4,518 4,530
120 4,301 4,327 4,351 4,372 4,392 4,410 4,426 4,442 4,456 4,469
 4,235 4,261 4,285 4,307 4,327 4,345 4,363 4,379 4,394 4,408

Fonte: Harter, H. L. Critical values for Duncan’s new multiple range test. Biometrics,
(16): 671-85, 1960.

TABELA 11. Valores de z para o nível de significância de 5%.

Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
intervalo
2 3 4 5 6 7 8 9 10
1 17,97 17,97 17,97 17,97 17,97 17,97 17,97 17,97 17,97
2 6,085 6,085 6,085 6,085 6,085 6,085 6,085 6,085 6,085
3 4,501 4,516 4,516 4,516 4,516 4,516 4,516 4,516 4,516
4 3,927 4,013 4,033 4,033 4,033 4,033 4,033 4,033 4,033
5 3,635 3,749 3,797 3,814 3,814 3,814 3,814 3,814 3,814
6 3,461 3,587 3,649 3,680 3,694 3,697 3,697 3,697 3,697
7 3,344 3,477 3,548 3,588 3,611 3,622 3,626 3,626 3,626
8 3,261 3,399 3,475 3,521 3,549 3,566 3,575 3,579 3,579
9 3,199 3,339 3,420 3,470 3,502 3,523 3,536 3,544 3,547
10 3,151 3,293 3,376 3,430 3,465 3,489 3,505 3,516 3,522
11 3,113 3,256 3,342 3,397 3,435 3,462 3,480 3,493 3,501
12 3,082 3,225 3,313 3,370 3,410 3,439 3,459 3,474 3,484

Continua...
Continuação...

Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
intervalo
2 3 4 5 6 7 8 9 10
13 3,055 3,200 3,289 3,348 3,389 3,419 3,442 3,458 3,470
14 3,033 3,178 3,268 3,329 3,372 3,403 3,426 3,444 3,457
15 3,014 3,160 3,250 3,312 3,356 3,389 3,413 3,432 3,446
16 2,998 3,144 3,235 3,298 3,343 3,376 3,402 3,422 3,437
17 2,984 3,130 3,222 3,285 3,331 3,366 3,392 3,412 3,429
18 2,971 3,118 3,210 3,274 3,321 3,356 3,383 3,405 3,421
19 2,960 3,107 3,199 3,264 3,311 3,347 3,375 3,397 3,415
20 2,950 3,097 3,190 3,255 3,303 3,339 3,368 3,391 3,409
24 2,919 3,066 3,160 3,226 3,276 3,315 3,345 3,370 3,390
30 2,888 3,035 3,131 3,199 3,250 3,290 3,322 3,349 3,371
40 2,858 3,006 3,102 3,171 3,224 3,266 3,300 3,328 3,352
60 2,829 2,976 3,073 3,143 3,198 3,241 3,277 3,307 3,333
120 2,800 2,947 3,045 3,116 3,172 3,217 3,254 3,287 3,314
 2,772 2,918 3,017 3,089 3,146 3,193 3,232 3,265 3,294

TABELA 11. (Continuação)

Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
intervalo
11 12 13 14 15 16 17 18 19 20
1 17,97 17,97 17,97 17,97 17,97 17,97 17,97 17,97 17,97 17,97
2 6,085 6,085 6,085 6,085 6,085 6,085 6,085 6,085 6,085 6,085
3 4,516 4,516 4,516 4,516 4,516 4,516 4,516 4,516 4,516 4,516
4 4,033 4,033 4,033 4,033 4,033 4,033 4,033 4,033 4,033 4,033
5 3,814 3,814 3,814 3,814 3,814 3,814 3,814 3,814 3,814 3,814
6 3,697 3,697 3,697 3,697 3,697 3,697 3,697 3,697 3,697 3,697
7 3,626 3,626 3,626 3,626 3,626 3,626 3,626 3,626 3,626 3,626
8 3,579 3,579 3,579 3,579 3,579 3,579 3,579 3,579 3,579 3,579
9 3,547 3,547 3,547 3,547 3,547 3,547 3,547 3,547 3,547 3,547
10 3,525 3,526 3,526 3,526 3,526 3,526 3,526 3,526 3,526 3,526
11 3,506 3,509 3,510 3,510 3,510 3,510 3,510 3,510 3,510 3,510
12 3,491 3,496 3,498 3,499 3,499 3,499 3,499 3,499 3,499 3,499
13 3,478 3,484 3,488 3,490 3,490 3,490 3,490 3,490 3,490 3,490
14 3,467 3,474 3,479 3,482 3,484 3,484 3,485 3,485 3,485 3,485
15 3,457 3,465 3,471 3,476 3,478 3,480 3,481 3,481 3,481 3,481
16 3,449 3,458 3,465 3,470 3,473 3,477 3,478 3,478 3,478 3,478
17 3,441 3,451 3,459 3,465 3,469 3,473 3,475 3,476 3,476 3,476
18 3,435 3,445 3,454 3,460 3,465 3,470 3,472 3,474 3,474 3,474
19 3,429 3,440 3,449 3,456 3,462 3,467 3,470 3,472 3,473 3,474
20 3,424 3,436 3,445 3,453 3,459 3,464 3,467 3,470 3,472 3,473

Continua...
Continuação...

Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
intervalo
11 12 13 14 15 16 17 18 19 20
24 3,406 3,420 3,432 3,441 3,449 3,456 3,461 3,465 3,469 3,471
30 3,389 3,405 3,418 3,430 3,439 3,447 3,454 3,460 3,466 3,470
40 3,373 3,390 3,405 3,418 3,429 3,439 3,448 3,456 3,463 3,469
60 3,355 3,374 3,391 3,406 3,419 3,431 3,442 3,451 3,460 3,467
120 3,337 3,359 3,377 3,394 3,409 3,423 3,435 3,446 3,457 3,466
 3,320 3,343 3,363 3,382 3,399 3,414 3,428 3,442 3,454 3,466

Fonte: Harter, H. L. Critical values for Duncan’s new multiple range test. Biometrics,
(16): 671-85, 1960.

TABELA 12. Valores de z para o nível de significância de 10%.

Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
intervalo
2 3 4 5 6 7 8 9 10
1 8,929 8,929 8,929 8,929 8,929 8,929 8,929 8,929 8,929
2 4,130 4,130 4,130 4,130 4,130 4,130 4,130 4,130 4,130
3 3,328 3,330 3,330 3,330 3,330 3,330 3,330 3,330 3,330
4 3,015 3,074 3,081 3,081 3,081 3,081 3,081 3,081 3,081
5 2,850 2,934 2,964 2,970 2,970 2,970 2,970 2,970 2,970
6 2,748 2,846 2,890 2,908 2,911 2,911 2,911 2,911 2,911
7 2,680 2,785 2,838 2,864 2,876 2,878 2,878 2,878 2,878
8 2,630 2,742 2,800 2,832 2,849 2,857 2,858 2,858 2,858
9 2,592 2,708 2,771 2,808 2,829 2,840 2,845 2,847 2,847
10 2,563 2,682 2,748 2,788 2,813 2,827 2,835 2,839 2,839
11 2,540 2,660 2,730 2,772 2,799 2,817 2,827 2,833 2,835
12 2,521 2,643 2,714 2,759 2,789 2,808 2,821 2,828 2,832
13 2,505 2,628 2,701 2,748 2,779 2,800 2,815 2,824 2,829
14 2,491 2,616 2,690 2,739 2,771 2,794 2,810 2,820 2,827
15 2,479 2,605 2,681 2,731 2,765 2,789 2,805 2,817 2,825
16 2,469 2,596 2,673 2,723 2,759 2,784 2,802 2,815 2,824
17 2,460 2,588 2,665 2,717 2,753 2,780 2,798 2,812 2,822
18 2,452 2,580 2,659 2,712 2,749 2,776 2,796 2,810 2,821
19 2,445 2,574 2,653 2,707 2,745 2,773 2,793 2,808 2,820
20 2,439 2,568 2,648 2,702 2,741 2,770 2,791 2,807 2,819
24 2,420 2,550 2,632 2,688 2,729 2,760 2,783 2,801 2,816
30 2,400 2,532 2,615 2,674 2,717 2,750 2,776 2,796 2,813
40 2,381 2,514 2,600 2,660 2,705 2,741 2,769 2,791 2,810
60 2,363 2,497 2,584 2,646 2,694 2,731 2,761 2,786 2,807
120 2,344 2,479 2,568 2,632 2,682 2,722 2,754 2,781 2,804
 2,326 2,462 2,552 2,619 2,670 2,712 2,746 2,776 2,801
TABELA 12. (Continuação)

Nº de
graus de
liberdade Número de médias abrangidas pelo
do resíduo
intervalo
11 12 13 14 15 16 17 18 19 20
1 8,929 8,929 8,929 8,929 8,929 8,929 8,929 8,929 8,929 8,929
2 4,130 4,130 4,130 4,130 4,130 4,130 4,130 4,130 4,130 4,130
3 3,330 3,330 3,330 3,330 3,330 3,330 3,330 3,330 3,330 3,330
4 3,081 3,081 3,081 3,081 3,081 3,081 3,081 3,081 3,081 3,081
5 2,970 2,970 2,970 2,970 2,970 2,970 2,970 2,970 2,970 2,970
6 2,911 2,911 2,911 2,911 2,911 2,911 2,911 2,911 2,911 2,911
7 2,878 2,878 2,878 2,878 2,878 2,878 2,878 2,878 2,878 2,878
8 2,858 2,858 2,858 2,858 2,858 2,858 2,858 2,858 2,858 2,858
9 2,847 2,847 2,847 2,847 2,847 2,847 2,847 2,847 2,847 2,847
10 2,839 2,839 2,839 2,839 2,839 2,839 2,839 2,839 2,839 2,839
11 2,835 2,835 2,835 2,835 2,835 2,835 2,835 2,835 2,835 2,835
12 2,833 2,833 2,833 2,833 2,833 2,833 2,833 2,833 2,833 2,833
13 2,832 2,832 2,832 2,832 2,832 2,832 2,832 2,832 2,832 2,832
14 2,831 2,832 2,833 2,833 2,833 2,833 2,833 2,833 2,833 2,833
15 2,830 2,833 2,834 2,834 2,834 2,834 2,834 2,834 2,834 2,834
16 2,829 2,833 2,835 2,836 2,836 2,836 2,836 2,836 2,836 2,836
17 2,829 2,834 2,836 2,838 2,838 2,838 2,838 2,838 2,838 2,838
18 2,828 2,834 2,838 2,840 2,840 2,840 2,840 2,840 2,840 2,840
19 2,828 2,834 2,839 2,841 2,842 2,843 2,843 2,843 2,843 2,843
20 2,828 2,834 2,839 2,843 2,845 2,845 2,845 2,845 2,845 2,845
24 2,827 2,835 2,842 2,848 2,851 2,854 2,856 2,857 2,857 2,857
30 2,826 2,837 2,846 2,853 2,859 2,863 2,867 2,869 2,871 2,873
40 2,825 2,838 2,849 2,858 2,866 2,873 2,878 2,883 2,887 2,890
60 2,825 2,839 2,853 2,864 2,874 2,883 2,890 2,897 2,903 2,908
120 2,824 2,842 2,857 2,871 2,883 2,893 2,903 2,912 2,920 2,928
 2,824 2,844 2,861 2,877 2,892 2,905 2,918 2,929 2,939 2,949

Fonte: Harter, H. L. Critical values for Duncan’s new multiple range test. Biometrics,
(16): 671-85, 1960.

TABELA 13. Valores de t d para o nível de significância de 1%.


Nº de
graus de
liberdade Número de graus de liberdade de
do
resíduo tratamentos
1 2 3 4 5 6 7 8 9 10 11 12 15 20
5 4,03 4,69 4,98 5,22 5,41 5,56 5,68 5,80 5,80 5,98 6,05 6,12 6,30 6,52
6 3,71 4,21 4,51 4,71 4,87 5,00 5,10 5,20 5,28 5,35 5,41 5,47 5,62 5,81
7 3,50 3,95 4,21 4,39 4,83 4,64 4,74 4,82 4,89 4,95 5,01 5,06 5,19 5,36
8 3,36 3,77 4,00 4,17 4,29 4,40 4,48 4,56 4,62 4,68 4,73 4,78 4,90 5,05
9 3,25 3,63 3,85 4,01 4,12 4,22 4,30 4,37 4,43 4,48 4,53 4,57 4,68 4,82

Continua...
Continuação...

Nº de
graus de
liberdade Número de graus de liberdade de
do
resíduo tratamentos
1 2 3 4 5 6 7 8 9 10 11 12 15 20
10 3,17 3,53 3,74 3,88 3,99 4,08 4,16 4,22 4,28 4,33 4,37 4,42 4,52 4,65
11 3,11 3,45 3,65 3,79 3,89 3,98 4,05 4,11 4,16 4,21 4,25 4,29 4,39 4,52
12 3,05 3,39 3,58 3,71 3,81 3,89 3,96 4,02 4,07 4,12 4,16 4,19 4,29 4,41
13 3,01 3,33 3,52 3,65 3,74 3,82 3,89 3,94 3,99 4,04 4,08 4,11 4,20 4,32
14 2,98 3,29 3,47 3,59 3,69 3,76 3,83 3,88 3,93 3,97 4,01 4,05 4,13 4,24
15 2,95 3,25 3,43 3,55 3,64 3,71 3,78 3,83 3,88 3,92 3,95 3,99 4,07 4,18
16 2,92 3,22 3,39 3,51 3,60 3,67 3,73 3,78 3,83 3,87 3,91 3,94 4,02 4,13
17 2,90 3,19 3,36 3,47 3,56 3,63 3,69 3,74 3,79 3,83 3,86 3,90 3,98 4,08
18 2,88 3,17 3,33 3,44 3,53 3,60 3,66 3,71 3,75 3,79 3,83 3,86 3,94 4,04
19 2,86 3,15 3,31 3,42 3,50 3,57 3,63 3,68 3,72 3,76 3,79 3,83 3,90 4,00
20 2,85 3,13 3,29 3,40 3,48 3,55 3,60 3,65 3,69 3,73 3,77 3,80 3,87 3,97
24 2,80 3,07 3,22 3,32 3,40 3,47 3,52 3,57 3,61 3,64 3,68 3,70 3,78 3,87
30 2,75 3,01 3,15 3,25 3,33 3,39 3,44 3,49 3,52 3,56 3,59 3,62 3,69 3,78
40 2,70 2,95 3,09 3,19 3,26 3,32 3,37 3,41 3,44 3,48 3,51 3,53 3,60 3,68
60 2,66 2,90 3,03 3,12 3,19 3,25 3,29 3,33 3,37 3,40 3,42 3,45 3,51 3,59
120 2,62 2,85 2,97 3,06 3,12 3,18 3,22 3,26 3,29 3,32 3,35 3,37 3,43 3,51
 2,58 2,79 2,92 3,00 3,06 3,11 3,15 3,19 3,22 3,25 3,27 3,29 3,35 3,42

Fonte: Dunnett, C. W. New tables for multiple comparisons with a control. Biometrics,
20: 1964.

TABELA 14. Valores de t d para o nível de significância de 5%.


Nº de
graus de
liberdade Número de graus de liberdade de
do
resíduo tratamentos
1 2 3 4 5 6 7 8 9 10 11 12 15 20
5 2,57 3,03 3,29 3,48 3,62 3,73 3,82 3,90 3,97 4,03 4,09 4,14 4,26 4,42
6 2,45 2,86 3,10 3,26 3,39 3,49 3,57 3,64 3,71 3,76 3,81 3,86 3,97 4,11
7 2,36 2,75 2,97 3,12 3,24 3,33 3,41 3,47 3,53 3,58 3,63 3,67 3,78 3,91
8 2,31 2,67 2,88 3,02 3,13 3,22 3,29 3,35 3,41 3,46 3,50 3,54 3,64 3,76
9 2,26 2,61 2,81 2,95 3,05 3,14 3,20 3,26 3,32 3,36 3,40 3,44 3,53 3,65
10 2,23 2,57 2,76 2,89 2,99 3,07 3,14 3,19 3,24 3,29 3,33 3,36 3,45 3,57
11 2,20 2,53 2,72 2,84 2,94 3,02 3,08 3,14 3,19 3,23 3,27 3,30 3,39 3,50
12 2,18 2,50 2,68 2,81 2,90 2,98 3,04 3,09 3,14 3,18 3,22 3,25 3,34 3,45
13 2,16 2,48 2,65 2,78 2,87 2,94 3,00 3,06 3,10 3,14 3,18 3,21 3,29 3,40
14 2,14 2,46 2,63 2,75 2,84 2,91 2,97 3,02 3,07 3,11 3,14 3,18 3,26 3,36

Continua...
Continuação...

Nº de
graus de
liberdade Número de graus de liberdade de
do
resíduo tratamentos
1 2 3 4 5 6 7 8 9 10 11 12 15 20
15 2,13 2,44 2,61 2,73 2,82 2,89 2,95 3,00 3,04 3,08 3,12 3,15 3,23 3,33
16 2,12 2,42 2,59 2,71 2,80 2,87 2,92 2,97 3,02 3,06 3,09 3,12 3,20 3,30
17 2,11 2,41 2,58 2,69 2,78 2,85 2,90 2,95 3,00 3,03 3,07 3,10 3,18 3,27
18 2,10 2,40 2,56 2,68 2,76 2,83 2,89 2,94 2,98 3,01 3,05 3,08 3,16 3,25
19 2,09 2,39 2,55 2,66 2,75 2,81 2,87 2,92 2,96 3,00 3,03 3,06 3,14 3,23
20 2,09 2,38 2,54 2,65 2,73 2,80 2,86 2,90 2,95 2,98 3,02 3,05 3,12 3,22
24 2,06 2,35 2,51 2,61 2,70 2,76 2,81 2,86 2,90 2,94 2,97 3,00 3,07 3,16
30 2,04 2,32 2,47 2,58 2,66 2,72 2,77 2,82 2,86 2,89 2,92 2,95 3,02 3,11
40 2,02 2,29 2,44 2,54 2,62 2,68 2,73 2,77 2,81 2,85 2,87 2,90 2,97 3,06
60 2,00 2,27 2,41 2,51 2,58 2,64 2,69 2,73 2,77 2,80 2,83 2,86 2,92 3,00
120 1,98 2,24 2,38 2,47 2,55 2,60 2,65 2,69 2,73 2,76 2,79 2,81 2,87 2,95
 1,96 2,21 2,35 2,44 2,51 2,57 2,61 2,65 2,69 2,72 2,72 2,77 2,83 2,91

Fonte: Dunnett, C. W. New tables for multiple comparisons with a control. Biometrics,
20: 1964.

TABELA 15. Valores de t (bilaterais) para aplicação no Teste de Bonferroni ( n  número


de contrastes; n 2  número de graus de liberdade do resíduo).

  0,05
n
2 3 4 5 6 7 8 9
n2

5 3,17 3,54 3,81 4,04 4,22 4,38 4,53 4,66


7 2,84 3,13 3,34 3,50 3,64 3,76 3,86 3,95
10 2,64 2,87 3,04 3,17 3,28 3,37 3,45 3,52
12 2,56 2,78 2,94 3,06 3,15 3,24 3,31 3,37
15 2,49 2,69 2,84 2,95 3,04 3,11 3,18 3,24
20 2,42 2,61 2,75 2,85 2,93 3,00 3,06 3,11
24 2,39 2,58 2,70 2,80 2,88 2,94 3,00 3,05
30 2,36 2,54 2,66 2,75 2,83 2,89 2,94 2,99
40 2,33 2,50 2,62 2,71 2,78 2,84 2,89 2,93
60 2,30 2,47 2,58 2,66 2,73 2,79 2,84 2,88
120 2,27 2,43 2,54 2,62 2,68 2,74 2,79 2,83
 2,24 2,39 2,50 2,58 2,64 2,69 2,74 2,77
  0,01
5 4,78 5,25 5,60 5,89 6,15 6,36 6,56 6,70
7 4,03 4,36 4,59 4,78 4,95 5,09 5,21 5,31
10 3,58 3,83 4,01 4,15 4,27 4,37 4,45 4,53
12 3,43 3,65 3,80 3,93 4,04 4,13 4,20 4,26
15 3,29 3,48 3,62 3,74 3,82 3,90 3,97 4,02

Continua...
Continuação...
n
n2 2 3 4 5 6 7 8 9

20 3,16 3,33 3,46 3,55 3,63 3,70 3,76 3,80


24 3,09 3,26 3,38 3,47 3,54 3,61 3,66 3,70
30 3,03 3,19 3,30 3,39 3,46 3,52 3,57 3,61
40 2,97 3,12 3,23 3,31 3,38 3,43 3,48 3,51
60 2,92 3,06 3,16 3,24 3,30 3,34 3,39 3,42
120 2,86 2,99 3,09 3,16 3,22 3,27 3,31 3,34
 2,81 2,94 3,02 3,09 3,15 3,19 3,23 3,26

TABELA 15. (Continuação)

  0,05
n
n2 10 15 20 25 30 35 40 45 50

5 4,78 5,25 5,60 5,89 6,15 6,36 6,56 6,70 6,86


7 4,03 4,36 4,59 4,78 4,95 5,09 5,21 5,31 5,40
10 3,58 3,83 4,01 4,15 4,27 4,37 4,45 4,53 4,59
12 3,43 3,65 3,80 3,93 4,04 4,13 4,20 4,26 4,32
15 3,29 3,48 3,62 3,74 3,82 3,90 3,97 4,02 4,07
20 3,16 3,33 3,46 3,55 3,63 3,70 3,76 3,80 3,85
24 3,09 3,26 3,38 3,47 3,54 3,61 3,66 3,70 3,74
30 3,03 3,19 3,30 3,39 3,46 3,52 3,57 3,61 3,65
40 2,97 3,12 3,23 3,31 3,38 3,43 3,48 3,51 3,55
60 2,92 3,06 3,16 3,24 3,30 3,34 3,39 3,42 3,46
120 2,86 2,99 3,09 3,16 3,22 3,27 3,31 3,34 3,37
 2,81 2,94 3,02 3,09 3,15 3,19 3,23 3,26 3,29
  0,01
5 6,86 7,51 8,00 8,37 8,68 8,95 9,19 9,41 9,68
7 5,40 5,79 6,08 6,30 6,49 6,67 6,83 6,93 7,06
10 4,59 4,86 5,06 5,20 5,33 5,44 5,52 5,60 5,70
12 4,32 4,56 4,73 4,86 4,95 5,04 5,12 5,20 5,27
15 4,07 4,29 4,42 4,53 4,61 4,71 4,78 4,84 4,90
20 3,85 4,03 4,15 4,25 4,33 4,39 4,46 4,52 4,56
24 3,74 3,91 4,04 4,1+ 4,2+ 4,3+ 4,3+ 4,3+ 4,4+
30 3,65 3,80 3,90 3,98 4,13 4,26 4,1+ 4,2+ 4,2+
40 3,55 3,70 3,79 3,88 3,93 3,97 4,01 4,1+ 4,1+
60 3,46 3,59 3,69 3,76 3,81 3,84 3,89 3,93 3,97
120 3,37 3,50 3,58 3,64 3,69 3,73 3,77 3,80 3,83
 3,29 3,40 3,48 3,54 3,59 3,63 3,66 3,69 3,72

Esta tabela foi adaptada de dados de V. Chew (Comparisons Among Treatment Mens in
an Analysis of Variance, USDA, Washington, 1977).

TABELA 16. Valores críticos da estatística H  s máx s mín aos níveis de 5% e 1% de


2 2

probabilidade ( g  número de grupos; r 1  número de graus de liberdade


de cada grupo).

5%
g
2 3 4 5 6 7 8 9 10 11 12
r 1

2 39,00 87,50 142,00 202,00 266,00 333,00 403,00 475,00 550,00 626,00 704,00
3 15,40 27,80 39,20 50,70 62,00 72,90 83,50 93,90 104,00 114,00 124,00
4 9,60 15,50 20,60 25,20 29,50 33,60 37,50 41,10 44,60 48,00 51,40
5 7,15 10,80 13,70 16,30 18,70 20,80 22,90 24,70 26,50 28,20 29,90
6 5,82 8,38 10,40 12,10 13,70 15,00 16,30 17,50 18,60 19,70 20,70
7 4,99 6,94 8,44 9,70 10,80 11,80 12,70 13,50 14,30 15,10 15,80
8 4,43 6,00 7,18 8,12 9,03 9,78 10,50 11,10 11,70 12,20 12,70
9 4,03 5,34 6,31 7,11 7,80 8,41 8,95 9,45 9,91 10,30 10,70
10 3,72 4,85 5,67 6,34 6,92 7,42 7,87 8,28 8,66 9,01 9,34
12 3,28 4,16 4,79 5,30 5,72 6,09 6,42 6,72 7,00 7,25 7,48
15 2,86 3,54 4,01 4,37 4,68 4,95 5,19 5,40 5,59 5,77 5,93
20 2,46 2,95 3,29 3,54 3,76 3,94 4,10 4,24 4,37 4,49 4,59
30 2,07 2,40 2,61 2,78 2,91 3,02 3,12 3,21 3,29 3,36 3,39
60 1,67 1,85 1,96 2,04 2,11 2,17 2,22 2,26 2,30 2,33 2,36
 1,00 1,00 1,00 1,00 1,00 1,00 1,00 1,00 1,00 1,00 1,00

1%
g
2 3 4 5 6 7 8 9 10 11 12
r 1

2 199,00 448,0 729,0 1036,0 1362,0 1705,0 2063,0 2432,0 2813,0 3204,0 3605,0
3 47,50 85,0 120,0 151,0 184,0 216,0 249,0 281,0 310,0 337,0 361,0
4 23,20 37,0 49,0 59,0 69,0 79,0 89,0 97,0 106,0 113,0 120,0
5 14,90 22,0 28,0 33,0 38,0 42,0 46,0 50,0 54,0 57,0 60,0
6 11,10 15,5 19,1 22,0 25,0 27,0 30,0 32,0 34,0 36,0 37,0
7 8,89 12,1 14,5 16,5 18,4 20,0 22,0 23,0 24,0 26,0 27,0
8 7,50 9,9 11,7 13,2 14,5 15,8 16,9 17,9 18,9 19,8 21,0
9 6,54 8,5 9,9 11,1 12,1 13,1 13,9 14,7 15,3 16,0 16,6
10 5,85 7,4 8,6 9,6 10,4 11,1 11,8 12,4 12,9 13,4 13,9
12 4,91 6,1 6,9 7,6 8,2 8,7 9,1 9,5 9,9 10,2 10,6
15 4,07 4,9 5,5 6,0 6,4 6,7 7,1 7,3 7,5 7,8 8,0
20 3,32 3,8 4,3 4,6 4,9 5,1 5,3 5,5 5,6 5,8 5,9
30 2,63 3,0 3,3 3,4 3,6 3,7 3,8 3,9 4,0 4,1 4,2
60 1,96 2,2 2,3 2,4 2,4 2,5 2,5 2,6 2,6 2,7 2,7
 1,00 1,0 1,0 1,0 1,0 1,0 1,0 1,0 1,0 1,0 1,0

TABELA 17. Limites superiores para o teste de Lilliefors.


n 0,20 0,15 0,10 0,05 0,01


4 0,300 0,319 0,352 0,381 0,417
5 0,285 0,299 0,315 0,337 0,405
6 0,265 0,277 0,294 0,319 0,364
7 0,247 0,258 0,276 0,300 0,348
8 0,233 0,244 0,261 0,285 0,331
9 0,223 0,233 0,249 0,271 0,311
10 0,215 0,224 0,239 0,258 0,294
11 0,208 0,217 0,230 0,249 0,284
12 0,199 0,212 0,223 0,242 0,275
13 0,190 0,202 0,214 0,234 0,268
14 0,183 0,194 0,207 0,227 0,261
15 0,177 0,187 0,201 0,220 0,257
16 0,173 0,182 0,195 0,213 0,250
17 0,169 0,177 0,189 0,206 0,245
18 0,166 0,173 0,184 0,200 0,239
19 0,183 0,169 0,179 0,195 0,235
20 0,160 0,166 0,174 0,190 0,231
25 0,142 0,147 0,158 0,173 0,200
30 0,131 0,136 0,144 0,161 0,187
0,736 0,768 0,805 0,886 1,031
> 30
n n n n n

Tabela adaptada de: CONOVER, W. J., 1971. Practical Nonparametric Statistics.


Nova York. John Wiley & Sons, Inc.
TABELA 18. Valores dos coeficientes ai,n para o teste de Shapiro-Wilk

i n=11 12 13 14 15 16 17 18 19 20
1 .5601 .5475 .5359 .5251 .5150 .5056 .4968 .4886 .4808 .4734
2 .3315 .3325 .3325 .3318 .3306 .3290 .3273 .3253 .3232 .3211
3 .2260 .2347 .2412 .2460 .2495 .2521 .2540 .2553 .2561 .2565
4 .1429 .1586 .1707 .1802 .1878 .1939 .1988 .2027 .2059 .2085
5 .0695 .0922 .1099 .1240 .1353 .1447 .1524 .1587 .1641 .1686

6 ... .0303 .0539 .0727 .0880 .1005 .1109 .1197 .1271 .1334
7 ... ... ... .0240 .0433 .0593 .0725 .0837 .0932 .1013
8 ... ... ... ... ... .0196 .0359 .0496 .0612 .0711
9 ... ... ... ... ... .0163 .0303 .0422
10 ... ... ... ... ... ... ... .0140

i n=21 22 23 24 25 26 27 28 29 30
1 .4643 .4590 .4542 .4493 .4450 .4407 .4366 .4328 .4291 .4254
2 .3185 .3156 .3126 .3098 .3069 .3043 .3018 .2992 .2968 .2944
3 .2578 .2571 .2563 .2554 .2543 .2533 .2522 .2510 .2499 .2487
4 .2119 .2131 .2139 .2145 .2148 .2151 .2152 .2151 .2150 .2148
5 .1736 .1764 .1787 .1807 .1822 .1836 .1848 .1857 .1864 .1870

6 .1399 .1443 .1480 .1512 .1539 .1563 .1584 .1601 .1616 .1630
7 .1092 .1150 .1201 .1245 .1283 .1316 .1346 .1372 .1395 .1415
8 .0804 .0878 .0941 .0997 .1046 .1089 .1128 .1162 .1192 .1219
9 .0530 .0618 .0696 .0764 .0823 .0876 .0923 .0965 .1002 .1036
10 .0263 .0368 .0459 .0539 .0610 .0672 .0728 .0778 .0822 .0862

11 ... .0122 .0228 .0321 .0403 .0476 .0540 .0598 .0650 .0697
12 ... ... .0107 .0200 .0284 .0358 .0424 .0483 .0537
13 ... ... ... ... .0094 .0178 .0253 .0320 .0381
14 ... ... ... ... ... ... .0084 .0159 .0227
15 ... ... ... ... ... ... ... ... .0076

Continua ...
TABELA 18. (Continuação)

i n=31 32 33 34 35 36 37 38 39 40
1 .4220 .4188 .4156 .4127 .4096 .4068 .4040 .4015 .3989 .3966
2 .2921 .2898 .2876 .2854 .2834 .2813 .2794 .2774 .2755 .2737
3 .2475 .2463 .2451 .2439 .2427 .2415 .2403 .2391 .2380 .2368
4 .2145 .2141 .2137 .2132 .2127 .2121 .2116 .2110 .2104 .2098
5 .1874 .1878 .1880 1882 .1883 .1883 .1813 .1881 .1880 .1878

6 .1641 .1651 .1660 .1667 .1673 .1678 .1683 .1686 .1689 .1691
7 .1433 .1449 .1463 .1475 .1487 .1496 .1505 .1513 .1520 .1526
8 .1243 .1265 .1284 .1301 .1317 .1331 .1344 .1356 .1366 .1376
9 .1066 .1093 .1118 .1140 .1160 .1179 .1196 .1211 .1225 .1237
10 .0899 .0931 .0961 .0988 .1013 .1036 .1056 .1075 .1092 .1108

11 .0739 .0777 .0812 .0844 .0873 .0900 .0924 .0947 .0967 .0986
12 .0585 .0629 .0669 .0706 .0739 .0770 .0798 .0824 .0848 .0870
13 .0435 .0485 .0530 .0572 .0610 .0645 .0677 .0706 .0733 .0759
14 .0298 .0344 .0395 .0441 .0484 .0523 .0559 .0592 .0622 .0651
15 .0144 .0206 .0262 .0314 .0361 .0404 .0444 .0481 .0515 .0546

16 ... .0068 .0131 .0187 .0239 .0287 .0331 .0372 .0409 .0444
17 ... ... ... .0062 .0119 .0172 .0220 .0264 .0305 .0343
18 ... ... ... ... ... .0057 .0110 .0158 .0203 .0244
19 ... ... ... ... ... ... ... 0053 .0101 .0146
20 ... ... ... ... ... ... ... ... ... .0049

Continua ...
TEBELA 18. (Continuação)

i n=41 42 43 44 45 46 47 48 49 50
1 .3940 .3917 .3894 .3872 .3850 .3830 .3808 .3789 .3770 .3751
2 .2719 .2701 .2684 .2667 .2651 .2635 .2620 .2604 .2589 .2574
3 .2357 .2345 .2334 .2323 .2313 .2302 .2291 .2281 .2271 .2260
4 .2091 .2085 .2078 .2072 .2065 .2058 .2052 .2045 .2038 .2032
5 .1876 .1874 .1871 .1868 .1865 .1862 .1859 .1855 .1851 .1847

6 .1693 .1694 .1695 .1695 .1695 .1695 .1695 .1693 .1692 .1691
7 .1531 .1535 .1539 .1542 .1545 .1548 .1550 .1551 .1553 .1554
8 .1384 .1392 .1398 .1405 .1410 .1415 .1420 .1423 .1427 .1430
9 .1249 .1259 1269 .1278 .1286 .1293 .1300 .1306 .1312 .1317
10 .1123 .1136 .1149 .1160 .1170 .1180 .1189 .1197 .1205 .1212

11 .1004 .1020 .1035 .1049 .1062 .1073 .1085 .1095 .1105 .1113
12 .0891 .0909 .0927 .0943 .0959 .0972 .0986 .0998 .1010 .1020
13 .0782 .0804 .0824 .0842 .0860 .0876 .0892 .0906 .0919 .0932
14 .0677 .0701 .0724 .0745 .0765 .0783 .0801 .0817 .0832 .0846
15 .0575 .0602 .0628 .0651 .0673 .0694 .0713 .0731 .0748 .0764

16 .0476 .0506 .0534 .0560 .0584 .0607 .0628 .0648 .0667 .0685
17 .0379 .0411 .0442 .0471 .0497 .0522 .0546 .0568 .0588 .0608
18 .0283 .0318 .0352 .0383 .0412 .0439 .0465 .0489 .0511 .0532
19 .0188 .0227 .0263 .0296 .0328 .0357 .0385 .0411 .0436 .0459
20 .0094 .0136 .0175 .0211 .0245 .0277 .0307 .0335 .0361 .0386

21 ... .0045 .0087 .0126 .0163 .0197 .0229 .0259 .0288 .0314
22 ... ... ... .0042 .0081 .0118 .0153 .0185 .0215 .0244
23 ... ... ... ... ... .0039 .0076 .0111 .0143 .0174
24 ... ... ... ... ... ... ... .0037 .0071 .0104
25 ... ... ... ... ... ... ... ... ... .0035

Adaptada de Gill (1978); n : tamanho da amostra (ou número de parcelas).


TABELA 19. Valores críticos para o teste de Shapiro-Wilk

n  =0,9 0,5 0,10 0,05 0,02 0,01


11 .973 .940 .876 .850 .817 .792
12 .973 .943 .883 .859 .828 .805
13 .974 .945 .889 .866 .837 .814
14 .975 .947 .895 .874 .846 .825
15 .975 .950 .901 .881 .855 .835

16 .976 .952 .906 .887 .863 .844


17 .977 .954 .910 .892 .869 .851
18 .978 .956 .914 .897 .874 .858
19 .978 .957 .917 .901 .879 .863
20 .979 .959 .920 .905 .884 .868

21 .980 .960 .923 .908 .888 .873


22 .980 .961 .926 .911 .892 .878
23 .981 .962 .928 .914 .895 .881
24 .981 .963 .930 .916 .898 .884
25 .981 .964 .931 .918 .901 .888

26 .982 .965 .933 .920 .904 .891


27 .982 .965 .935 .923 .906 .894
28 .982 .966 .936 .924 .908 .896
29 .982 .966 .937 .926 .910 .898
30 .983 .967 .939 .927 .912 .900

31 .983 .967 .940 .929 .914 .902


32 .983 .968 .941 .930 .915 .904
33 .983 .968 .942 .931 .917 .906
34 .983 .969 .943 .933 .919 .908
35 .984 .969 .944 .934 .920 .910

36 .984 .970 .945 .935 .922 .912


37 .984 .970 .946 .936 .924 .914
38 .984 .971 .947 .938 .925 .916
39 .984 .971 .948 .939 .927 .917
40 .985 .972 .949 .940 .928 .919

41 .985 .972 .950 .941 .929 .920


42 .985 .972 .951 .942 .930 .922
43 .985 .973 .951 .943 .932 .923
44 .985 .973 .952 .944 .933 .924
45 .985 .973 .953 .945 .934 .926

46 .985 .974 .953 .945 .935 .927


47 .985 .974 .954 .946 .936 .928
48 .985 .974 .954 .947 .937 .929
49 .985 .974 .955 .947 .937 .929
50 .985 .974 .955 .947 .938 .930

Adaptado de Gill (1978); n : número de parcelas;  : significância adotada.

TABELA 06. Coeficientes de correlação.


Probabilidade
N
0,10 0,05 0,02 0,01 0,001
1 0,9877 0,99692 0,99951 0,99988 0,9999
2 0,9000 0,9500 0,9800 0,9900 0,9990
3 0,805 0,878 0,9343 0,9587 0,9911
4 0,729 0,811 0,882 0,9172 0,9741
5 0,669 0,754 0,833 0,875 0,9509
6 0,621 0,707 0,789 0,834 0,9249
7 0,582 0,666 0,750 0,798 0,898
8 0,549 0,632 0,715 0,765 0,872
9 0,521 0,602 0,685 0,735 0,847
10 0,497 0,576 0,658 0,708 0,823
11 0,476 0,553 0,634 0,684 0,801
12 0,457 0,532 0,612 0,661 0,780
13 0,441 0,514 0,592 0,641 0,760
14 0,426 0,497 0,574 0,623 0,742
15 0,412 0,482 0,558 0,606 0,725
16 0,400 0,468 0,543 0,590 0,708
17 0,389 0,456 0,529 0,575 0,693
18 0,378 0,444 0,516 0,561 0,679
19 0,369 0,433 0,503 0,549 0,665
20 0,360 0,423 0,492 0,537 0,652
25 0,323 0,381 0,445 0,487 0,597
30 0,296 0,349 0,409 0,449 0,554
35 0,275 0,325 0,381 0,418 0,519
40 0,257 0,304 0,358 0,393 0,490
45 0,243 0,288 0,338 0,372 0,465
50 0,231 0,273 0,322 0,354 0,443
60 0,211 0,250 0,295 0,325 0,408
70 0,195 0,232 0,274 0,302 0,380
80 0,183 0,217 0,257 0,283 0,357
90 0,173 0,205 0,242 0,267 0,338
100 0,164 0,195 0,230 0,254 0,321

Extraída de Tabelas Estatísticas para Pesquisa em Biologia, Agricultura e


Medicina por R. A. Fisher e F. Yates, com a gentil permissão dos autores e
editores, Oliver e Boyd.

TABELA 07. Coeficientes para ajustamento de polinômios ortogonais.


n=3 níveis n=4 níveis n=5 níveis
1º Grau 2º Grau 1º Grau 2º Grau 3º Grau 1º Grau 2º Grau 3º Grau 4º Grau

-1 +1 -3 +1 -1 -2 +2 -1 +1
0 -2 -1 -1 +3 -1 -1 +2 -4
+1 +1 +1 -1 -3 0 -2 0 +6
+3 +1 +1 +1 -1 -2 -4
+2 +2 +1 +1

K2 6 20 4 20 10 14 10 70
M1 3 2 1 10/3 1 1 5/6 35/12

n=6 níveis n=7 níveis


1º Grau 2º Grau 3º Grau 4º Grau 5º Grau 1º Grau 2º Grau 3º Grau 4º Grau 5º Grau

-5 +5 -5 +1 -1 -3 +5 -1 +3 -1
-3 -1 +7 -3 +5 -2 0 +1 -7 +4
-1 -4 +4 +2 -10 -1 -3 +1 +1 -5
+1 -4 -4 +2 +10 0 -4 0 +6 0
+3 -1 -7 -3 -5 +1 -3 -1 +1 +5
+5 +5 +5 +1 +1 +2 0 -1 -7 -4
+3 +5 +1 +3 +1

K 70 84 180 28 252 28 84 6 154 84


M2 3/2 5/3 7/12 21/10 1 1 1/6 7/12 7/20

n=8 níveis n=9 níveis


1º Grau 2º Grau 3º Grau 4º Grau 5º Grau 1º Grau 2º Grau 3º Grau 4º Grau 5º Grau

-7 +7 -7 +7 -7 -4 +28 -14 +14 -4


-5 +1 +5 -13 +23 -3 +7 +7 -21 +11
-3 -3 +7 -3 -17 -2 -8 +13 -11 -4
-1 -5 +3 +9 -15 -1 -17 +9 +9 -9
+1 -5 -3 +9 +15 0 -20 0 +18 0
+3 -3 -7 -3 +17 +1 -17 -9 +9 +9
+5 +1 -5 -13 -23 +2 -8 -13 -11 +4
+7 +7 +7 +7 +7 +3 +7 -7 -21 -11
+4 +28 +14 +14 +14

K 168 168 264 616 2184 60 2772 990 2002 468


M2 1 2/3 7/12 7/10 1 3 5/6 7/12 3/20
TABELA 07. (Continuação)

n=10 níveis n=11 níveis


1º Grau 2º Grau 3º Grau 4º Grau 5º Grau 1º Grau 2º Grau 3º Grau 4º Grau 5º Grau

-9 +6 -42 +18 -6 -5 +15 -30 +6 -3


-7 +2 +14 -22 +14 -4 +6 +6 -6 +6
-5 -1 +35 -17 -1 -3 -1 +22 -6 +1
-3 -3 +31 +3 -11 -2 -6 +23 -1 -4
-1 -4 +12 +18 -6 -1 -9 +14 +4 -4
+1 -4 -12 +18 +6 0 -10 0 +6 0
+3 -3 -31 +3 +11 +1 -9 -14 +4 +4
+5 -1 -35 -17 +1 +2 -6 -23 -1 +4
+7 +2 -14 -22 -14 +3 -1 -22 -6 -1
+9 +6 +42 +18 +6 +4 +6 -6 -6 -6
+5 +15 +30 +6 +3

K 330 132 8580 2860 780 110 858 4290 286 156
M2 1/2 5/3 5/12 1/10 1 1 5/6 1/12 1/40

Polinômios ortogonais:

P  x; P  x2 
n 2 1
; P  x3 
3n 2 7
x; P  x4 
3n 2 13
x2 
 
3 n2  1 n2  9;
1 2 12 3 20 4 14 560

P  x5 

5 n2  7  x3  15n4  230n2  407 , em que x  X  X .
5 18 1008 q

Você também pode gostar