Análise de Variância
ANOVA - Analysis of Variance
ANOVA
1
Nos testes de hipótese fala-se em testar a igualdade de duas médias. E se for necessário
testar a comparação de várias médias?
H0: μ1 = μ2 = ... = μk
H1: μi ≠ μj para algum i e algum j tais que i ≠ j.
Existem k populações de interesse, nas quais se estuda uma característica comum.
Sejam X1, X2, ..., Xk as variáveis aleatórias que representam tal característica nas
populações 1, 2, ...,k, respetivamente.
Será que podemos comparar as médias duas a duas através de um teste t-Student? Não!…
ANOVA
2
■ Este procedimento é possível mas não é válido…pois a estatística do teste t-Student e
o valor crítico só são válidos para comparar médias de duas, e apenas duas população (a
partir das quais foram extraídas duas amostras aleatórias). Se utilizarmos este teste para
comparar mais do que duas populações, duas a duas, a probabilidade do erro tipo I (i.e. a
probabilidade de concluir erradamente que existem diferenças significativas) será
aproximadamente 1-(1-α)kx100%, sendo k o número de amostras (populações) a comparar.
Por exemplo se k=3, para α=0,05 (relembre: α é o nível de significância do teste i.e.
P(rej H0 sendo H0 verdadeira)= P(erro tipo I) a probabilidade de concluir erradamente
que existem diferenças significativas fazendo comparações duas a duas é
aproximadamente 14,3%!....
ANOVA
3
Técnica estatística para descobrir fatores que produzam mudanças sistemáticas em alguma
variável de interesse
Podem ser quantitativos ou atributos
Quantitativa
■ Os fatores são também designados de variáveis exógenas ou independentes
■ A variável de interesse é designada de variável dependente
Exemplos
Consumo de gasolina dos automóveisÆ variável de interesse
Marca
Idade veículo exemplo de fatores que podemos pensar que influenciam
Potência …. consumo de gasolina
ANOVA
4
Numa determinada doença está-se a estudar o tempo que demora a recuperação Æ
variável de interesse
Tipo de tratamento/medicação,
Idade do paciente
Sexo exemplos de fatores
Estação do ano …
Volume de vendas de lojas “iguais” Æ variável de interesse
Cidade onde está instalada
Equipa de vendedores … exemplos de fatores
Será que o fator W exerce alguma influência na variação da característica em estudo?
ANOVA
5
Exemplo: Para curar uma certa doença existem quatro tratamentos possíveis: A, B, C e
D. Pretende-se saber se existem diferenças significativas nos tratamentos no que diz
respeito ao tempo necessário para eliminar a doença.
Temos apenas um fator, Tratamento, que se apresenta em quatro níveis, A, B, C e D.
Através da aplicação da análise de variância com um fator ou "one-way ANOVA",
podemos indagar se os tratamentos produzem os mesmos resultados no que diz
respeito à característica em estudo.
Suponhamos agora que existe a suspeita de que uma estação quente é um fator
determinante para uma cura rápida. Então, o estudo deve ser conduzido tendo em
conta este segundo fator, Estação do Ano.
ANOVA
6
Aqui, a técnica estatística apropriada será a análise de variância com dois fatores,
também designada por "two-way ANOVA".
Neste caso, pode-se testar se existe diferença entre os tratamentos e também se existe
diferença entre as estações do ano, no que respeita ao tempo de tratamento até à
eliminação da doença. (isto assumindo um “modelo aditivo” simples – onde não existe
interação entre os dois fatores), ou até a existência de interação entre os dois fatores:
Será que pelo facto de estarmos no inverno um determinado tipo de tratamento afeta
o tempo de tratamento até à eliminação da doença?
ANOVA
7
A aplicação da análise de variância pressupõe a verificação das seguintes condições:
1. As amostras devem ser aleatórias e independentes.
2. As observações dentro de cada grupo têm distribuição Normal, ié, as k amostras devem
ser extraídas de populações normais. Usar teste Kolmogorov-Smirnov1 com a correção
de Lilliefors, ou teste Shapiro Wilk (é preferível ao K-S nas amostras de pequena
1
Teste K-S – teste não paramétrico já abordado na Unidade II, usados para decidir se distribuição de uma
variável em estudo numa determinada amostra provém de uma população com uma distribuição específica.
Neste caso estamos interessados apenas na distribuição Normal. Quando os verdadeiros valores de σ e μ são
desconhecidos, o que acontece frequentemente, temos que recorrer à correção de Lilliefors (ver unidade II)
ANOVA
8
dimensão (n<30). Ambos usados no SPSS. O SPSS produz o p-value para este
teste sempre que a dimensão da amostra ≤ 50.
3. As k populações devem ter variâncias iguais/homogéneas (σ1=σ2= . . . =σk), ié, há
homocedasticidade.
- O teste de Levene - teste paramétrico já abordado - tem o pressuposto da
normalidade das distribuições populacionais. Se existirem suspeitas de que o
pressuposto da Normalidade falha deve fazer-se o teste de Levene usando a mediana
(particularmente robusto e potente no caso de distribuições fortemente enviesadas).
Este teste é usado na ANOVA do SPSS .
ANOVA
9
Exemplo nº 1 a resolver na aula (Análise de Variância – 1 fator))
Suponha que se pretende comparar 3 lojas (uma de Aveiro, outra em Viseu e outra em Coimbra)
quanto ao volume de vendas. Para tal em cada loja selecionou-se aleatoriamente 5 semanas onde se
regista o volume de vendas. Obtém assim uma amostra das vendas semanais para cada loja (as três
amostras são independentes). Supõe-se as três populações normais de igual variância.
Dados recolhidos: Lojas
Aveiro Viseu Coimbra
47 55 54
53 54 50
49 58 51
50 61 51
46 52 49
X i (médias amostrais) x1 = 49 x2 = 56 x3 = 51 x = 52
(X i − X )2 9 16 1
∑ ( xi − x ) = 26
2
ANOVA
10
fator de interesse Æ o fator localização da Loja, e este apresenta três níveis ou grupos: Loja
Aveiro, Loja Viseu e Loja Coimbra (cada nível do fator define uma população de média μ i ).
Variável de interesse Æ Volume de vendas
Serão as médias amostrais x1 =49, x2 =56 e x3 =51 diferentes porque há diferenças
entre as médias populacionais μ1, μ 2 e μ 3 ?
Ou serão essas diferenças razoavelmente atribuídas a flutuações amostrais?
Podemos então formular as seguintes hipóteses:
H0: μ1 = μ 2 = μ 3 (não há diferença entre o volume médio de vendas das 3 lojas)
H1: μ i ≠ μ j para algum i e algum j tais que i ≠ j (há pelo menos duas lojas com
diferentes volumes médios de vendas)
ANOVA
11
Variâncias Dentro grupos, residual, ou dos erros
Se H0 é verdadeira, σ2
pode ser estimada pelos
dois processos e as Variâncias entre
grupos
duas estimativas serão
semelhantes, logo a sua
razão, F, será
aproximadamente 1
Se a variância residual (dentro)
for significativamente inferior à
variância entre os grupos ou
amostras (que será devido ao
efeito fator em estudo), então as
médias populacionais estimadas
a partir das amostras são
significativamente diferentes.
ANOVA
12
A análise de variância vai estimar σ 2 por dois processos diferentes e comparar os valores
obtidos.
1º PROCESSO − Estimativa “dentro” da variância: s 2p
Como todas as amostras são extraídas de populações com a mesma variância σ 2 , então,
para estimar este parâmetro, poderíamos utilizar qualquer uma das amostras. Assim,
poderíamos obter k estimativas de σ 2 , uma por cada amostra.
Temos as seguintes estimativas de σ 2 para o nosso exemplo:
s12 =
1
[
5 −1
]
(47 − 49)2 + (53 − 49)2 + (49 − 49)2 + (50 − 49)2 + (46 − 49)2 = 7.5
s 22 =
1
[
5 −1
]
(55 − 56)2 + (54 − 56)2 + (58 − 56)2 + (61 − 56)2 + (52 − 56)2 = 12.5
s32 =
1
5 −1
[ ]
(54 − 51)2 + (50 − 51)2 + (51 − 51)2 + (51 − 51)2 + (49 − 51)2 = 3.5 .
ANOVA
13
Tomando a média destas estimativas obtemos outra estimativa para σ 2 ,
s12 + s 22 + s32
s 2p = = 7.83 .
3
O que fizemos foi combinar as três estimativas anteriores, de modo a produzir uma outra
estimativa que use a informação contida nas três amostras recolhidas.
■ A fórmula geral para o cálculo da estimativa “dentro” da variância é:
s12 + s 22 + L + s k2
s 2p = onde, si2 Æ variância amostral da amostra i.
k
Note que esta estimativa não é afetada pela veracidade ou falsidade de H0, o que já não
acontece com a que iremos obter pelo processo seguinte.
ANOVA
14
2º PROCESSO − Estimativa “entre” da variância: s b2
Os valores médios observados nas três amostras, x1 , x 2 e x 3 , podem ser encarados como
três valores observados de uma v. a. X ~ N ( μ , σ 2 / n) .
σ2
σ 2
X = ⇔ σ 2 = n.σ X2 ,
n
2
1 k
sb2 = n.s 2X s X2 ∑ ( xi − x ) Æ
2
sugerindo que se estime σ através de , com =
k − 1 i =1
estimativa de σ X2 .
O nosso exemplo viria:
s X2 =
1
3 −1
[
(49 − 52)2 + (56 − 52)2 + (51 − 52)2 = 26 = 13
2
]
logo a estimativa “entre” da variância é: sb2 = n.s X2 = 5 × 13 = 65 .
ANOVA
15
Estatística de teste – F
Se a variância residual (dentro) for significativamente inferior à variân
entre os grupos ou amostras (que será devido ao efeito fator em estud
Sob o pressuposto de H0 ser verdadeira, tem-se então as médias populacionais estimadas a partir das amostras s
significativamente diferentes.
F=
variação entre grupos k −1 n.S X2 S b2 k −1
variação dentro grupos ~
F
N −k ié F = = ~ FN − k , onde N é o total de observações
S p2 S 2p
H0 deve ser rejeitada se o valor observado de F se situar à direita do ponto crítico.
Isto é, rejeita-se H0 se, Fobs ≥ pc
onde, o ponto crítico pc é dado por
( )
P FNk −−1k ≥ pc = α = nível de significância.
k −1
O ponto crítico pc é o quantil de probabilidade 1-α da distribuição N − k e é usualmente
F
denotado por F(1−α ) ou por F1−α ,k −1,N − k .
ANOVA
16
No nosso exemplo viria:
Vamos ver o que podemos concluir ao nível de significância de 0.05.
S b2
Se a hipótese H0 é verdadeira, F = ~ F122 .
S 2p
F1−α ,2,12 = 3.89 (quantil de probabilidade 1-α da distribuição F122 ) ; R.C.=[3.89,+∞[
65
O valor observado da estatística F é: Fobs = = 8.3 ∈R.C.
7.83
Então a hipótese H0 é rejeitada ao nível de significância de 0.05, isto é, existem diferenças
significativas entre as médias amostrais das vendas. Há portanto evidência de que existem
pelo menos duas lojas com volumes médios de vendas diferentes. Por outras palavras, o
fator Loja exerce uma influência significativa sobre o volume de vendas.
ANOVA
17
■ Os cálculos para a análise de variância podem ser sumariados numa tabela chamada
Tabela ANOVA.
Na ANOVA one-way o comportamento da variável de medida é, supostamente,
influenciado apenas por um fator (uma variável dependente). Os dados, usualmente, vêm
representados da seguinte maneira:
Amostra ou Grupos( j )
1 2 3 ... k
x11 x12 x13 ... x1k
Observações ( i ) x21 x22 x23 ... x2k
x31 x32 x33 ... x3k
M M M O M
xn 1 xn2 1 xn31 ... xn 1
1 k
Onde
ANOVA
18
• n j − nº de observações na amostra j
• k − nº de amostras
∑ j =1 n j
k
• N= (total de observações)
• x j − média observada na amostra j
k ni k
∑ ∑ xij ∑njxj
j =1i =1 j =1
• x= = − média ponderada das médias amostrais
n1 + n2 + L + nk n1 + n2 + L + nk
Soma média de quadrados entre grupos Soma média de quadrados dentro dos grupos ou
residual
∑ n j (x j − x )
k
2
∑ ∑ (xij − x j )
k nj
2
j =1 SS A
MSA= = . j =1i =1 SS E
k −1 k −1 MSE = = .
n1 + n2 + L + nk − k N −k
ANOVA
19
Tabela ANOVA:
Soma de Quadrados Graus de Variância (Soma Razão F
Fonte de Variação Liberdade Média de Quadrados)
SSA= ∑ n j (x j − x ) Sb2
k SS A
2
Sb2 = MS A = MS A
Entre grupos k-1 F= =
j =1 k −1 S p2 MS E
Dentro dos grupos, N −k
SSE= ∑ ∑ (xij − x j )2
k nj SS E
erros ou residual S p2 = MS E =
j =1i =1 N −k
Total N −1
SST= ∑ ∑ (xij − x )
k nj
2
j =1i =1
SST=SSA+SSE
ANOVA
20
Assim para o exemplo 1 resolvido na aula, fica:
Fonte de Variação Soma de Quadrados Graus de Variância (Soma Média Razão F
Liberdade de Quadrados)
Entre grupos SSA=130 2 MSA=65 8.3
Dentro dos grupos SSE=94 12 MSE=7.83
ou residual
Total SST=224 14
Figura 2: Ilustração de algumas distribuições F-
Snedecor, com diferentes graus de
liberdade no numerador e denominador.
Note como o ponto crítico para 5% se move
para a esquerda com o aumento dos graus
de liberdade.
ANOVA
21
Resolução no SPSS:
Analyse/Compare Means/One-way ANOVA/
ANOVA
Vendas
Sum of
Squares df Mean Square F Sig.
Between Groups 130,000 2 65,000 8,298 ,005
Within Groups 94,000 12 7,833
Total 224,000 14
ANOVA
22
Resultados de software
O SPSS não testa a priori os pressupostos necessários a verificar em determinados testes.
Na ANOVA não testa a normalidade da variável em estudo nem a igualdade das
variâncias. Estes pressupostos têm que ser testados, antes ou depois da análise principal!
Teste à igualdade da dispersão (variâncias) das vendas
Analyse/Compare Means/One-way ANOVA/Options/homogeneity of variance
test
Test of Homogeneity of Variances
Vendas
Levene
Statistic df1 df2 Sig.
1,391 2 12 ,286 Aula…
O teste de Kolmogorov-Smirnov, e (novamente) o teste de Levene encontram-se no menu
ANOVA
23
Resultados de software
Analyse/Descriptive Statistics/Explore:
ANOVA
24
Resultados de software
Aparecendo 4 quadros, sendo os dois primeiros um resumo descritivo da variável em
estudo. O terceiro o teste de K-S com a correção de Lilliefors (pois μ e σ) são
desconhecidos.
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
Loja Statistic df Sig. Statistic df Sig.
Vendas Loja Aveiro ,167 5 ,200* ,964 5 ,833
Loja Viseu ,211 5 ,200* ,965 5 ,844
Loja Coimbra ,300 5 ,161 ,908 5 ,453
*. This is a lower bound of the true significance.
a. Lilliefors Significance Correction
ANOVA
25
Resultados de software
E o quarto quadro apresenta o teste de Levene calculado a partir da média (Based on
Mean).
Test of Homogeneity of Variance
Levene
Statistic df1 df2 Sig.
Vendas Based on Mean 1,391 2 12 ,286
Based on Median ,779 2 12 ,481
Based on Median and
,779 2 9,696 ,486
with adjusted df
Based on trimmed mean 1,353 2 12 ,295
ANOVA
26
Resultados de software
Exemplo 2 a resolver na aula
Pretende-se comparar a altura de determinada espécie de árvores com igual número de
anos de três localidades distintas (localidade A, localidade B e localidade C), pois
acredita-se que a altura das mesmas difere de localidade para localidade. Recolheram-se
dados aleatoriamente das três localidades e de forma independente.
Localidade A Localidade B Localidade C
29 27 30
27 27 30
31 30 31
29 28 27
32 29
30
Soma … … …
ANOVA
27
Resultados de software
Fazendo o teste de Normalidade, e (novamente) o teste de Levene que se encontram-se no
menu: Analyse/Descriptive Statistics/Explore:
ANOVA
Altura_ex2
Sum of
Squares df Mean Square F Sig.
Between Groups 7,200 2 3,600 1,415 ,281
Within Groups 30,533 12 2,544
Total 37,733 14
Não há evidência
Test of Homogeneity of Variances estatística para rejeitar
Altura_ex2 H0, logo assume-se a
Levene igualdade das variâncias
Statistic df1 df2 Sig.
nos 3 grupos.
,180 2 12 ,837
ANOVA
28
Anova
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
localid_ex2 Statistic df Sig. Statistic df Sig.
Altura_ex2 local A ,185 6 ,200* ,974 6 ,918
local B ,260 4 . ,827 4 ,161
local C ,254 5 ,200* ,914 5 ,492
*. This is a lower bound of the true significance.
a. Lilliefors Significance Correction
■ Não há evidência estatística para rejeitar H0assumindo-se a igualdade das alturas
médias das árvores nas 3 localidades
Para um erro de tipo 1 de 0.05, temos uma potência de 0.246.
ANOVA
29
Anova
Testes de Comparação Múltipla
Quando a aplicação da análise de variância conduz à rejeição da hipótese nula, temos
evidência de que existem diferenças entre as médias populacionais. Mas, entre que
médias se registam essas diferenças?
Estamos interessados em testar a posteriori (do que resulta a designação de “testes
Post-Hoc”) qual, ou quais os pares de médias diferentes.
Os testes de comparação múltipla permitem responder à questão anterior, isto é, permitem
investigar onde se encontram as diferenças possíveis entre k médias populacionais.
Existem muitos testes deste tipo, que fazem basicamente o mesmo tipo de análise, não
existindo consenso sobre qual destes é o mais apropriado, no entanto, aqui vamos abordar
com maior detalhe o teste HSD (honestly significant difference) de Tuckey.
ANOVA
30
Anova
teste HSD de Tuckey
O teste HSD de Tuckey foi originalmente desenvolvido para amostras de igual tamanho,
no entanto, muitos estatísticos sustentam que este é um método robusto a desvios
moderados - ni max<2(ni min) - deste pressuposto.
Também se considera um dos testes mais robusto a desvios à normalidade e
homogeneidade de variâncias (condições de aplicabilidade do teste) para amostras
grandes.
MS E 1 1
[IC ](1−α ),( μ −μB ) = ( x A − xB ) ± q K , N − K ( + )
A
2 n A nB
quantil de prob. (1-α) da distribuição tabelada Studentized Range, com (K,N-K) graus de liberdade
ANOVA
31
Anova
Observações
• O teste Bonferroni é considerado dos mais potentes para amostras pequenas;
• O testes Least Significant Difference – LSD podem ser utilizados
especialmente quando se compara um nº reduzido de grupos, de um modo geral 4
ou menos, assim como o teste de Scheffé;
• Os testes de Tuckey e REGWQ, recomendado quando o número de observações em
cada grupo (os n’s) são iguais e variâncias populacionais iguais,
• Se os n´s forem muito diferentes e as variâncias populacionais iguais pode usar-
se o testes Hochberg GT2. O SNK também é aplicado quando os n’s não são iguais.
• De um modo geral os testes de Tuckey e de Scheffé são os mais usados. O de
Tuckey quando as amostras são de tamanho igual ou de diferenças moderadas o de
Scheffé quando as dimensões dos grupos são diferentes.
ANOVA
32
Anova
Continuação da resolução do exercício 1 – a resolver na aula (Resolução SPSS)
Analyse/Compare Means/One-way ANOVA/Post Hoc (Multiple
comparisons); Tukey, significance level=0.05
Multiple Comparisons
Dependent Variable: Vendas
Tukey HSD
Ver Aula….
Mean
Difference 95% Confidence Interval
(I) Loja (J) Loja (I-J) Std. Error Sig. Lower Bound Upper Bound
Loja Aveiro Loja Viseu -7,00000* 1,77012 ,005 -11,7224 -2,2776
Loja Coimbra -2,00000 1,77012 ,515 -6,7224 2,7224
Loja Viseu Loja Aveiro 7,00000* 1,77012 ,005 2,2776 11,7224
Loja Coimbra 5,00000* 1,77012 ,038 ,2776 9,7224
Loja Coimbra Loja Aveiro 2,00000 1,77012 ,515 -2,7224 6,7224
Loja Viseu -5,00000* 1,77012 ,038 -9,7224 -,2776
*. The mean difference is significant at the .05 level.
ANOVA
33
Anova
Vendas
a
Tukey HSD
Subset for alpha = .05
Loja N 1 2
Loja Aveiro 5 49,0000
Loja Coimbra 5 51,0000
Loja Viseu 5 56,0000
Sig. ,515 1,000
Means for groups in homogeneous subsets are displayed.
a. Uses Harmonic Mean Sample Size = 5,000.
Options/Means Plots
Observações:
• É possível, se bem que pouco provável, que a ANOVA e os testes de Comparação
Múltipla cheguem a conclusões diferentes. Isto deve-se ao facto de que a
ANOVA é um teste mais potente (ié a prob. de rejeitar H0, corretamente ou a
ANOVA
34
Anova
confiança com que se rejeita a hipótese nula; Observed Power) do que as
Comparações Múltiplas. Pode-se repetir o estudo com amostras de maior
dimensão.
ANOVA
35