Modelos de Probabilidade e
Inferência Estatística
Ronei Marcos de Moraes
Análise de Variância e Estatística Nãoparamétrica
UFPB Maio/2011
ANOVA - Análise de Variância
ANOVA - Análise de Variância
• O caso da comparação de várias médias tem
especial tratamento e uma das formas de fazê-la é através do método da Análise de Variância ou
ANOVA.
• A ANOVA foi inicialmente desenvolvida pelo estatístico britânico Sir Ronald Fisher como
instrumento para a análise de experimentos.
• A distribuição por amostragem da estatística "F" foi deduzida por Snedecor que, em homenagem a Fisher, denominou-a de estatística "F".
ANOVA - Análise de Variância
ANOVA - Análise de Variância
• A Análise de Variância é um método suficientemente poderoso para identificar diferenças entre as médias populacionais devidas a várias causas que atuam
simultaneamente sobre os elementos da população. • Nosso escopo é apresentar a idéia fundamental do
método de forma simplificada, sem grande
aprofundamento teórico, já que isso demandaria um maior domínio de técnicas matemáticas e fugiria a nossa meta.
ANOVA - Análise de Variância
ANOVA - Análise de Variância
• A ANOVA é usada para verificar se as média de duas ou mais populações são iguais. O teste se
baseia numa amostra extraída de cada população, que dificilmente apresentarão médias exatamente iguais.
• A ANOVA determina se as diferenças entre as
média amostrais, sugerem diferenças efetivas entre as médias das populações, ou se tais diferenças
decorrem apenas da variabilidade implícita de cada amostra.
ANOVA - Análise de Variância
ANOVA - Análise de Variância
• Hipóteses:
– H0: µ1 = µ2 = … = µk
– H1 : pelo menos uma média populacional difere das demais
• Se a hipótese nula é aceita, concluiremos que as
diferenças entre as médias amostrais são devidas apenas a variações na amostra.
• Se a hipótese nula é rejeitada, concluiremos que as
diferenças entre as amostras são demasiadamente grandes para serem devidas apenas a aleatoriedade.
ANOVA - Análise de Variância
ANOVA - Análise de Variância
• Este método requer algumas suposições de natureza
teórica, que se não forem plenamente atendidos deverá ser evitada a sua aplicação.
• Há três suposições básicas que devem ser satisfeitas para que se possa aplicar a técnica da Análise de Variância.
1. As amostras devem ser retiradas de forma aleatórias e independente.
2. As amostras devem ser retiradas de populações distribuídas normalmente.
3. As populações devem apresentar variâncias iguais (homocedasticidade).
ANOVA - Análise de Variância
ANOVA - Análise de Variância
• Quando estas suposições são satisfeitas, a ANOVA é extremamente poderosa.
• Se as distribuições das populações, das quais se
extraem as amostras, não são muito assimétricas, a exigência de normalidade não precisa ser
estritamente satisfeita.
• Se as variâncias amostrais são aproximadamente iguais, a hipótese de variâncias populacionais
ANOVA - Análise de Variância
ANOVA - Análise de Variância
• Quando as variâncias amostrais parecem deferir
consideravelmente, deve-se efetuar um teste de igualdade entre variâncias populacionais.
• Se tal teste indicar diferenças entre as variâncias
populacionais, não devemos usar a Análise de Variância, pois a homocedasticidade é o pressuposto teórico de
maior importância para o uso da ANOVA.
• Solução: pode-se usar um método não-paramétrico, como por exemplo, o teste de Kruskal-Wallis, que também será visto neste curso.
ANOVA - Análise de Variância
ANOVA - Análise de Variância
• Neste curso vamos estender nosso estudo até o caso de haver duas possíveis causas, ou fontes de variação. Então, veremos duas formas de
ANOVA:
– Comparação de k populações independentes (um fator) – Comparação de k populações relacionadas (dois
Teste de
Teste de
Homocedasticidade
Homocedasticidade
• Várias formas de se verificar a
Homocedasticidade existem na literatura: • Veremos os seguintes:
– Avaliação gráfica – Teste de Cochran – Teste de Hartley – Teste de Bartlett
Teste de
Teste de
Homocedasticidade
Homocedasticidade
Teste de
Teste de
Homocedasticidade
Homocedasticidade
• Teste de Cochran para amostras do mesmo tamanho
1. Hipóteses
– H0: σ12 = σ
22 = ...= σk2
– H1: Pelo menos uma variância difere das demais
Teste de
Teste de
Homocedasticidade
Homocedasticidade
3. Teste de homocedasticidade para amostras de mesmo tamanho => Estatística de Cochran
4. Região Crítica.
• Os valores críticos g, que delimitam as regiões de aceitação e rejeição para o teste de Cochran, são fornecidos em função de n (tamanho das amostras) e k (número de populações) e são apresentados na Tabela de Cochran para um determinado α.
Teste de
Teste de
Homocedasticidade
Homocedasticidade
5. Estatística de Prova. 6. Decisão Se gc > g Rejeita-se H0 7. Conclusão Final. gc=maxsi 2 ∑ i= 1 k si2 i= 1,2 ,. .. ,k onde si2= ∑ j=1 n xj−xi2 n−1
Teste de
Teste de
Homocedasticidade
Homocedasticidade
• Teste de Hartley
• Usa os mesmos 7 passos de todos os testes de hipóteses, porém difere nos passos:
3. Distribuição F de Snedecor, com parâmetros α, k, n-1.
5. Estatística de Prova
6. Decisão: Se Fmax > Fα, k, n-1 então Rejeita-se H0
Fmax=max si
2
Teste de
Teste de
Homocedasticidade
Homocedasticidade
• Teste de Barlett • Difere nos passos:
3. Distribuição Qui-quadrado, com parâmetros (1-α, k-1). 5. Estatística de Prova
6. Decisão: Se χ2
Teste de
Teste de
Homocedasticidade
Homocedasticidade
• Uso dos testes:
– Avaliação gráfica
• Serve para visualizar os dados e saber o que esperar dos testes
– Teste de Cochran, Hartley e de Bartlett
• Na maioria das situações práticas, os testes de Cochran e de Hartley levam a conclusões similares. O teste de Cochran utiliza mais informação dos dados amostrais e em geral é mais sensível que o teste de Hartley.
• Quando a hipótese de normalidade é satisfeita, o teste de Barlett é o mais poderoso dos três.
• Os testes de Cochran e de Hartley requerem que os tamanhos de amostra sejam iguais. Se os tamanhos diferem, mas não muito, eles ainda podem ser usados como testes aproximados. Nesse caso, o valor de n deveria ser o tamanho amostral, entretanto, alguns recomendam utilizar o maior valor de n. Isso resultará em uma probabilidade do erro tipo I ligeiramente maior do que o valor prescrito.
Teste de
Teste de
Homocedasticidade
Homocedasticidade
• Uso dos testes:
– Teste de Cochran, Hartley e de Bartlett
• Todos os testes são sensíveis a desvios da normalidade.
• Em particular, o tese de Bartlett é muito sensível à desvios da normalidade.
• Um p-valor baixo no tese de Bartlett pode ser devido a não-normalidade dos dados, mais do que a própria desigualdade das variâncias. A distribuição χ2 é apenas assintótica. Uma
regra comum é considerar que o teste apenas deve ser usado caso ni > 5, ∀i = 1, .., k.
Teste de
Teste de
Homocedasticidade
Homocedasticidade
• Exemplo:
• Quatro amostras de cinco elementos cada, extraídas de populações normais e independentes, forneceram variâncias iguais a 1,0; 3,5; 5,0 e 2,0. Existe evidência, ao nível de 5% de significância, de que as populações não tenham todas a mesma variância? Use o Teste de Cochran.
Teste de
Teste de
Homocedasticidade
Homocedasticidade
• Solução: • Hipóteses:
H0: todas as populações possuem a mesma variância. • H1: pelo menos uma das variâncias difere das demais. • gc = 0,43478261
• g = 0,6287
• Decisão: aceita-se H0
• Conclusão: Ao nível de 5% de significância não existe evidência de que todas as populações não possuam a mesma variância.
ANOVA – Um Fator
ANOVA – Um Fator
• Consideraremos "k" amostras de tamanho "n", retiradas de "k" populações cujas médias
ANOVA – Um Fator
ANOVA – Um Fator
ANOVA – Um Fator
• Se admitirmos que a hipótese nula (H0) é verdadeira, então existem três maneiras pelas quais a variância σ2, comum
implicitamente a todas as populações, pode ser estimada por:
• O numerador deste quociente é denominado por SOMA DE QUADRADOS TOTAL, SQT, ou seja:
ST2=
∑
i=1 k∑
j=1 n xij−x 2 nk −1 = Q−T 2 nk nk −1 SQT=Q− T 2 nkANOVA – Um Fator
ANOVA – Um Fator
• Novamente se admitirmos que H0 é verdadeira, podemos também considerar as médias das k amostras, como uma amostra de k valores retirados da população de possíveis valores de . Sabemos que é normalmente distribuída com variância σ²/n, assim, temos um segundo estimador de σ² que denotaremos por , que é obtido através da expressão: SE2 x x SE2= ∑ i=1 k T i 2 n − T 2 nk k −1
ANOVA – Um Fator
ANOVA – Um Fator
• O numerador desta quociente é denominado SOMA DE QUADRADOS ENTRE AMOSTRAS, SQE, ou seja:
• A variância σ² pode ainda ser estimada individualmente a partir dos elementos de cada amostra, ou seja, dentro de cada amostra. Obtemos um estimador de σ² para cada uma das k amostras.
SQE=
∑
i=1 k T i2 n − T2 nkANOVA – Um Fator
ANOVA – Um Fator
• A média desses valores será o estimador de σ² que será denotado por e obtido pela expressão:
• Ao numerador deste quociente denominamos de SOMA DE QUADRADOS DE RESÍDUOS, SQR, ou seja:
SR2= Q− ∑ i=1 k T i2 n k n−1 SQR=Q− ∑ i= 1 k Ti2 n SQR = SQT −SQE SR2
ANOVA – Um Fator
ANOVA – Um Fator
• Em uma Análise de Variância com um fator, apenas uma variável independente é analisada, o modelo relativo aos componentes da variância total, é o seguinte:
• onde:
ST2=S2E +S2R
ST2= variância total
SE2 = variância do tratamento
ANOVA – Um Fator
ANOVA – Um Fator
ANOVA – Um Fator
ANOVA – Um Fator
• Se a hipótese nula for falsa, o valor esperado do QME será maior que o do QMR.
• Isto porque todas as diferenças entre as médias populacionais inflacionarão o QME, enquanto o QMR não será afetado.
ANOVA – Um Fator
ANOVA – Um Fator
• Exemplo:
• Quinze pessoas que participaram de um programa de treinamento são colocadas, de forma aleatória, sob três tipos diferentes formas de treinamento, relacionados com o atendimento em PSFs.
• Os graus obtidos no teste de conclusão do treinamento, são apresentados na tabela abaixo. Usar o procedimento da ANOVA para testar a hipótese de igualdade das médias populacionais.
ANOVA – Um Fator
ANOVA – Um Fator
ANOVA – Um Fator
• Solução:
• Inicialmente, o problema não menciona a questão da normalidade e da independência das amostras. • Como isso é um exercício, vamos assumir a
normalidade e da independência das amostras.
• Se fôsse um caso real, deveríamos testar a normalidade e a independência. Porém, já sabemos testar a homocedasticidade das variâncias e devemos fazê-lo.
ANOVA – Um Fator
ANOVA – Um Fator
• Teste de homocedasticidade: • Hipóteses:
• H0: todos os métodos de treinamento possuem a mesma variância.
• H1: pelo menos uma das variâncias difere das demais.
• gc = 0,34843206
• g = 0,7457
• Decisão: aceita-se H0
• Conclusão: Ao nível de 5% de significância existe evidência de que os graus dos métodos de treinamento possuem a mesma variância.
ANOVA – Um Fator
ANOVA – Um Fator
• ANOVA: • Hipóteses:
• H0: todos os métodos de treinamento possuem médias iguais.
ANOVA – Um Fator
ANOVA – Um Fator
• Tabela ANOVA
• Decisão: rejeita-se Ho, pois 15,085 > F(2,12,0,05) = 3,89
• Conclusão: Conclui-se que ao nível de 5% de significância pelo menos uma das médias dos treinamentos difere das demais.
Comparações Múltiplas
Comparações Múltiplas
• O método da Análise de Variância apenas aceita ou rejeita a hipótese H0 (igualdade entre as médias
populacionais). Se H0 for rejeitada, estamos
admitindo que pelo menos uma média é diferente das demais.
• Surge, porém uma questão: Quais médias devem ser consideradas diferentes de quais outras?
• Vários autores sugeriram procedimentos. Veremos alguns deles.
Comparações Múltiplas
Comparações Múltiplas
• Entretanto, existe um problema estatístico: o italiano Bonferroni mostrou que quando se compara várias populações, alguns métodos não conseguem manter o erro tipo I global (ou "family-wise“) constante no valor α especificado. Por isso propôs uma forma de correção, chamada Correção de Bonferroni.
• Nela, se 4 populações estão sendo comparadas, o máximo erro tipo global permitido é α = 0,05. Então o número de pares é C=4(4-1)/2=6 e a Correção de Bonferroni dá como resposta α’ = 0,05/6=0,0083. Assim, a probabilidade de concluir erronemanete que pelo menos um par de médias diferem não é maior do que 0,05.
Comparações Múltiplas
Comparações Múltiplas
• A Correção de Bonferroni infla o erro do tipo II, isto é, deixamos de identificar diferenças que podem existir.
• A Correção de Bonferroni, não pode ser utilizada se as características apresentam correlação.
Comparações Múltiplas
Comparações Múltiplas
• Muitos dos pós-testes ou teste post-hoc (a posteriori da ANOVA) são modificações do famoso teste t.
• Eles servem para comparações múltiplas, do mesmo modo que para o fato que as comparações estão relacionadas.
• Veremos os testes paramétricos de Bonferroni, Sheffé e Tuckey HSD.
Comparações Múltiplas
Comparações Múltiplas
• Teste de Bonferroni
– O Teste de Bonferroni usa a Correção do mesmo autor sobre uma classe de testes denominada LSD (Least Significant Difference), derivados do teste t.
– Neste teste, devem ser consideradas distintas entre si, e ao nível de significância α’ = α /C (Correção de Bonferroni), as médias µi e µj, tais que:
, onde
∣
x
i−
x
j∣
>Δ
Δ= tα', n− k
S2R
1 ni1
Comparações Múltiplas
Comparações Múltiplas
• Teste de Sheffé
• Scheffé demonstrou que devem ser consideradas distintas entre si, e ao nível de significância adotado, as médias µi e µj, tais que:
, onde
∣
x
i−
x
j∣
>Δ
D=
S2R 2 k−1 n FtComparações Múltiplas
Comparações Múltiplas
• Teste de Sheffé
– Se um número grande de contrastes é de interesse, ou não é com antecedência conhecido quais são de interesse, o teste de Scheffé provê um modo para “bisbilhotar” por todas as possibilidades enquanto mantendo controle na cobertura de intervalos de confiança e as falsas taxas positivas de testes.
– O teste de Scheffé é exato, se o interesse é em todos os contrastes (entretanto, essa é uma situação mais difícil de ocorrer).
Comparações Múltiplas
Comparações Múltiplas
• Teste de Sheffé
– Este teste está intimamente conectado com a ANOVA: a ANOVA é significante se e só se algum contraste apresentar um intervalo de confiança de Scheffé significante.
– Em particular, se a ANOVA não for significante, então nenhum dos intervalos de confiança de Scheffé será significante.
Comparações Múltiplas
Comparações Múltiplas
• Teste de Tukey HSD
• O teste de Tukey HSD (Honestly Significant Differences) é um dos métodos que assegura que a chance de encontrar uma diferença significativa em qualquer comparação sob a hipótese nula é mantida ao nível alfa original do teste, ou seja, preserva o erro tipo I global.
Comparações Múltiplas
Comparações Múltiplas
• Teste de Tukey HSD
• O teste de Tukey HSD considera a diferença entre as médias µi e µj, quando
onde:
• e
q
é a estatística de Tukey com parâmetros (α, k, dfr), onde dfr é o número de graus de liberdade doresíduo da ANOVA.
Δ=
S2R 1n qα,k,dfr
Comparações Múltiplas
Comparações Múltiplas
• Teste de Tukey HSD
• Em tese, não há uma boa razão para usar inicialmente o teste de Tukey HSD após a ANOVA.
• Como o teste de Tukey HSD controla o erro tipo I global, é desnecessário precedê-lo pela ANOVA.
Comparações Múltiplas
Comparações Múltiplas
• Comparação de Método de Bonferroni, Scheffé e Tukey HSD
– Se só comparações emparelhadas serão feitas, o método de Tukey HSD resultará em um intervalo de confiança mais estreito que é preferível (sobre o método de Sheffé)
– No caso geral quando muitos ou todos os contrastes poderiam ser de interesse, o método de Scheffé tende a dar um intervalo confiança mais estreito e é então o método preferido (sobre o método de Tukey HSD).
– Se todas as comparações emparelhadas forem de interesse, Tukey HSD tem a preferência.
Comparações Múltiplas
Comparações Múltiplas
• Comparação de Método de Bonferroni com Scheffé e Método de Tukey HSD
– Se só um subconjunto de comparações emparelhadas é requerido, Bonferroni às vezes pode ser melhor.
– Quando o número de contrastes a ser calculado é pequeno, Bonferroni é melhor que Scheffé.
– Nenhum único método de comparações múltiplas é uniformemente melhor entre todos os métodos.
– Muitos pacotes estatísticos incluem os três métodos. Então, estude seu problema e selecione o método com menor intervalo de confiança.
Comparações Múltiplas
Comparações Múltiplas
• Exemplo:
• Usando o Teste de Scheffé, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.
Comparações Múltiplas
Comparações Múltiplas
• Solução pelo Teste de Scheffé:• = 0,383, k=3, n=5, F(2,12,0,05) = 3,89 • ∆ = 1,0906039
• = 0,90 < ∆ não significativo • = 1,24 > ∆ significativo
• = 2,14 > ∆ significativo
• Conclusão: Ao nível de 5% de significância conclui-se que apenas os métodos de treinamento 1 e 2 são semelhantes.
SR2
∣
x
1−
x
2∣
∣
x
1−
x
3∣
Comparações Múltiplas
Comparações Múltiplas
• Exemplo:
• Usando o Teste de Tukey HSD, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.
Comparações Múltiplas
Comparações Múltiplas
• Solução pelo Teste de Tukey HSD:• = 0,383, n=5, q(0,05;3;12) = 3,77 • ∆ = 1,043412
• = 0,90 < ∆ não significativo • = 1,24 > ∆ significativo
• = 2,14 > ∆ significativo
• Conclusão: Ao nível de 5% de significância conclui-se que apenas os métodos de treinamento 1 e 2 são semelhantes.
SR2
∣
x
1−
x
2∣
∣
x
1−
x
3∣
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Na ANOVA com dois fatores, vamos admitir que cada elemento da amostra tenha sido classificado segundo dois critérios, constituindo duas classificações cruzadas.
Admitiremos que exista um total de "nk" observações,
constituindo "k" amostras de "n" elementos segundo cada um dos tratamentos (coluna).
Adicionalmente, consideramos que cada exista um
emparelhamento por cada linha, o qual denominaremos de blocos.
ANOVA – Dois Fatores
ANOVA – Dois Fatores
As nk observações são dispostas em uma tabela com n linhas e k colunas.
ANOVA – Dois Fatores
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Hipóteses:
(todos os tratamentos possuem médias iguais) (todos os blocos possuem médias iguais)
Pelo menos um dos tratamentos apresenta média diferente dos demais
Pelo menos um dos blocos apresenta média diferente dos demais
H01:m. 1=m. 2=.. . =m. k
H02: m1 .=m2 .=. .. =mn.
H11:
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Note-se que agora existem duas hipóteses nulas (H01 e H02). H01 , como antes, refere-se aos tratamentos e H02 aos blocos.
Como antes, a SOMA DE QUADRADOS TOTAL,
SQT, é dada por:
SQT=Q− T
2
ANOVA – Dois Fatores
ANOVA – Dois Fatores
A segunda parcela da variação é dada pela SOMA DOS QUADRADOS ENTRE OS TRATAMENTOS, SQET:
Uma outra parcela da variação é dada pela SOMA DOS QUADRADOS ENTRE OS BLOCOS, SQEB:
SQET= ∑ j=1 n T . j2 n − T 2 nk SQEB= ∑ i=1 k Bi .2 k − T 2 nk
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Como na ANOVA - Um fator, a variação restante, é dada pela SOMA DE QUADRADOS DE RESÍDUOS, SQR, ou seja:
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Em uma Análise de Variância com dois fatores, o modelo relativo aos componentes da variância total é dado por: onde: ST2 =S2ET +SEB2 +SR2 ST2= variância total S ET2 = variância do tratamento S EB2 =variância do bloco
ANOVA – Dois Fatores
ANOVA – Dois Fatores
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Se a hipótese nula 1 for falsa, o valor esperado do QMET será maior que o do QMR. Assim:
Se Rejeita-se H01
Se a hipótese nula 2 for falsa, o valor esperado do QMEB será maior que o do QMR. Assim:
Se Rejeita-se H02
Ft>Fk−1; k−1 n−1 ;α ⇒
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Exemplo:
Os dados que se seguem representam o tempo em segundos gastos por cinco enfermeiros para realizar certo procedimento em quatro postos de saúde diferentes. Ao nível de 5% de significância, verifique de existe diferença assimilável entre postos e entre enfermeiros.
ANOVA – Dois Fatores
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Solução:
Inicialmente, o problema não menciona a questão da normalidade e da independência das amostras, nem para os Postos de Saúde e nem para os Enfermeiros.
Como isso é um exercício, vamos assumir a normalidade e da independência para os Postos de Saúde e para os Enfermeiros.
Se fôsse um caso real, deveríamos testar a normalidade e a independência de ambos. Porém, já sabemos testar a homocedasticidade das variâncias e devemos fazê-lo para todos eles.
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Teste de homocedasticidade para os Postos de Saúde: Hipóteses:
H0: todos os Postos de Saúde possuem a mesma variância no tempo de realização do procedimento.
H1: pelo menos um dos Postos de Saúde tem variância no tempo de realização do procedimento diferente dos demais. gc = 0,48504551
g = 0,7457
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Conclusão: Ao nível de 5% de significância pode-se considerar que todos os Postos de Saúde possuem a mesma variância no tempo de realização do procedimento.
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Teste de homocedasticidade para os Enfermeiros: Hipóteses:
H0: todos Enfermeiros possuem a mesma variância no tempo de realização do procedimento.
H1: pelo menos um dos Enferemeiros tem variância no tempo de realização do procedimento diferente dos demais. gc = 0,42778342
g = 0,6287
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Conclusão: Ao nível de 5% de significância pode-se considerar que todos os Enfermeiros possuem a mesma variância no tempo de realização do procedimento.
Como foi comprovada a homocedasticidade dos Postos de Saúde e dos Enfermeiros, quanto ao tempo de realização do procedimento, então podemos realizar a ANOVA – dois fatores.
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Hipóteses:
H01: todos os Postos de Saúde possuem tempos médios iguais
na realização do procedimento.
H02: todos os Enfermeiros possuem tempos médios iguais na
realização do procedimento.
H11: pelo menos um dos Postos de Saúde possui tempo médio
diferente na realização do procedimento em relação aos demais.
H12: pelo menos um dos Enfermeiros possui tempo médio
diferente na realização do procedimento em relação aos demais.
ANOVA – Dois Fatores
ANOVA – Dois Fatores
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Tabela ANOVA
Decisão: rejeita-se H01, pois 26,577 > F(3,12,0,05) = 3,49 aceita-se H02, pois 1,096 < F(4,12,0,05) = 3,26
ANOVA – Dois Fatores
ANOVA – Dois Fatores
Conclusão:
Conclui-se que ao nível de 5% de significância que os Enfermeiros possuem tempos médios iguais na realização do procedimento, mas que pelo menos um dos Postos de Saúde possui tempo médio diferente na realização do procedimento em relação aos demais.
Comparações Múltiplas
Comparações Múltiplas
Os testes post-hoc para a ANOVA – dois fatores são modificações dos testes para a ANOVA – um fator. Eles têm a mesma serventia, porém são capazes de comparações múltiplas entre tratamentos e também entre blocos.
Comparações Múltiplas
Comparações Múltiplas
Teste de Sheffé
Scheffé demonstrou que devem ser consideradas distintas entre si, e ao nível de significância adotado, as médias µi e µj, dos tratamentos, tais que:
, onde
Dt=
S2R 2 k −1 n Ftt
Comparações Múltiplas
Comparações Múltiplas
Teste de Sheffé
Devem ser consideradas diferentes, as médias µi e µj, dos blocos, ao nível de significância, tais que:
, onde ∣xi.−x. j .∣>Δb
Db=
SR2 2 n−1Comparações Múltiplas
Comparações Múltiplas
Teste de Tukey HSD
O teste de Tukey HSD considera a diferença entre as médias µi e µj, dos tratamentos, quando onde:
e
q
é a estatística de Tukey com parâmetros (α, k, dfr), onde dfr é o número de graus de liberdade doresíduo da ANOVA.
Δt=
SR2 1n qα,k,dfr
Comparações Múltiplas
Comparações Múltiplas
Teste de Tukey HSD
Considera a diferença entre as médias µi e µj, dos blocos, quando onde:
e
q
é a estatística de Tukey com parâmetros (α, n, dfr), onde dfr é o número de graus de liberdade doresíduo da ANOVA.
Δb=
S2R 1k qα,n,dfr
Comparações Múltiplas
Comparações Múltiplas
Exemplo:
Usando o Teste de Scheffé, quais foram as médias responsáveis pela rejeição da hipótese nula no exemplo anterior.
Comparações Múltiplas
Comparações Múltiplas
Solução pelo Teste de Scheffé:
= 18,775, k=4, n=5, F(3,12,0,05) = 3,49 ∆ = 8,86772 = 12,40 > ∆ significativo = 0,40 < ∆ não significativo = 20,60 > ∆ significativo = 12,00 > ∆ significativo = 8,20 < ∆ não significativo = 20,20 > ∆ significativo SR2
∣
x
A−
x
B∣
∣
x
A−
x
C∣
∣xA−xD∣ ∣xB−xC∣ ∣xB−xD∣ ∣xC−xD∣Comparações Múltiplas
Comparações Múltiplas
Solução pelo Teste de Scheffé:
Conclusão: Ao nível de 5% de significância conclui-se que somente os Postos de Saúde A e C; B e D são semelhantes.
Referências
Referências
• Hector G. Arango, Bioestatística Teórica e Computacional (2005). Rio de Janeiro: Ed. Guanabara Koogan, 2a ed.
• Hardeo Sahai, Mohammed I. Ageel (2000) Analysis of Variance: Fixed, Random and Mixed Models. Birkhäuser Boston; 1st ed.
• Goldshmidt, Day e Richardson (2000) em "Effects of Prenatal Marijuana Exposure on Child Behavior Problems at Age 10" publicado na Neurotoxicol. and Tetratol., 22, pg. 325-336.
• Brian S. Yandell (1997) Practical Data Analysis for Designed Experiments. Chapman & Hall/CRC; 1st ed.
• John Verzani (2005) Using R for Introductory Statistics. Boca Raton: Chapman & Hall/CRC.
• Psychology World (2009) Tukey's Post Hoc Test. Disponível em <http://web.mst.edu/~psyworld/tukeys4mean.htm>, maio de 2009.