Diferentes testes para verificar
normalidade de uma amostra aleat´
oria
Fernando Lucambio
Departamento de Estat´ıstica Universidade Federal do Paran´a Curitiba/PR, 81531–990, Brasil
email: lucambio@ufpr.br
Maio de 2008
Mostraremos os testes para normalidade mais utilizados: teste Jarque-Beta, teste D’Agostino, teste χ2 de Pearson de bondade de ajuste, teste Shapiro-Wilk, teste Lilliefors, teste
Anderson-Darling e teste de Cramer-von Mises. Este tema ´e extremamente importante e por isso existem muitas outras propostas de testes para verificar normalidade de amostras em diferentes contextos, uma excelente referˆencia ´e Stephens (1986).
1
Teste Jarque-Beta
Proposto por Bera & Jarque (1980), baseia-se na diferen¸ca entre os coeficientes de skewness e kurtosis dos dados y1, y2, . . . , yn e `aqueles da distribui¸c˜ao assumida normal.
As hip´oteses nula e alternativa no teste Jarque-Bera s˜ao:
H0 :y1, y2, . . . , yn ∼N(µ, σ2) vs H1 : n˜aoH0
A estat´ıstica de teste ´e
JB=n
µ α2
3
6 +
(α4−3)2
24
¶ ,
onde
α3 =
Pn
i=1(yi−y)3
ns3 ,
α4 =
Pn
i=1(yi−y)4
ns4 ,
s2 =
Pn
i=1(yi−y)2
n ·
Aqui, y ´e a m´edia amostral e s2, α
3 e α4 o segundo, terceiro e quarto momentos centrais,
respectivamente. A estat´ıstica JB tˆem distribui¸c˜ao assint´otica χ2(2) sob a hip´oteses nula.
O teste de Jarque-Beta ´e conhecido por ter boas propriedades para verificar normalidade, ´e claro e simples de calcular e ´e muito utilizado no contexto de regress˜ao em econometria. Uma limita¸c˜ao ´e que somente pode ser utlizado na verifica¸c˜ao de normalidade.
2
Teste D’Agostino-Pearson
Tamb´em conhecido como teste D foi proposto por D’Agostino (1970) e tˆem sido muito utilizado para verificar normalidade. Suponha quey1, y2, . . . , yn´e a amostra aleat´oria e quey(1), y(2), . . . , y(n)
´e a amostra ordenada, isto ´e, y(1) ≤y(2) ≤. . .≤y(n).
A estat´ıstica D de teste ´e
D= T
n2s,
onde s ´e o desvio padr˜ao amostral, o quel ´e calculado como a ra´ız quadrado positiva de s2
segundo definido no contexto do teste Jarque-Bera e
T =
n
X
i=1
µ
i− n+ 1
2
¶ y(i)·
Se a amostra ´e da distribui¸c˜ao normal, temos que
E{D}= (n−1)Γ(
n
2 − 1 2)
2√2nπΓ(n2) ≈ 1
2√π ≈0.28209479,
o desvio padr˜ao assint´otico da estat´ıstica D ´e
s{D}=
s
12√3−37 + 2π
24nπ ≈
0.02998598
√
n ·
Utiliza-se a estat´ıstica D padronizada como
D∗ = D−E{D}
s{D} ,
a qual tˆem distribui¸c˜aonormal aproximada sob hip´otese nula. No R a fun¸c˜aoNormalityTests no pacotefBasics fornece a estat´ıstica de teste D acima assim como o p-valor.
3
Teste
χ
2de Pearson de bondade de ajuste
A estat´ıstica do teste Pearson ´e
P =
n
X
i=1
(Ci−Ei)2
Ei
,
onde Ci ´e o n´umero de observa¸c˜oes e Ei ´e o n´umero de observa¸c˜oes esperadas (sob a hip´oteses
nula) na i-´esima classe. Estas classes s˜ao escolhidas de maneira sejam equiprov´aveis sob a hip´oteses de normalidade.
O p-valor ´e calculado da distribui¸c˜ao χ2 com graus de liberdade iguais ao n´umero de classes
menos 3 ou ao n´umero de classes menos 1 se decide-se pela corre¸c˜ao ou n˜ao (a corre¸c˜ao recomenda-se somente em pequenos tamanhos de amostras). Em ambos os casos este n˜ao ´e o correto valor do p-valor, ficando na maioria das vezes entre estes dois valores (Moore, 1986).
Este teste n˜ao ´e recomendado para testar normalidade devido `as inferiores propriedades comparado aos otros testes dispon´ıveis. Em siatu¸c˜oes pr´aticas calcula-se o p-valor da distribui¸c˜ao
χ2 com graus de liberdade iguais ao n´umero de classes menos 3, devido `a estima¸c˜ao dos dois
4
Teste Shapiro-Wilk
Proposto por Shapiro & Wilk (1965) utiliza a estat´ıstica
W =
¡Pn
i=1aiy(i)
¢2 Pn
i=1(yi−y)2
,
onde as constantes a1, a2, . . . , an s˜ao calculadas como a solu¸c˜ao de
(a1, a2, . . . , an) =
m⊤V−1
(m⊤V−1V−1m)1/2,
sendom = (m1, m2, . . . , mn)⊤o vetor dos valores esperados das estat´ısticas de ´ordem da amostra
e V a matriz de covariancias dessas estat´ısticas. O p-valor deste teste ´e calculado exatamente para n = 3, em outras situa¸c˜oes utilizam-se aproxima¸c˜oes diferentes para 4 ≤ n ≤ 11 e para
n≥12, (Shapiro & Francia, 1972).
No R as fun¸c˜oes shapiro.test no pacote stats fornece a estat´ıstica de teste acima assim como o p-valor e a fun¸c˜ao sfTestno pacote fBasics.
5
Teste Lilliefors
O teste Lilliefors, uma modifica¸c˜ao do teste Kolmogorov-Smirnov, utiliza a estat´ıstica D de Kolmogorov-Smirnov que mede a diferen¸ca m´axima absoluta entre a fun¸c˜ao de distribui¸c˜ao acumulada emp´ırica e te´orica.
A estat´ıstica de teste ´e
D= max{D+, D−},
onde D+ = max
i=1,...,n{ni −p(i)}, D− = maxi=1,...,n{p(i)− i−1n }, e p(i) = Φ([x(i)−x]/s). Nesta
express˜ao, Φ ´e a fun¸c˜ao de distribui¸c˜ao acumulada normal padr˜ao exandss˜ao a m´edia e desvio padr˜ao amostrais.
O p-valor ´e calculado pela f´ormula em Dallal & Wilkinson (1986), a qual ´e confia´vel quando o p-valor ´e menor do que 0.1. Se o p-valor Dallal-Wilkinson fornece um valor maior do que 0.1 o verdadeiro p-valor deve ser calculado da distribui¸c˜ao da estat´ıstica de teste modificada
Z =D
µ
√
n−0.01 + 0√.85
n ¶
(Stephens, 1986), o p-valor ´e obtido ent˜ao via simula¸c˜oes e aproxima¸c˜oes.
As fun¸c˜oes R ksnormTest no pacote fBasics e ks.test no pacote nortest calculam o teste Kolmogorov-Smirnov e as fun¸c˜oes lillieTest no pacote fBasics e lillie.test no pacote nortest cal-culam o test Lilliefors.
6
Teste Anderson-Darling
Proposto por Anderson & Darling (1952) ´e mais utilizado quando o tamanho da amostra n˜ao ´e superior a 25. Este teste ´e baseado na fun¸c˜ao de distribui¸c˜ao emp´ıica, a id´eia ´e que dada a fun¸c˜ao de distribui¸c˜ao sob hip´oteses nula, os dados podem ser transformados `a distribui¸c˜ao uniforme. Os dados transformados podem ent˜ao serem testados para uniformidade.
A estat´ıstica de teste ´e
A=−n− 1 n
n
X
i=1
[2i−1][ln(p(i)) + ln(1−p(n−i+1))],
ondep(i)= Φ([y(i)−y]/s) s˜ao os percentis ordenados da distribui¸c˜ao normal padr˜ao e Φ representa
a fun¸c˜ao de distribui¸c˜ao acumulada normal padr˜ao. O p-valor ´e calculado da estat´ıstica modificada
Z =
µ
1.0 + 0.75
n +
2.25
n2
¶ A,
como 1 −e−13.436+101.14Z−223.73Z2
se Z < 0.2, 1− e−8.318+42.796Z−59.938Z2
se 0.2 ≤ Z < 0.34,
e0.9177−4.279Z−1.38Z2
se 0.34≤Z <0.6 e e1.2937−5.709Z+0.0186Z2
se Z ≥0.6. No R as fun¸c˜oes ad.test
no pacotenortestfornece a estat´ıstica de teste acima assim como o p-valor e a fun¸c˜ao adTestno pacotefBasics.
7
Teste Cramer-von Mises
Este teste ´e tamb´em baseado na distribui¸c˜ao acumulada, foi proposto por Darling (1957). A estat´ıstica de teste ´e
W = 1
12n +
n
X
i=1
µ p(i)−
2i−1 2n
¶ ,
ondep(i)= Φ([x(i)−x]/s) s˜ao os percentis ordenados da distribui¸c˜ao normal padr˜ao e Φ representa
a fun¸c˜ao de distribui¸c˜ao acumulada normal padr˜ao. O p-valor ´e calculado da estat´ıstica modificada
Z =
µ
1.0 + 1 2n
¶ W,
como 1−e−13.953+775.5Z−12542.61Z2
se Z < 0.0275, 1−e−5.903+179.546Z−1515.29Z2
se 0.0275 ≤ Z <
0.051, e0.886−31.62Z+10.897Z2
se 0.051 ≤ Z < 0.092 e e1.111−34.242Z+12.832Z2
se Z ≥ 0.092. No R as fun¸c˜oes cvm.testno pacote nortest fornece a estat´ıstica de teste acima assim como o p-valor e a fun¸c˜ao cvmTestno pacote fBasics.
Referˆ
encias
D’Agostino, R.B. (1970). Transformation to normality of the null distribution ofg1. Biometrika,
57(3), 679–681.
Dallal, G.E. & Wilkinson, L. (1986). An analytic approximation to the distribution of Lilliefors’s test for normality. The American Statistician, 40, 291–296.
Darling, D.A. (1957). The Kolmogorov-Smirnov, Cramer-von Mises Tests. Annals of Mathema-tical Statistics, 28(4 (Dec.)), 823–838.
Moore, D.S. (1986). Tests of the chi-squared type. D’Agostino, R.B. and Stevens, M.A., eds.: Goodness-of-Fit Techniques. New York: Marcel Dekker.
R Development Core Team (2006). R: A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0.
Shapiro, S.S. & Francia, R.S. (1972). An Approximate Analysis of Variance Test for Normality.
Journal of the American Statistical Association, 67, 215–216.
Shapiro, S.S. & Wilk, M. (1965). An analysis of variance test for normality (complete samples).
Biometrika, 52, 591–611.