• Nenhum resultado encontrado

3. METODOLOGIA

3.2 Técnicas estatísticas

Para a verificação das anomalias, foram utilizados tanto testes paramétricos como não-paramétricos, independentemente dos resultados dos testes de normalidade dos retornos. A utilização destas duas modalidades visa dar maior robustez ao estudo. O mesmo procedimento foi adotado por Costa Jr. (1990 e 1991).

Testes paramétricos supõem que a distribuição dos dados seja normal, ao passo que os testes não paramétricos não supõem qualquer forma específica de distribuição para a população. De acordo com McCabe e Moore (2002), os resultados dos testes paramétricos utilizados são exatos se a distribuição é normal e aproximadamente corretos para amostras grandes em outras formas de distribuição. Ainda, para Moore (2005) os testes paramétricos t de uma e de duas amostras e a

análise de variância são bastante robustos e não são muito sensíveis à falta de normalidade.

Para Hanke e Reitsch (1995), quando a amostra for suficientemente grande, com 30 observações ou mais, testes paramétricos podem ser utilizados, mesmo sem a comprovação da hipótese da normalidade da distribuição. As amostras utilizadas para a verificação das duas anomalias contêm mais de 30 observações.

3.2.1 Testes paramétricos

Os testes paramétricos utilizados neste trabalho estão descritos a seguir.

• Teste t de amostras pareadas

O teste t de amostras pareadas ou paired t objetiva analisar a diferença de médias entre observações pareadas. A exigência é que as amostras envolvidas no teste sejam do mesmo tamanho.

Pela hipótese nula, a diferença entre as duas médias amostrais é estatisticamente igual a zero, ou seja, as médias das amostras são iguais. De acordo com a hipótese alternativa, a diferença entre as duas médias amostrais são estatisticamente diferentes. Baixos p-values sugerem rejeição da hipótese nula.

Na averiguação das anomalias foram realizados testes comparativos das diferenças das médias de retornos diários e mensais. Assim, o retorno médio das segundas- feiras foi comparado aos retornos médios dos demais dias, enquanto que o de janeiro foi comparado aos dos demais meses do ano.

• Teste F da ANOVA

Segundo McCabe e Moore (2002), o teste F da ANOVA é utilizado para comparar médias e testar se há alguma diferença entre elas. Um valor de F elevado indica que pelo menos uma das médias analisadas é diferente das demais. O p-value, que acompanha o valor de F, expressa a probabilidade que as médias têm de serem iguais.

A hipótese nula do teste diz que as médias das populações são todas iguais, enquanto que, pela hipótese alternativa, as médias das populações não são todas iguais. Para Stevenson (1986) se o teste F da ANOVA leva à aceitação da hipótese nula, conclui-se que as diferenças observadas entre as médias amostrais são devidas a variações aleatórias na amostra. Caso contrário, pode-se concluir que as diferenças entre as médias amostrais são grandes demais para serem devidas apenas à chance.

Conforme afirmam McCabe e Moore (2002), o teste F da ANOVA não diz qual ou quais das médias são diferentes das demais. Em outras palavras, uma vez identificado que o retorno médio de pelo menos um dia da semana, ou mês do ano, é diferente dos demais, o teste F da ANOVA não permite identificar qual ou quais são estes dias ou meses.

• Teste t de uma amostra

Para Stevenson (1986), utiliza-se um teste t de uma amostra para testar uma afirmação sobre uma única média populacional. Pela hipótese nula, tem-se que a afirmativa sobre a média é verdadeira. Pela hipótese alternativa ela não pode ser comprovada estatisticamente.

Na verificação das anomalias, comparou-se a média de cada dia da semana e cada mês do ano a zero. O p-value do teste expressa a probabilidade da hipótese nula

ser verdadeira. Um p-value menor do que o nível de aceitação leva à rejeição da hipótese nula.

• Teste t de duas amostras

O teste t de duas amostras é utilizado, segundo Stevenson (1986), para decidir se as médias de duas populações são iguais. Este teste não exige que as amostras sejam do mesmo tamanho.

Na hipótese nula a diferença entre as duas médias é estatisticamente igual a zero, enquanto que, pela hipótese alternativa, esta diferença não é estatisticamente igual a zero.

Assim, na verificação das anomalias, efetuou-se a comparação dos retornos das segundas-feiras e dos meses de janeiro com os retornos de cada um dos demais dias da semana e de cada um dos outros meses do ano, respectivamente.

Se o p-value do teste for maior do que o nível de aceitação, não há evidências para se rejeitar a hipótese nula, ou seja, a diferença entre as médias é estatisticamente igual a zero.

3.2.2 Testes não paramétricos

Foi utilizado o teste não-paramétrico de Kruskal-Wallis. Este teste se baseia no

ranking de cada observação para verificar se duas ou mais amostras pertencem a

mesma população. De acordo com Stevenson (1986), o processo do teste consiste em converter cada observação em um posto, de forma que o menor valor receba o posto 1, o próximo recebe o posto 2 e assim por diante, até que todas as observações tenham sido consideradas. Conforme Moore (2005), o teste de Kruskal- Wallis pode substituir o teste F da ANOVA, podendo-se relaxar a condição de normalidade da distribuição.

A hipótese nula do teste é que as médias amostrais são todas iguais. Por sua vez, a hipótese alternativa é que as médias amostrais não são todas iguais.

“O teste Kruskal-Wallis rejeita a hipótese nula de que todas as populações têm a mesma distribuição quando H é grande.”(MCCABE e MOORE, 2002, p. 562). Segundo Stevenson (1986) se a hipótese de igualdade de médias for verdadeira, a estatística H terá distribuição qui-quadrado com k-1 graus de liberdade. Assim, o valor de H pode ser comparado a um valor tabulado de qui-quadrado e a hipótese nula deverá ser rejeitada se o valor calculado for maior do que o valor tabulado, ao nível de significância escolhido.

Na análise das anomalias, caso o retorno médio seja igual para todos os dias da semana ou meses do ano, o teste de Kruskal-Wallis trará um valor de H baixo e uma distribuição qui-quadrado, com aproximadamente k-1 graus de liberdade. Desta forma, quanto maior o valor de H, maior a possibilidade de que haja ao menos um dia da semana ou mês do ano com retornos médios estatisticamente diferentes dos demais. O p-value do teste indica a possibilidade, em termos percentuais, que as médias de retornos de todos os dias da semana, ou meses do ano, têm de serem iguais.

Além dos valores de H e p-value, o teste Kruskal-Wallis apresenta mais dois tipos de resultados para cada grupo de observações: o Average Ranking e o Z. A análise destes valores permite comparar as médias de retornos entre os diversos grupos (dias da semana ou meses do ano).

3.2.3 Teste de normalidade

Utilizou-se o teste de normalidade de Kolmogorov-Smirnov, que compara a distribuição observada com uma distribuição teórica normal. Pela hipótese nula, a amostra analisada deriva de uma distribuição normal. Pela hipótese alternativa, a amostra analisada deriva de outra forma de distribuição.

A análise dos resultados do teste consiste em verificar os p-values. Valores superiores ao nível de aceitação indicam que a distribuição observada corresponde à distribuição teórica normal. Nestes casos, aceita-se a hipótese de normalidade das séries de dados. Se o p-value do teste for inferior ao nível de aceitação, rejeita-se a hipótese de normalidade das séries.

3.2.4 Teste de autocorrelação

Autocorrelação é a correlação entre observações presentes em uma série de dados temporais. O exame de padrões de correlação em uma série temporal é uma etapa importante na análise estatística.

De acordo com Bone e Ribeiro (2002) a presença de autocorrelação nos retornos pode invalidar os resultados teóricos que se baseiam os testes de hipótese. A não verificação desta condição pode fazer com que os testes empregados sejam ineficientes e/ou inconsistentes.

Assim, foi feita primeiramente a análise de autocorrelação entre os retornos diários e mensais, para daí realizar os testes paramétricos e não paramétricos. Esta análise deu-se por meio do exame dos gráficos de autocorrelação das observações, que incluem os limites de confiança para as correlações.

Documentos relacionados