• Nenhum resultado encontrado

5. O ESTUDO DE CASO

5.3.2 Testes Econométricos

Esta seção apresenta as bases econométricas aplicadas na presente dissertação para a identificação da existência ou não da causalidade entre o retorno de mercado e o retorno contábil no setor bancário. Os testes utilizados são de estacionariedade, através do método ADF – Augmented Dickey-Fuller, e o teste de causalidade de Granger.

5.3.2.1 Teste de Estacionariedade

A estacionariedade é uma condição essencial para a análise de dados quando estão em séries de tempo. Séries não-estacionárias não possibilitam um tratamento econométrico viável em séries de tempo. Complementando, as premissas do modelo de regressão clássico resultam na necessidade de que tanto a variável dependente quanto as variáveis independentes sejam estacionárias e que os resíduos tenham média zero e variância constante.

Gujarati (2004, p.730) afirma que:

Regressões envolvendo dados de série temporal incluem a possibilidade de se obter resultados espúrios ou duvidosos, ou seja, superficialmente, os resultados parecem bons, mas, depois de investigações adicionais, eles parecem suspeitos.

Deste modo, regressões entre variáveis não-estacionárias podem resultar no problema de regressão espúria relatado por Granger e Newbold (1974). A

estacionariedade de uma série refere-se ao comportamento de sua distribuição conjunta de probabilidade no decorrer do tempo. O conceito de estacionariedade fraca é quase sempre utilizado na análise de séries de tempo.

Uma série que se diz econometricamente fraca tem média e variância constantes no tempo e autocorrelação que não variam em relação ao tempo. A relevância da estacionariedade está no fato de que séries com tendência são, em maioria, não estacionárias, como grande parte das séries econômicas e financeiras. Torna-se importante identificar se a tendência da série é determinística ou estocástica. Dawid (2004, p.2) argumenta:

Quando um componente de uma série temporal é um passeio aleatório, costuma-se dizer que a série possui uma raiz unitária, ou que é integrada de ordem 1, I(1). A relevância de se saber se uma série possui raiz unitária está no fato de que, em caso afirmativo, os choques externos causam efeito permanente na série. Ao passo que, em uma série estacionária, há um retorno à média após certo tempo.

O método mais divulgado de tendência estocástica é o random walk, representado pela seguinte fórmula:

Y

t

=

Y

t −1

+

u

t (2) onde Yt, caso do random walk, é o log do preço da ação no período t, e ut é a parte estocástica da tendência, que é média igual a zero quando se calculam os regressores através dos mínimos quadrados ordinários. O random walk pode se apresentar com tendência constante, ou seja, em que existe um crescimento constante da série, representada da seguinte forma:

0 1

t t t

Y

=

β

+Y

+u

(3)

onde β0 é um componente de tendência fixo. O caso mostra que a melhor previsão

da série é o valor anterior mais uma tendência fixa. Conclui-se que uma série random walk é não-estacionária devido sua variância aumentar com o tempo.

O modelo AR de Box e Jenkins, acima descrito, caracteriza-se pelo regressor Yt-1 ter raiz unitária e o cálculo seguir uma tendência estocástica. Se o regressor tiver raiz unitária e o componente também for estacionário, não dependerá de t, dessa maneira, podemos afirmar que a curva histórica de dados é estacionária. É fundamental lembrar que, quando uma série possui raiz unitária, pode-se afirmar que ela não é estacionária.

Nesse estudo, será utilizado o teste ADF – Augmented Dickey-Fuller –, e será utilizada em sua forma descrita a seguir, considerando a hipótese nula:

0

:

0

H

δ

=

1

:

0

H

δ

na equação: 1 t t t

Y

α β

δY

u

∆ =

+ Τ +

+

(4)

A estatística δ representa a estatística de Dickey- Fuller. Essa equação,

como utilizada no software Eviews, representa a adição de uma constante ( ) e tendência ( T). Se o resultado a seguir for diferente de 0, significa que a equação possui raiz unitária. No software Eviews, é dado diretamente esse resultado através de um teste utilizando a distribuição t.

5.3.2.2 O Teste de Causalidade de Granger

O econometrista Clive Granger assume que o futuro não pode causar o passado nem o presente. Por exemplo, se o evento A ocorre depois do evento B, inferimos que A não pode causar B. Concomitantemente, se A ocorre antes que B, isso não significa que A, necessariamente, cause B. O exemplo clássico são as previsões de chuva do meteorologista. O fato de a previsão ocorrer primeiro do que a chuva não significa que o meteorologista causou a chuva. Na verdade, o que temos são duas séries temporais A e B e estaríamos interessados em saber se A precede B, ou B precede A, ou se A e B ocorrem simultaneamente. Esse é o

fundamento do teste de causalidade de Granger, que não se propõe a identificar uma relação de causalidade no seu sentido de endogeneidade.

Considere as séries de tempo Xt e Yt. O teste de causalidade de Granger adota que a informação relevante para a predição das respectivas variáveis X e Y está inserida somente nas séries de tempo sobre essas duas variáveis. Dessa maneira, uma série de tempo estacionária X causa, no sentido de Granger, uma outra série estacionária Y se melhores predições estatisticamente significantes de Y podem ser obtidas ao incluirmos valores defasados de X aos valores defasados de Y. Em termos matemáticos, o teste abrange estimar as seguintes regressões:

1 2 t i t i i t i t t i t i i t i t

X

a Y

b X

u

Y

c Y

d X

u

− − − −

=

+

+

=

+

+

onde uit são os resíduos que assumimos serem não-correlacionados.

A equação (5) indica que valores correntes de X estão relacionados a valores passados do próprio X bem como a valores defasados de Y; a equação (6), toma um comportamento semelhante para a variável Y. As variáveis X e Y podem ser representadas na forma de taxas de crescimento, o que tem sido quase que a regra geral na literatura, haja vista que é difícil achar variáveis que sejam estacionárias em seus níveis.

Podemos evidenciar quatro casos diferentes depois da estimação:

a) Causalidade unilateral de Y para X: é dado quando os coeficientes estimados em (5) para a variável defasada Y são conjuntamente diferentes de zero ( ai 0), e quando o conjunto de coeficientes estimados em (6) para a variável X não forem estatisticamente diferentes de zero ( di=0).

(5)

b) Causalidade unilateral de X para Y: ocorre quando o conjunto de coeficientes defasados para a variável Y na equação (5) não for estatisticamente diferente de zero ( ai=0) e o conjunto de coeficientes defasados para a variável X em (6) o for ( di 0).

c) Bicausalidade ou simultaneidade: dá-se quando os conjuntos de coeficientes defasados de X e Y forem estatisticamente diferentes de zero em ambas as regressões.

d) Independência: ocorre quando, em ambas as regressões, os conjuntos de coeficientes defasados de X e Y não forem estatisticamente diferentes de zero.

Em termos mais abrangentes, considerando que o futuro não pode predizer o passado, se a variável X Granger causa a variável Y, então mudanças em X devem preceder temporalmente mudanças em Y.

Documentos relacionados