• Nenhum resultado encontrado

2. REVISÃO BIBLIOGRÁFICA 1. Introdução

2.2. Séries Temporais

Segundo Morettin e Toloi (2006), uma série temporal é qualquer conjunto de observações ordenadas no tempo. Souza (1989) cita que uma classe de fenômenos cujo processo observacional e consequente quantificação numérica gera uma sequência de dados distribuídos no tempo é denominada série temporal.

Alguns exemplos clássicos de aplicações destas séries temporais, segundo Morettin e Toloi (2006), são:

1. Valores diários de poluição na cidade de São Paulo;

2. Valores mensais de temperatura na cidade de Cananéia-SP; 3. Índices diários da Bolsa de Valores de São Paulo;

4. Precipitação atmosférica anual na cidade de Fortaleza; 5. Número médio anual de manchas solares;

6. Registro de marés no porto de Santos.

As séries temporais podem ser divididas em discretas e contínuas. Morettin e Toloi (2006) afirmam que muitas vezes uma série temporal discreta é obtida através da amostragem de uma série temporal contínua em intervalos de tempos iguais, . Em outros casos, temos que o valor da série em um dado instante de tempo é obtido acumulando-se valores em

intervalos de tempos iguais. Além disso, as séries podem ser analisadas sob dois enfoques diferentes.

No primeiro enfoque, a análise é feita no domínio temporal, resultando em modelos paramétricos (parâmetros finitos). O outro enfoque é analisar as séries temporais no domínio das freqüências, que tem como resultado modelos não paramétricos.

Ainda segundo Morettin e Toloi (2006), os principais objetivos da análise de séries temporais, sejam elas financeiras ou não, são:

1. Investigar o mecanismo gerador da série temporal;

2. Fazer previsões de valores futuros da série (no curto ou longo prazo);

3. Descrever apenas o comportamento da série, através da construção de gráficos, da verificação da existência de tendências, ciclos e variações sazonais, da construção de histogramas e de diagramas de dispersão;

4. Procurar periodicidades relevantes nos dados.

Independentemente do enfoque utilizado, são construídos modelos probabilísticos ou modelos estocásticos, que devem ser simples e parcimoniosos. Entende-se por processo estocástico aquele que é controlado por leis de probabilidade.

Segundo Morettin e Toloi (2006), um processo estocástico tem a seguinte definição: Seja T um conjunto arbitrário. Um processo estocástico é uma família Z = {Z(t), t ∈ T}, tal que, para cada t ∈ T, Z(t) é uma variável aleatória. Nestas condições, um processo estocástico é uma família de variáveis aleatórias (v.a.), que estão definidas em um mesmo espaço de probabilidades Ω. Normalmente, o conjunto T pode ser tomado como sendo um conjunto de números inteiros ou reais. Portanto, para cada t ∈ T e ω ∈ Ω, definimos X(t, ω).

Ainda segundo os mesmos autores, o conjunto dos valores de {X(t), t ∈ T} é chamado de espaço dos estados S, do processo estocástico e os valores de X(t) podem ser chamados de estados. Se o conjunto T for finito ou enumerável, como T = ℤ, o processo diz-se com parâmetro discreto. Se T for um intervalo de ℝ teremos um processo com parâmetro contínuo. Morettin e Toloi (2006) falam da necessidade de se introduzir algumas suposições simplificadoras nos modelos utilizados para descrever séries temporais, conduzindo apenas à análise de determinadas classes de processo estocástico. Assim, pode-se ter:

1. Processos estacionários ou não estacionários, de acordo com a independência ou não relativamente à origem dos tempos;

2. Processos normais (Gaussianos) ou não normais, de acordo com as funções densidade de probabilidade (fdp) que caracterizam os processos;

3. Processos Markovianos ou não-Markovianos, de acordo com a independência dos valores do processo, em dado instante, de seus valores em instantes precedentes. Estas três classes de processos serão descritas a seguir, pois representam uma parte importante das análises que serão feitas no presente trabalho. O capítulo 3 apresentará conceitos mais específicos sobre séries temporais.

2.3.

Estacionariedade

Classifica-se um processo Z como sendo estacionário se ele se desenvolver no tempo independentemente da escolha de uma origem dos tempos. Portanto, as características de Z(t + a), para todo a, são as mesmas de Z(t).

Alguns exemplos ajudam a entender o conceito de estacionariedade. Morettin e Toloi (2006) exemplificam o conceito citando um avião em regime estável de voo horizontal. Segundo eles, qualquer medida de vibração deste avião constitui um processo estacionário.

Existem duas principais formas de estacionariedade: fraca (ou ampla, ou de segunda ordem) e estrita (ou forte). Para fins de desenvolvimento da referência bibliográfica utilizada na realização deste trabalho, interessa apenas a primeira classe de estacionariedade e esta será denominada apenas de processo estacionário.

Definição: Um processo estocástico Z = {Z(t), t ∈ T} diz-se estacionário de segunda ordem, ou simplesmente estacionário se, e somente se:

1. E (Z(t)) =  constante para todo t ∈ T; 2. Var (Z(t)) = σ2 = 0;

3. E {Z2(t)} < ∞, para todo t ∈ T;

4.  (t1, t2) = Cov(Z(t1), Z(t2)) é uma função de |t1 – t2|.

Com o objetivo de verificar e comprovar as propriedades estacionárias dos dados amostrais utilizados no presente trabalho serão realizados dois testes estatísticos. Porém, antes de demonstrá-los, é necessário introduzir alguns conceitos importantes que ajudarão a identificar a presença de comportamento estacionário em uma série temporal.

O primeiro conceito é conhecido como raiz unitária. Um processo estocástico apresenta uma raiz unitária se a mesma se encontra sobre o círculo unitário, ou seja, a equação característica do polinômio autorregressivo do processo tem o número um (1) como uma de suas raízes.

Segundo Morettin (2011), dado um processo estocástico autorregressivo e estacionário:

) (2.1)

onde RB é um ruído branco (ver a seção 2.6). Um processo tem raiz unitária se

(2.2)

No caso de comprovada a hipótese de presença de raiz unitária, o processo apresenta a característica de permanência dos efeitos de algum choque sofrido num instante passado. Quando os efeitos destes choques aleatórios não são transitórios, e a série não apresenta um comportamento estacionário.

Para comprovar a estacionariedade de uma série temporal, a literatura sugere a realização de dois diferentes testes estatísticos. Estes testes vão verificar a existência de raízes unitárias no processo estocástico.

O primeiro teste é conhecido como Teste de Dickey-Fuller, e foi sugerido por Dickey e Fuller em 1979, em um artigo intitulado “Distribution of the Estimators for Autoregressive Time Series with a Unit Root”. A partir de agora este teste será denotado por DF.

Para realização do teste, deve-se considerar o processo abaixo:

) (2.3)

Subtraindo , em (2.3), esta equação pode ser reescrita como:

(2.4)

com . O EQM (estimador de mínimos quadrados) será obtido por meio da regressãoo de sobre , que consiste em testar a seguinte hipótese:

a) H0: = 0 b) H1: < 0

Supondo um modelo autorregressivo estacionário com média zero para testar a hipótese acima, a seguinte estatística será utilizada:

(2.6) com:  ;  ) ;  ) .

onde é o estimador de na regressão e T é o número de observações.

A equação 2.6 pode então ser reescrita como:

) (2.7)

Ainda segundo Morettin (2011), as distribuições das estatísticas (2.6 ou 2.7) correspondentes são tabuladas. Um exemplo de valores críticos de para amostras com n = 100 e níveis de significância 0,01; 0,05 e 0,10 são dados, respectivamente, por 2,60; 1,95 e -1,61. Assim, rejeita-se H0 se for menor que o valor crítico apropriado.

Como em casos práticos é muito difícil encontrar um processo dependente apenas de , como suposto pelo teste DF, será utilizada, no presente trabalho, uma variação deste teste, conhecida como teste de Dickey e Fuller Aumentado (ADF), também explicitado em Morettin e Toloi (2006).

. )

. (2.8)

onde é RB ~ ).

A estatística para este teste é semelhante à do teste DF e pode ser escrita como:

) ) (2.9)

e a distribuição de é tabulada.

Logo, testar a hipótese que o polinômio autoregressivo do processo acima, (B), tem uma raiz unitária é equivalente a testar a hipótese que = 0. Ao longo do desenvolvimento deste trabalho será utilizado o software EViews 7.0 para a elaboração do teste ADF.

Tabela 2.1 - Representação do teste ADF

Null Hypothesis: SERIES01 has a unit root Exogenous: Constant

Lag Length: 0 (Automatic - based on SIC, maxlag=30)

t-Statistic Prob.* Augmented Dickey-Fuller test statistic -69.30814 0.0001 Test critical values: 1% level -3.431804

5% level -2.862068 10% level -2.567094 *MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation Dependent Variable: D(SERIES01) Method: Least Squares

Date: 10/04/13 Time: 00:00 Sample (adjusted): 2 3991

Included observations: 3990 after adjustments

Variable Coefficient Std. Error t-Statistic Prob. SERIES01(-1) -1.092374 0.015761 -69.30814 0.0000 C -9.32E-05 4.11E-05 -2.269102 0.0233 R-squared 0.546386 Mean dependent var -9.79E-07 Adjusted R-squared 0.546272 S.D. dependent var 0.003851 S.E. of regression 0.002594 Akaike info criterion -9.070583 Sum squared resid 0.026839 Schwarz criterion -9.067430 Log likelihood 18097.81 Hannan-Quinn criter. -9.069465

F-statistic 4803.618 Durbin-Watson stat 2.003333 Prob(F-statistic) 0.000000

A Tabela 2-1 ilustra a tela de saída do software com os resultados do teste ADF para uma série qualquer. Podem-se observar alguns pontos importantes:

1. A primeira parte dos resultados mostra os parâmetros, a hipótese nula (série temporal tem uma raiz unitária) e os valores críticos para os diferentes níveis de confiança;

2. No exemplo, a estatística do teste ADF tem valor -69,31 e o nível descritivo é 0,0001. Como a estatística é menor que os valores críticos para os níveis de confiança mostrados (1; 5 e 10%), rejeita-se a hipótese nula;

3. A segunda parte dos resultados refere-se ao modelo de regressão utilizado pelo software para calcular a estatística ADF.

O segundo teste apresentado neste trabalho é conhecido como teste Phillips-Perron (PP) e leva o nome de seus desenvolvedores, Peter C. B. Phillips e Pierre Perron. Embora este teste também servir para verificar se a série é estacionária ou não, ele difere do teste ADF, pois supõe que os erros sejam correlacionados e possivelmente heteroscedásticos.

Considere o modelo

(2.10)

em que a média deve satisfazer determinadas condições de regularidade, segundo Morettin (2011).

Este teste considera algumas estatísticas um pouco modificadas, para que as mesmas possam levar em conta a autocorrelação e heteroscedasticidade. A estatística do teste PP é dada por

(2.11) onde e são estimadores de

) (2.12) ) (2.13)

respectivamente, com os estimadores e calculados como

(2.14) ) ) (2.15)

sendo que ) é conhecido como estimador de Newey-West (1987) e é definido por

)

(2.16)

Segundo Morettin (2006), Phillips e Perron sugerem a utilização de

(2.17)

e a estatística segue a mesma distribuição limite que .

Tabela 2.2 - Representação do teste PP

Null Hypothesis: SERIES01 has a unit root Exogenous: Constant

Bandwidth: 17 (Newey-West automatic) using Bartlett kernel

Adj. t-Stat Prob.* Phillips-Perron test statistic -69.55866 0.0001 Test critical values: 1% level -3.431804

5% level -2.862068 10% level -2.567094 *MacKinnon (1996) one-sided p-values.

Residual variance (no correction) 6.73E-06 HAC corrected variance (Bartlett kernel) 6.30E-06

Phillips-Perron Test Equation Dependent Variable: D(SERIES01) Method: Least Squares

Date: 10/04/13 Time: 00:00 Sample (adjusted): 2 3991

Included observations: 3990 after adjustments

Variable Coefficient Std. Error t-Statistic Prob. SERIES01(-1) -1.092374 0.015761 -69.30814 0.0000 C -9.32E-05 4.11E-05 -2.269102 0.0233 R-squared 0.546386 Mean dependent var -9.79E-07 Adjusted R-squared 0.546272 S.D. dependent var 0.003851 S.E. of regression 0.002594 Akaike info criterion -9.070583 Sum squared resid 0.026839 Schwarz criterion -9.067430 Log likelihood 18097.81 Hannan-Quinn criter. -9.069465 F-statistic 4803.618 Durbin-Watson stat 2.003333 Prob(F-statistic) 0.000000

A Tabela 2.2 representa um exemplo da tela de resultados do software EViews 7.0 para o teste PP. É importante deixar claro aqui a semelhança entre os dois testes, apesar da estatística de teste ser alterada. Neste caso, pode-se rejeitar a hipótese nula de que a série tem raiz unitária já que a estatística PP calculada é menor que os valores críticos.

2.4.

Normalidade

A distribuição normal, também conhecida como Distribuição de Gauss ou Gaussiana é considerada uma das distribuições mais importantes em estatística. Sua função de densidade de probabilidade é descrita como:

)

e

∞ ∞ (2.18)

Os estimadores de µ e σ são, respectivamente, e , representados pelas equações (2.19) e (2.20): (2.19) ) (2.20)

Se a variável aleatória X segue uma distribuição normal, escreve-se da seguinte forma:

) (2.21)

Se a média do processo, µ, for igual a zero (0) e seu desvio padrão σ for igual a um (1), a distribuição é chamada de distribuição normal padrão. Sua função densidade de probabilidade reduz-se a:

)

)

(2.22)

Porém, qualquer distribuição ) pode ser transformada na distribuição padrão através da seguinte transformação, em z:

(2.23)

A Figura 2.1 é conhecida como curva de Gauss, para uma distribuição normal.

Um ponto importante aqui que deve ser mencionado e será posteriormente comprovado na sequência deste trabalho é o fato de que dificilmente será possível encontrar séries de preços no mercado financeiro que apresentam um comportamente igual a uma distribuição Gaussiana. Isso ocorre principalmente porque as séries de preços encontradas no mercado financeiro apresentam caudas mais pesadas, com uma ligeira assimetria positiva. Dado isso, se faz necessária a utilização de outros métodos e modelos mais sofisticados para descrever o comportamento destas séries.

De acordo com Morettin (2011), há vários dispositivos gráficos que ajudam a avaliar a forma de distribuição de uma série temporal e assim verificar sua normalidade. A maneira mais simples de se fazer isso é analisar um histograma.

Ainda segundo Morettin (2011), o histograma consiste em construir retângulos contíguos, a partir da divisão do espaço amostral em intervalos, geralmente com o mesmo comprimento, definido por

)

Figura 2.1 - Gráfico da função de distribuição de probabilidade de uma normal

Fonte: Disponível em http://www.portalaction.com.br/1410-simula%C3%A7%C3%A3o-do-modelo-normal-com-m%C3%A9dia-mu-e-desvio-padr%C3%A3o-sigma

Acesso em: 22 abr. 2013

onde é o centro do intervalo em que a observação faz parte e I{-h;h} é o indicador do intervalo [-h,h].

O autor cita o fato de haverem diversas críticas quanto ao uso apenas de histogramas para analisar a normalidade e o comportamento da série, já que o mesmo depende da escolha de h e da posição inicial da grade. A Figura 2.2 mostra um exemplo de histograma.

Outro recurso interessante para visualizar a normalidade das séries e que será utilizado no presente trabalho são os gráficos quantis-quantis, conhecidos como Q-Q Plots. Segundo Morettin (2011), este procedimento compara os quantis dos dados da amostra verificada com os quantis teóricos de uma distribuição normal, através da construção de um gráfico, onde se avalia a aderência visualmente.

A Figura 2.3 trata-se de um exemplo deste gráfico, onde é traçada uma reta correspondente à distribuição normal. Neste mesmo gráfico são plotados os pontos que representam a amostra que será avaliada. A relação linear entre os quantis teóricos e empíricos é diretamente proporcional à aderência dos pontos à reta-modelo.

Figura 2.2 - Histograma

Fonte: Elaborado pelo autor (2013)

Figura 2.3 - Exemplo de Q-Q Plot para uma distribuição que não adere à distribuição teórica (normal)

Fonte: Elaborado pelo autor (2013)

Um terceiro recurso utilizado neste trabalho para avaliar a normalidade de uma amostra de dados é conhecido como teste de Jarque e Bera (1981,1987). Para a realização deste último teste, parte-se do pressuposto que a série segue uma distribuição normal e que seu comportamento pode ser descrito por um modelo linear.

0 400 800 1,200 1,600 2,000 -0.02 -0.01 0.00 0.01 0.02 Series: SERIES01 Sample 1 3992 Observations 3991 Mean -8.43e-05 Median 0.000000 Maximum 0.022137 Minimum -0.023826 Std. Dev. 0.002606 Skewness -0.388352 Kurtosis 14.58090 Jarque-Bera 22402.90 Probability 0.000000 -.0100 -.0075 -.0050 -.0025 .0000 .0025 .0050 .0075 .0100 -.03 -.02 -.01 .00 .01 .02 .03 Quantiles of SERIES01 Q u a n ti le s o f N o rm a l

Neste caso, segundo Morettin (2011), todos os momentos ímpares da distribuição maiores do que dois (2) são nulos, e o coeficiente de assimetria A deve ser igual a zero. Por outro lado, a medida de curtose K (quarto momento) será igual a três (3).

O terceiro e quarto momentos da distribuição normal são os utilizados no presente trabalho, nomeados por Assimetria e Curtose e respectivamente dados por:

1. Assimetria (Skewness): 3 3

)

(

E Z

t

A

(2.25) 2. Curtose (Kurtosis): 4 4

)

(

E Z

t

K

(2.26)

Ao considerar uma amostra suficientemente grande de tamanho T, {Z1,..., ZT}, os estimadores de A e K são: (2.27) (2.28) onde (2.29) ) (2.30)

O Teste de Jarque e Bera, que tem um bom desempenho para grandes amostras, baseia-se nas diferenças entre assimetria e curtose da distribuição da série em relação à distribuição normal, dada por:

 

2 2 2 2 3 ˆ 4 1 6

      T Â K JB (2.31)

que segue uma distribuição Qui-quadrado com dois graus de liberdade.

Para testar a normalidade calculam-se as estimativas de A e K, para depois calcular JB por (2.31) e comparar o valor obtido com o valor tabelado de uma distribuição qui-quadrado com dois graus de liberdade, , com nível de significância apropriado.

2.5.

Independência

Uma das características principais de séries temporais financeiras é a não dependência linear entre seus dados. Isso implica, na prática, no fato de não ser possível prever preços ou retornos em instantes de tempo futuros baseando-se em dados passados, refletindo a teoria de um mercado eficiente.

Com o intuito de verificar essa dependência entre os dados em diferentes instantes de tempo, os testes de autocorrelação podem ser aplicados para verificar se os coeficientes de correlação são significativamente diferentes de zero, dado certo nível de significância.

Antes de especificar os testes, devem-se introduzir alguns conceitos importantes que ajudam a entender o funcionamento dos mesmos.

Definição: Autocovariância é a covariância entre duas variáveis da série defasadas por k intervalos de tempo, isto é:

) ) ) (2.32)

onde é a média ). Para uma amostra , ,..., , temos o estimador de :

) )

(2.33)

em que e é a variância.

)

) (2.34)

e o estimador é

(2.35)

e é a variância, dada por:

) (2.36)

sendo N o tamanho da amostra.

Para testar a hipótese conjunta de que todos os são simultaneamente iguais a zero pode-se usar a estatística Q desenvolvida por Box e Pierce (1970), definida por:

(2.37)

onde N é o tamanho da amostra e m a defasagem (ou lag) considerado. A estatística Q em grandes amostras segue uma distribuição qui-quadrado com m graus de liberdade.

Este teste foi posteriormente aperfeiçoado por Ljung e Box (1978) (LB). A estatística LB possui mais poder estatístico para pequenas amostras que a estatística Q e propõe testar a hipótese de que todos os coeficientes de autocorrelação sejam simultaneamente nulos sob um grau de significância estatística. A estatística dada por:

)

(2.38)

segue uma distribuição (qui-quadrado) com m graus de liberdade e a hipótese nula de independência é rejeitada para valores altos de LB.

Box, Jenkins e Reinsel (1994) propõem ainda a utilização das funções de autocorrelação parcial (f.a.c.p.), de defasagem k para analisar também a dependência dos elementos. Esta função é denotada e mede a correlação dependente entre dois elementos da série, Zt e Zt-k depois de eliminada a influência de Zt-1, ... , Zt-k+1.

Este teste, além dos correlogramas, serão executados com o auxílio do software EViews 7.0. Neste caso, o correlograma consiste na representação das f.a.c. e da f.a.c.p. da série temporal em questão e está representado na Figura 2.4.

A Figura 2.4 também mostra a aplicação do teste Box-Pierce-Ljung para cada uma das f.a.c., representando suas estatísticas (Q-Stat) e as probabilidades correspondentes à distribuição .

Figura 2.4 - Exemplo de correlograma com as f.a.c. e f.a.c.p., as estatísticas do teste de Box-Pierce-Ljung e os intervalos de confiança

Fonte: Elaborado pelo autor (2013)

Para Morettin (2011) é necessária a utilização de outro procedimento para avaliar a dependência dos dados. Segundo ele, podem-se comparar os valores das f.a.c. e f.a.c.p. da série com níveis críticos, definidos por , onde n é o número efetivo de observações. A hipótese nula de ausência de autorrelação e autocorrelação parcial é falsa se os valores

observados das f.a.c. e f.a.c.p. estiverem fora deste intervalo caracterizados pelos limites críticos.

2.6.

Ruído Branco

Neste item será apresentado um processo estocástico importante na literatura. Porém, antes de introduzí-lo, é necessário apresentar alguns outros conceitos, como o de sequência aleatória.

Morettin (2011) afirma que se {Xn, n =1, 2,...} é uma sequência aleatória definida no mesmo espaço amostral Ω com T = {1, 2,..}, pode-se escrever para todo n ≥ 1 que:

(2.39)

Na equação (2.39), os aj’s representam estados do processo e o espaço dos estados pode ser tomado como conjuntos dos reais. Ainda segundo o autor, se as variáveis aleatórias do processo tiverem a mesma distribuição e forem mutualmente independentes, elas serão definidas como independentes e identicamente distribuídas (i.i.d., brevemente).

Definição: Diz-se que { , t ∈ Z} é um ruído branco discreto se as variáveis aleatórias são não correlacionadas, isto é, Cov{ , } = 0, t ≠ s.

Além disso, tal processo deverá ser estacionário, com E{ } = μ e Var{ } = . Morettin (2011) define a notação para ruído branco como:

)

Que pode ser escrita de maneira um pouco diferente, quando a distribuição seguir uma distribuição normal. Neste caso, pode-se escrever:

Documentos relacionados