• Nenhum resultado encontrado

MODELOS ARFIMA E GRÁFICOS DE CONTROLE NO MONITORAMENTO DO SPREAD DE PREÇOS DE UMA AÇÃO E SUA RESPECTIVA ADR

N/A
N/A
Protected

Academic year: 2021

Share "MODELOS ARFIMA E GRÁFICOS DE CONTROLE NO MONITORAMENTO DO SPREAD DE PREÇOS DE UMA AÇÃO E SUA RESPECTIVA ADR"

Copied!
185
0
0

Texto

(1)

JOSÉ HENRIQUE DA MATA

MODELOS ARFIMA E GRÁFICOS DE CONTROLE NO

MONITORAMENTO DO SPREAD DE PREÇOS DE UMA AÇÃO E SUA

RESPECTIVA ADR

Trabalho de Formatura apresentado à Escola Politécnica da Universidade de São Paulo para obtenção do diploma de Engenheiro de Produção.

(2)
(3)

MODELOS ARFIMA E GRÁFICOS DE CONTROLE NO

MONITORAMENTO DO SPREAD DE PREÇOS DE UMA AÇÃO E SUA

RESPECTIVA ADR

Trabalho de Formatura apresentado à Escola Politécnica da Universidade de São Paulo para obtenção do diploma de Engenheiro de Produção.

Orientador: Profa. Linda Lee Ho

(4)

FICHA CATALOGRÁFICA

Mata, José Henrique da

Modelos ARFIMA e gráficos de controle no monitoramento do spread de preços de uma ação e sua respectiva ADR / J.H. da Mata. -- São Paulo, 2013.

171 p.

Trabalho de Formatura - Escola Politécnica da Universidade de São Paulo. Departamento de Engenharia de Produção.

(5)
(6)
(7)

Agradeço primeiramente a Professora Linda Lee Ho, por todo conhecimento, dedicação e orientação aplicados na realização deste trabalho de formatura. Suas cobranças e seus conselhos tiveram parte importante para que este pudesse se tornar um trabalho digno.

Devo agradecer também a todos os outros professores, tanto da Escola Politécnica da Universidade de São Paulo, quanto do Departamento de Engenharia de Produção, que contribuíram com cinco anos de estudos e conhecimentos adquiridos.

Aos meus pais, Luís e Geralda, por serem responsáveis por toda minha base como pessoa, mostrando sempre muita dedicação em me proporcionar possibilidades como a de cursar esta universidade.

Ao meu irmão João Luís, meus avós Nestor e Eliete e outros familiares, pelo apoio.

À minha namorada Catherina, por estar presente em minha vida durante todo este ano, sempre apoiando minhas decisões.

Aos meus companheiros de trabalho do Banco Itaú BBA, especialmente na área de Trading, responsáveis em parte por meu crescimento profissional e conhecimento do mercado financeiro.

Aos meus amigos Bruno, Gustavo, Victor, Fábio, Felipe, Sérgio, Fabrizio, Fernando e Leonardo pela companhia de mais de dez anos de amizade.

Por último, a todos meus amigos da Escola Politécnica, em especial ao Lucas, André e Luiz Henrique, pelas horas exaustivas de discussões sobre o mercado financeiro e momentos de descontração na universidade.

(8)
(9)
(10)
(11)

O objetivo deste trabalho é propor uma metodologia para monitorar o spread entre o preço de uma ação de uma empresa brasileira e sua respectiva ADR, quando esta é negociada fora do mercado brasileiro. O método consiste em duas partes: primeiro um modelo ARFIMA é ajustado à série formada pelo spread e em seguida o emprego de gráficos de controle é usado para detectar desvios na média do spread, a partir de um valor de referência. Os limites de controle dos gráficos de controle são determinados através de simulações que satisfazem um ARL0 fixado e os valores do ARL1 também são determinados através de simulações para vários níveis de desvio. Dois tipos de gráficos de controle são considerados: Shewhart e CUSUM. Assim como esperado o CUSUM é melhor para detectar pequenos desvios enquanto o Shewhart é melhor para desvios maiores.

(12)
(13)

The aim of this project is to propose a methodology to monitor the spread of a Brazilian company stock price and its respective ADR when it is traded out of Brazilian market. The method consists of two parts: first an ARFIMA model is fitted to the spread series and then employment of control charts are used to detect shifts of the average spread from a reference level. Th control limits of the control charts are determined by simulations such that satisfy an ARL0 fixed and values of ARL1 are also determined by simulations for various levels of shifts. Two types of control charts are considered: Shewhart and CUSUM. As expected the CUSUM is better to detect small shifts while the Shewhart is better for larger shifts.

(14)
(15)

Figura 2.2 - Histograma ... 34

Figura 2.3 - Exemplo de Q-Q Plot para uma distribuição que não adere à distribuição teórica (normal) ... 34

Figura 2.4 - Exemplo de correlograma com as f.a.c. e f.a.c.p., as estatísticas do teste de Box-Pierce-Ljung e os intervalos de confiança ... 38

Figura 4.1 - Diagrama de causa e efeito para o processo de formação do preço de um ativo financeiro ... 53

Figura 4.2 - Exemplo de Gráfico de Controle ... 55

Figura 5.1 - Gráfico de observações sucessivas EXCEL 2010 ... 71

Figura 5.2 - PBR vs. PETR3 ... 72

Figura 5.3 - Correlograma EViews 7.0... 77

Figura 5.4 - Gráfico da f.a.c. através do R ... 77

Figura 5.5 - Gráfico da f.a.c.p. através do R ... 78

Figura 5.6 - Histograma (EViews 7.0) ... 78

Figura 5.7 - Q-Q Plot da série (EViews 7.0) ... 79

Figura 5.8 - Estimaçãos dos parâmetros de um modelo ARFIMA (software R) ... 81

Figura 5.9 - Geração dos ruídos brancos (EXCEL 2010)... 82

Figura 5.10 - Gráfico dos resíduos da série modelada ... 83

Figura 5.11 - F.a.c. dos resíduos ... 83

Figura 5.12 - F.a.c.p. dos resíduos ... 84

Figura 5.13 - Série real vs. série estimada ... 84

Figura 5.14 - Fluxograma do algoritmo de simulação dos limites de controle do gráfico do tipo Shewhart ... 88

Figura 5.15 - Fluxograma do algoritmo de simulação dos limites de controle do gráfico CUSUM ... 89

Figura 5.16 - Limites de controle para o gráfico do tipo Shewhart ... 90

Figura 5.17 - Limites de Controle CUSUM para os respectivos valores de k ... 91

Figura 5.18 - Fluxograma do algoritmo de simulação do ARL fora de controle para o gráfico do tipo Shewhart ... 94

Figura 5.19 - Fluxograma do algoritmo de simulação do ARL fora de controle para o gráfico CUSUM ... 95

(16)
(17)
(18)
(19)

Tabela 2.2 - Representação do teste PP ... 30

Tabela 3.1 - Resumo do modelo Box-Jenkins (explicações podem ser verificadas no texto) . 44 Tabela 5.1 - Etapas da metodologia... 67

Tabela 5.2 - Resumo das séries de preços utilizadas ... 70

Tabela 5.3 - Exemplo do tratamento de dados ... 70

Tabela 5.4 - Resumo estatístico via EXCEL 2010 ... 72

Tabela 5.5 - Teste ADF ... 74

Tabela 5.6 - Teste PP ... 75

Tabela 5.7 - Resumo dos parâmetros estimados... 80

Tabela 5.8 - Limites de controle dos gráficos CUSUM para os respectivos valores de k ... 91

Tabela 5.9 – Valores dos deslocamentos na média dos preços ... 92

Tabela 5.10 - Valores do ARL1 para o corresponde valor de desvio na média (Gráficos Shewhart) ... 93

Tabela 5.11 - Valores do ARL1 para o corresponde valor de desvio na média (Gráficos CUSUM) ... 93

Tabela 5.12 - Comparação do ARL1 obtido para os gráficos CUSUM com k nas extremidades ... 97

(20)
(21)

ADR American Depositary Receipts VBA Visual Basic for Applications EViews Econometric Views

RB Ruído Branco DF Dickey Fuller

ADF Augmented Dickey Fuller PP Phillips-Perron

JB Jarque-Bera LB Ljung-Box

AR Modelo Autorregressivo MA Modelo de Médias Móveis

ARMA Modelo Autorregressivo e de Médias Móveis

ARFIMA Modelo Autorregressivo Fracionário Integrado de Médias Móveis CEP Controle Estatístico de Processo

LC Linha Central

LSC Limite Superior de Controle LIC Limite Inferior de Controle ARL Average Run Length

CMS Comprimento Médio de Sequência EWMA Exponentially Weighted Moving Average CUSUM Cumulative Sum

(22)
(23)
(24)
(25)
(26)
(27)
(28)
(29)

1. INTRODUÇÃO

Este trabalho de formatura foi desenvolvido em um grande banco de investimentos brasileiro, com o objetivo de analisar uma série temporal formada pelo preço de alguns ativos financeiros e assim desenvolver uma ferramenta de monitoramento on-line desta série. Para modelar esta série financeira utilizaram-se conceitos sobre séries temporais (descritos no capítulo 2 Revisão Bibliográfica).

A motivação para a realização deste trabalho surgiu da necessidade do banco em iniciar a gestão de uma carteira mais ampla de ações e suas respectivas ADRs (ver seção 1.2). É de grande importância para a instituição e mais especificadamente para a área em que o aluno estagia o monitoramento on-line desses ativos, dado que qualquer variação no preço deles pode significar uma possibilidade de realização de lucros.

Para realizar este estudo foram utilizados conceitos comuns em engenharia e finanças. A primeira área de conhecimento trata-se do estudo de séries temporais e modelos autorregressivos de previsão, importantes na modelagem da série de preços tratada aqui.

Já a segunda área de conhecimento é o Controle Estatístico de Processos, através da utilização de gráficos de controle para monitorar o comportamento destes ativos, possibilitando assim a detecção de períodos de anormalidade. Esta área de conhecimento foi amplamente desenvolvida durante todo o curso de Engenharia de Produção.

1.1.

A empresa

O trabalho de formatura foi realizado no Banco Itaú BBA S.A., onde o aluno realiza seu estágio supervisionado. O Itaú BBA é o banco de atacado do grupo Itaú Unibanco Banco Múltiplo, sendo resultado da fusão dos bancos BBA, cuja história será retratada a seguir, e das áreas “corporate” do Itaú e Unibanco.

(30)

características de atacado, por meio de um banco de investimento e uma distribuidora de valores.

Em 1991, o BBA-Creditanstalt já contava com 179 profissionais e era a única instituição financeira brasileira a coordenar o consórcio de bancos estrangeiros para investimentos no programa de privatização de empresas estatais.

Em 2002 o BBA-Creditanstalt foi adquirido pelo Banco Itaú. Além da mudança no corpo acionário – 95,75% das ações ficaram com o Banco Itaú e 4,25% com os executivos do BBA – a nova instituição ganhou o nome de Itaú BBA e se tornou um braço do Banco Itaú Holding Financeira. A instituição continuou especializada em grandes clientes, com áreas próprias de crédito, tesouraria, internacional e mercado de capitais, além de dispor dos serviços de um grande banco de varejo. No entanto, as áreas de financiamento de veículos, de administração de recursos de terceiros, a corretora e o private banking passaram para o Banco Itaú.

Em 2009, o banco passou por outra transformação importante. Foi neste ano em que o Banco Central do Brasil aprovou a fusão do Banco Itaú com o Unibanco, mudando substancialmente o ritmo da trajetória do Itaú BBA. Essa operação de associação do Banco Itaú com o Unibanco criou o maior banco do país e o principal grupo financeiro do Hemisfério Sul. Os ativos combinados somaram, naquela data, R$ 575 bilhões. O Itaú – Unibanco passou a integrar ainda a lista das 20 maiores instituições financeiras do mundo.

Hoje, as principais atividades realizadas pelo banco contemplam os negócios de Banco de Investimentos, Banco de Atacado e Tesouraria Institucional. O Itaú BBA atende grupos econômicos com faturamento anual superior a R$ 150 milhões e investidores institucionais. Seu amplo portfólio de produtos e serviços inclui investimentos em ativos, assessorias em fusões e aquisições, oferta de ações, securitização, derivativos, operações estruturadas, cash management, financiamentos e garantias, entre outros.

Dentro do Banco Itaú BBA, o aluno realizou o presente trabalho mais especificadamente na área onde estagia, a Tesouraria Institucional, sendo responsável por centralizar todas as operações de tesouraria do conglomerado (unidade de negócios geradora de receitas e uma prestadora de serviços para as áreas comerciais de atacado, varejo e mercado de capitais).

(31)

dentro da área de Trading, responsável pela gestão de risco e market making dos ativos com risco de ações, índices de ações e commodities (metais, energia e agrícolas).

1.2.

Caracterização do problema

Antes de caracterizar o problema que foi tratado neste trabalho de formatura, é importante apresentar dois conceitos fundamentais que possibilitam ao leitor um melhor entendimento do problema e conseqüente desenvolvimento da metodologia e soluções propostas. O primeiro conceito é a ADR (American Depositary Receipts), que é o título de uma empresa qualquer (a ação) negociada fora do seu mercado doméstico, mais precisamente no mercado norte-americano. O principal objetivo para que as empresas brasileiras emitam ADRs é a reação positiva que a mesma pode proporcionar no sentido de melhorar a qualidade e acesso à informação (disclosure), aumentar a confiança do investidor, reduzir a assimetria de informação e aumentar a liquidez.

O segundo conceito é a arbitragem, definida como sendo um processo envolvendo um negócio num mercado e uma transação compensatória em outro mercado ao mesmo tempo e em condições mais favoráveis. Basicamente o que se pode entender por arbitragem no mercado financeiro é encontrar dois ativos essencialmente iguais, comprar o mais barato e vender o mais caro, efetuando um retorno sem riscos.

Como dito anteriormente, o aluno realiza seu estágio supervisionado na mesa de operações de Equities e Commodities (renda variável) de um banco de investimentos brasileiro. O ponto focal do trabalho é a parte relacionada à gestão de risco de ações. Com o intuito de se fortalecer no mercado e aumentar sua carteira de ações consideravelmente, a área pretende monitorar o comportamento das ADRs e das ações de empresas brasileiras, encontrando possibilidades claras de arbitragem. Para isso, torna-se necessária a existência de métodos quantitativos e estatísticos para modelar e monitorar o preço dos dois ativos.

(32)

1.3.

Relevância

Muitas estratégias de investimento fazem parte do dia-a-dia de uma mesa de operações em grandes tesourarias. Diversificar a carteira, ao possuir uma variedade considerável de ativos e estratégias é um ponto importante na busca de uma relação ótima de risco e retorno.

A mesa de operações de Equities e Commodities do Banco Itaú BBA já possui uma grande variedade de estratégias de investimento, além de investir em uma gama de ativos financeiros. Porém, é de interesse de todos que esta carteira de ações se torne mais robusta, contando também com a presença das ADRs de empresas brasileiras, visando iniciar operações de arbitragem entre estes papéis e as respectivas ações de empresas brasileiras.

Diante deste cenário, o aluno identificou a necessidade de monitorar uma série formada pelos preços destas ações e suas respectivas ADRs, considerando também uma possível taxa de conversão entre moedas (ver seção 5). A elaboração desta ferramenta quantitativa torna possível a detecção on-line de pequenas ou grandes variações na média dos preços. Esse monitoramento tem uma importância fundamental nas rotinas da área onde o aluno estagia, já que a partir dele será possível detectar possibilidades de arbitragem com relativa antecedência, realizando um lucro considerável sem risco iminente.

1.4.

Objetivo

O principal objetivo deste trabalho de formatura é elaborar e colocar em prática uma metodologia que ajude a encontrar um modelo de previsão para esta relação entre os preços de uma ação de uma empresa brasileira e sua respectiva ADR listada na Bolsa de Valores de Nova Iorque, e assim fornecer insumos suficientes para a elaboração de gráficos de controle para monitorar estes valores e detectar da maneira mais rápida possível situações de arbitragem.

(33)

1.5.

Estruturação do trabalho

Nesta seção será apresentada a maneira como o trabalho está estruturado, com o objetivo de ajudar a entender desde o desenvolvimento da revisão bibliográfica até a aplicação da teoria em um caso real do mercado financeiro.

O trabalho está dividido em capítulos, resumidos abaixo:

 Capítulo 2 – Revisão Bibliográfica, que apresenta os principais referenciais teóricos necessários no desenvolvimento da metodologia e posterior aplicação a um caso real. Este capítulo contém desde conceitos básicos de estatística até estudos econométricos mais elaborados;

 Capítulo 3 – Modelos Paramétricos para Séries Temporais, em que são apresentados os diferentes modelos estudados para tratar as séries temporais financeiras. É neste capítulo onde foi introduzido o conceito de memória longa e seus modelos característicos;

 Capítulo 4 – Controle Estatístico de Processo, onde se definem os conhecimentos necessários sobre o assunto e mais detalhes sobre os Gráficos de Controle, que são uma ferramenta importante para o desenvolvimento deste trabalho, além de detalhar seus parâmetros, que foram utilizados para monitorar o processo;

 Capítulo 5 – Metodologia e Aplicação ao Caso Real, que contém a explicitação completa da metodologia proposta para solução do problema, com dados teóricos, além de sua aplicação ao caso real, de interesse do aluno e da instituição que ele estagia;

 Capítulo 6 – Conclusão, onde estão as principais conclusões feitas depois da aplicação da metodologia, além dos principais desafios encontrados durante a realização deste trabalho.

1.6.

Feeders de mercado e softwares estatísticos

(34)

no tratamento das séries, fornecendo estatísticas importantes sobre normalidade, independência e estacionariedade, além de auxiliar na determinação dos parâmetros ótimos de modelagem.

Os feeders e softwares utilizados no trabalho de formatura foram:

1.6.1. Bloomberg

O terminal da Bloomberg, presente hoje em todas as instituições financeiras do mundo, é a ferramenta mais utilizada pelos profissionais do mercado financeiro, tanto na obtenção de dados, quanto na realização dos negócios e acompanhamento de notícias em tempo real.

Foi através desta ferramenta que foi possível obter os dados das séries de preços das ações e suas respectivas ADRs, utilizados na aplicação da metodologia proposta neste trabalho.

1.6.2. Broadcast

O Broadcast é outro feeder de dados e notícias em tempo real utilizado no mercado financeiro brasileiro, desenvolvido pela Agência Estado. Ele também foi utilizado na obtenção de dados das séries que serviram como base histórica do presente trabalho.

1.6.3. Microsoft Excel 2010

O Excel 2010 foi utilizado no tratamento das séries temporiais, na realização dos gráficos e também das simulações. Foi a partir dele que as séries tiveram seu tratamento inicial, como a conversão de moedas do preço da ADR (ver seção 5.1).

Para a realização das simulações foram criados algoritmos através da plataforma VBA (Visual Basic for Applications), que esta integrada ao Excel.

1.6.4. EViews 7.0

(35)

1.6.5. Linguagem de programação e software estatístico R

Outro software estatístico utilizado neste trabalho foi o R, que é uma linguagem de programação e um ambiente para computação estatística e gráfica. Este software está disponível como um Free Software, sob os termos da Free Software Foundation's GNU General Public License na forma de código fonte.

(36)
(37)

2. REVISÃO BIBLIOGRÁFICA

2.1.

Introdução

O primeiro capítulo foi dedicado a apresentar ao leitor alguns conceitos e teorias relevantes para o entendimento da metodologia e sua aplicação a um caso real (descrito no capítulo 5). Neste capítulo serão introduzidos conceitos fundamentais no que se refere ao estudo de séries temporais, financeiras ou não, controle estatístico de processo, além de conceitos básicos de estatística e engenharia aplicada.

Estes conceitos ajudarão o leitor a entender a estrutura deste trabalho, assim como toda sua metodologia a fim de analisar e modelar um ou mais ativos financeiros, possibilitando um controle mais eficaz de monitoramento on-line dos mesmos.

2.2.

Séries Temporais

Segundo Morettin e Toloi (2006), uma série temporal é qualquer conjunto de observações ordenadas no tempo. Souza (1989) cita que uma classe de fenômenos cujo processo observacional e consequente quantificação numérica gera uma sequência de dados distribuídos no tempo é denominada série temporal.

Alguns exemplos clássicos de aplicações destas séries temporais, segundo Morettin e Toloi (2006), são:

1. Valores diários de poluição na cidade de São Paulo;

2. Valores mensais de temperatura na cidade de Cananéia-SP; 3. Índices diários da Bolsa de Valores de São Paulo;

4. Precipitação atmosférica anual na cidade de Fortaleza; 5. Número médio anual de manchas solares;

6. Registro de marés no porto de Santos.

(38)

intervalos de tempos iguais. Além disso, as séries podem ser analisadas sob dois enfoques diferentes.

No primeiro enfoque, a análise é feita no domínio temporal, resultando em modelos paramétricos (parâmetros finitos). O outro enfoque é analisar as séries temporais no domínio das freqüências, que tem como resultado modelos não paramétricos.

Ainda segundo Morettin e Toloi (2006), os principais objetivos da análise de séries temporais, sejam elas financeiras ou não, são:

1. Investigar o mecanismo gerador da série temporal;

2. Fazer previsões de valores futuros da série (no curto ou longo prazo);

3. Descrever apenas o comportamento da série, através da construção de gráficos, da verificação da existência de tendências, ciclos e variações sazonais, da construção de histogramas e de diagramas de dispersão;

4. Procurar periodicidades relevantes nos dados.

Independentemente do enfoque utilizado, são construídos modelos probabilísticos ou modelos estocásticos, que devem ser simples e parcimoniosos. Entende-se por processo estocástico aquele que é controlado por leis de probabilidade.

Segundo Morettin e Toloi (2006), um processo estocástico tem a seguinte definição: Seja T um conjunto arbitrário. Um processo estocástico é uma família Z = {Z(t), t ∈ T}, tal que, para cada t ∈ T, Z(t) é uma variável aleatória. Nestas condições, um processo estocástico é uma família de variáveis aleatórias (v.a.), que estão definidas em um mesmo espaço de probabilidades Ω. Normalmente, o conjunto T pode ser tomado como sendo um conjunto de números inteiros ou reais. Portanto, para cada t ∈ T e ω ∈ Ω, definimos X(t, ω).

Ainda segundo os mesmos autores, o conjunto dos valores de {X(t), t ∈ T} é chamado de espaço dos estados S, do processo estocástico e os valores de X(t) podem ser chamados de estados. Se o conjunto T for finito ou enumerável, como T = ℤ, o processo diz-se com parâmetro discreto. Se T for um intervalo de ℝ teremos um processo com parâmetro contínuo. Morettin e Toloi (2006) falam da necessidade de se introduzir algumas suposições simplificadoras nos modelos utilizados para descrever séries temporais, conduzindo apenas à análise de determinadas classes de processo estocástico. Assim, pode-se ter:

(39)

2. Processos normais (Gaussianos) ou não normais, de acordo com as funções densidade de probabilidade (fdp) que caracterizam os processos;

3. Processos Markovianos ou não-Markovianos, de acordo com a independência dos valores do processo, em dado instante, de seus valores em instantes precedentes. Estas três classes de processos serão descritas a seguir, pois representam uma parte importante das análises que serão feitas no presente trabalho. O capítulo 3 apresentará conceitos mais específicos sobre séries temporais.

2.3.

Estacionariedade

Classifica-se um processo Z como sendo estacionário se ele se desenvolver no tempo independentemente da escolha de uma origem dos tempos. Portanto, as características de Z(t + a), para todo a, são as mesmas de Z(t).

Alguns exemplos ajudam a entender o conceito de estacionariedade. Morettin e Toloi (2006) exemplificam o conceito citando um avião em regime estável de voo horizontal. Segundo eles, qualquer medida de vibração deste avião constitui um processo estacionário.

Existem duas principais formas de estacionariedade: fraca (ou ampla, ou de segunda ordem) e estrita (ou forte). Para fins de desenvolvimento da referência bibliográfica utilizada na realização deste trabalho, interessa apenas a primeira classe de estacionariedade e esta será denominada apenas de processo estacionário.

Definição: Um processo estocástico Z = {Z(t), t ∈ T} diz-se estacionário de segunda

ordem, ou simplesmente estacionário se, e somente se: 1. E (Z(t)) =  constante para todo t ∈ T; 2. Var (Z(t)) = σ2 = 0;

3. E {Z2(t)} < ∞, para todo t ∈ T;

4.  (t1, t2) = Cov(Z(t1), Z(t2)) é uma função de |t1 – t2|.

(40)

O primeiro conceito é conhecido como raiz unitária. Um processo estocástico apresenta uma raiz unitária se a mesma se encontra sobre o círculo unitário, ou seja, a equação característica do polinômio autorregressivo do processo tem o número um (1) como uma de suas raízes.

Segundo Morettin (2011), dado um processo estocástico autorregressivo e estacionário:

) (2.1)

onde RB é um ruído branco (ver a seção 2.6). Um processo tem raiz unitária se

(2.2)

No caso de comprovada a hipótese de presença de raiz unitária, o processo apresenta a característica de permanência dos efeitos de algum choque sofrido num instante passado. Quando os efeitos destes choques aleatórios não são transitórios, e a série não apresenta um comportamento estacionário.

Para comprovar a estacionariedade de uma série temporal, a literatura sugere a realização de dois diferentes testes estatísticos. Estes testes vão verificar a existência de raízes unitárias no processo estocástico.

O primeiro teste é conhecido como Teste de Dickey-Fuller, e foi sugerido por Dickey e Fuller em 1979, em um artigo intitulado “Distribution of the Estimators for Autoregressive Time Series with a Unit Root”. A partir de agora este teste será denotado por DF.

Para realização do teste, deve-se considerar o processo abaixo:

) (2.3)

Subtraindo , em (2.3), esta equação pode ser reescrita como:

(2.4)

(41)

com . O EQM (estimador de mínimos quadrados) será obtido por meio da regressãoo de sobre , que consiste em testar a seguinte hipótese:

a) H0: = 0 b) H1: < 0

Supondo um modelo autorregressivo estacionário com média zero para testar a hipótese acima, a seguinte estatística será utilizada:

(2.6) com:  ;  ) ;  ) .

onde é o estimador de na regressão e T é o número de observações.

A equação 2.6 pode então ser reescrita como:

) (2.7)

Ainda segundo Morettin (2011), as distribuições das estatísticas (2.6 ou 2.7) correspondentes são tabuladas. Um exemplo de valores críticos de para amostras com n = 100 e níveis de significância 0,01; 0,05 e 0,10 são dados, respectivamente, por 2,60; 1,95 e -1,61. Assim, rejeita-se H0 se for menor que o valor crítico apropriado.

Como em casos práticos é muito difícil encontrar um processo dependente apenas de , como suposto pelo teste DF, será utilizada, no presente trabalho, uma variação deste teste, conhecida como teste de Dickey e Fuller Aumentado (ADF), também explicitado em Morettin e Toloi (2006).

(42)

. )

. (2.8)

onde é RB ~ ).

A estatística para este teste é semelhante à do teste DF e pode ser escrita como:

) ) (2.9) e a distribuição de é tabulada.

Logo, testar a hipótese que o polinômio autoregressivo do processo acima, (B), tem uma raiz unitária é equivalente a testar a hipótese que = 0. Ao longo do desenvolvimento deste trabalho será utilizado o software EViews 7.0 para a elaboração do teste ADF.

Tabela 2.1 - Representação do teste ADF

Null Hypothesis: SERIES01 has a unit root Exogenous: Constant

Lag Length: 0 (Automatic - based on SIC, maxlag=30)

t-Statistic Prob.* Augmented Dickey-Fuller test statistic -69.30814 0.0001 Test critical values: 1% level -3.431804

5% level -2.862068 10% level -2.567094 *MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation Dependent Variable: D(SERIES01) Method: Least Squares

Date: 10/04/13 Time: 00:00 Sample (adjusted): 2 3991

Included observations: 3990 after adjustments

(43)

F-statistic 4803.618 Durbin-Watson stat 2.003333 Prob(F-statistic) 0.000000

A Tabela 2-1 ilustra a tela de saída do software com os resultados do teste ADF para uma série qualquer. Podem-se observar alguns pontos importantes:

1. A primeira parte dos resultados mostra os parâmetros, a hipótese nula (série temporal tem uma raiz unitária) e os valores críticos para os diferentes níveis de confiança;

2. No exemplo, a estatística do teste ADF tem valor -69,31 e o nível descritivo é 0,0001. Como a estatística é menor que os valores críticos para os níveis de confiança mostrados (1; 5 e 10%), rejeita-se a hipótese nula;

3. A segunda parte dos resultados refere-se ao modelo de regressão utilizado pelo software para calcular a estatística ADF.

O segundo teste apresentado neste trabalho é conhecido como teste Phillips-Perron (PP) e leva o nome de seus desenvolvedores, Peter C. B. Phillips e Pierre Perron. Embora este teste também servir para verificar se a série é estacionária ou não, ele difere do teste ADF, pois supõe que os erros sejam correlacionados e possivelmente heteroscedásticos.

Considere o modelo

(2.10)

em que a média deve satisfazer determinadas condições de regularidade, segundo Morettin (2011).

(44)

) (2.12) ) (2.13)

respectivamente, com os estimadores e calculados como

(2.14) ) ) (2.15)

sendo que ) é conhecido como estimador de Newey-West (1987) e é definido por

)

(2.16)

Segundo Morettin (2006), Phillips e Perron sugerem a utilização de

(2.17)

e a estatística segue a mesma distribuição limite que .

Tabela 2.2 - Representação do teste PP

Null Hypothesis: SERIES01 has a unit root Exogenous: Constant

Bandwidth: 17 (Newey-West automatic) using Bartlett kernel

Adj. t-Stat Prob.* Phillips-Perron test statistic -69.55866 0.0001 Test critical values: 1% level -3.431804

5% level -2.862068 10% level -2.567094 *MacKinnon (1996) one-sided p-values.

(45)

Phillips-Perron Test Equation Dependent Variable: D(SERIES01) Method: Least Squares

Date: 10/04/13 Time: 00:00 Sample (adjusted): 2 3991

Included observations: 3990 after adjustments

Variable Coefficient Std. Error t-Statistic Prob. SERIES01(-1) -1.092374 0.015761 -69.30814 0.0000 C -9.32E-05 4.11E-05 -2.269102 0.0233 R-squared 0.546386 Mean dependent var -9.79E-07 Adjusted R-squared 0.546272 S.D. dependent var 0.003851 S.E. of regression 0.002594 Akaike info criterion -9.070583 Sum squared resid 0.026839 Schwarz criterion -9.067430 Log likelihood 18097.81 Hannan-Quinn criter. -9.069465 F-statistic 4803.618 Durbin-Watson stat 2.003333 Prob(F-statistic) 0.000000

A Tabela 2.2 representa um exemplo da tela de resultados do software EViews 7.0 para o teste PP. É importante deixar claro aqui a semelhança entre os dois testes, apesar da estatística de teste ser alterada. Neste caso, pode-se rejeitar a hipótese nula de que a série tem raiz unitária já que a estatística PP calculada é menor que os valores críticos.

2.4.

Normalidade

A distribuição normal, também conhecida como Distribuição de Gauss ou Gaussiana é considerada uma das distribuições mais importantes em estatística. Sua função de densidade de probabilidade é descrita como:

)

e

∞ ∞ (2.18)

(46)

Se a variável aleatória X segue uma distribuição normal, escreve-se da seguinte forma:

) (2.21)

Se a média do processo, µ, for igual a zero (0) e seu desvio padrão σ for igual a um (1), a distribuição é chamada de distribuição normal padrão. Sua função densidade de probabilidade reduz-se a:

)

)

(2.22)

Porém, qualquer distribuição ) pode ser transformada na distribuição padrão através da seguinte transformação, em z:

(2.23)

A Figura 2.1 é conhecida como curva de Gauss, para uma distribuição normal.

Um ponto importante aqui que deve ser mencionado e será posteriormente comprovado na sequência deste trabalho é o fato de que dificilmente será possível encontrar séries de preços no mercado financeiro que apresentam um comportamente igual a uma distribuição Gaussiana. Isso ocorre principalmente porque as séries de preços encontradas no mercado financeiro apresentam caudas mais pesadas, com uma ligeira assimetria positiva. Dado isso, se faz necessária a utilização de outros métodos e modelos mais sofisticados para descrever o comportamento destas séries.

De acordo com Morettin (2011), há vários dispositivos gráficos que ajudam a avaliar a forma de distribuição de uma série temporal e assim verificar sua normalidade. A maneira mais simples de se fazer isso é analisar um histograma.

Ainda segundo Morettin (2011), o histograma consiste em construir retângulos contíguos, a partir da divisão do espaço amostral em intervalos, geralmente com o mesmo comprimento, definido por

)

(47)

Figura 2.1 - Gráfico da função de distribuição de probabilidade de uma normal

Fonte: Disponível em http://www.portalaction.com.br/1410-simula%C3%A7%C3%A3o-do-modelo-normal-com-m%C3%A9dia-mu-e-desvio-padr%C3%A3o-sigma

Acesso em: 22 abr. 2013

onde é o centro do intervalo em que a observação faz parte e I{-h;h} é o indicador do intervalo [-h,h].

O autor cita o fato de haverem diversas críticas quanto ao uso apenas de histogramas para analisar a normalidade e o comportamento da série, já que o mesmo depende da escolha de h e da posição inicial da grade. A Figura 2.2 mostra um exemplo de histograma.

Outro recurso interessante para visualizar a normalidade das séries e que será utilizado no presente trabalho são os gráficos quantis-quantis, conhecidos como Q-Q Plots. Segundo Morettin (2011), este procedimento compara os quantis dos dados da amostra verificada com os quantis teóricos de uma distribuição normal, através da construção de um gráfico, onde se avalia a aderência visualmente.

(48)

Figura 2.2 - Histograma

Fonte: Elaborado pelo autor (2013)

Figura 2.3 - Exemplo de Q-Q Plot para uma distribuição que não adere à distribuição teórica (normal)

Fonte: Elaborado pelo autor (2013)

Um terceiro recurso utilizado neste trabalho para avaliar a normalidade de uma amostra de dados é conhecido como teste de Jarque e Bera (1981,1987). Para a realização deste último teste, parte-se do pressuposto que a série segue uma distribuição normal e que seu comportamento pode ser descrito por um modelo linear.

(49)

Neste caso, segundo Morettin (2011), todos os momentos ímpares da distribuição maiores do que dois (2) são nulos, e o coeficiente de assimetria A deve ser igual a zero. Por outro lado, a medida de curtose K (quarto momento) será igual a três (3).

O terceiro e quarto momentos da distribuição normal são os utilizados no presente trabalho, nomeados por Assimetria e Curtose e respectivamente dados por:

1. Assimetria (Skewness): 3 3

)

(

E

Z

t

A

(2.25) 2. Curtose (Kurtosis): 4 4

)

(

E

Z

t

K

(2.26)

Ao considerar uma amostra suficientemente grande de tamanho T, {Z1,..., ZT}, os estimadores de A e K são: (2.27) (2.28) onde (2.29) ) (2.30)

(50)

 

2 2 2 2 3 ˆ 4 1 6 

     T Â K JB (2.31)

que segue uma distribuição Qui-quadrado com dois graus de liberdade.

Para testar a normalidade calculam-se as estimativas de A e K, para depois calcular JB por (2.31) e comparar o valor obtido com o valor tabelado de uma distribuição qui-quadrado com dois graus de liberdade, , com nível de significância apropriado.

2.5.

Independência

Uma das características principais de séries temporais financeiras é a não dependência linear entre seus dados. Isso implica, na prática, no fato de não ser possível prever preços ou retornos em instantes de tempo futuros baseando-se em dados passados, refletindo a teoria de um mercado eficiente.

Com o intuito de verificar essa dependência entre os dados em diferentes instantes de tempo, os testes de autocorrelação podem ser aplicados para verificar se os coeficientes de correlação são significativamente diferentes de zero, dado certo nível de significância.

Antes de especificar os testes, devem-se introduzir alguns conceitos importantes que ajudam a entender o funcionamento dos mesmos.

Definição: Autocovariância é a covariância entre duas variáveis da série defasadas por k intervalos de tempo, isto é:

) ) ) (2.32)

onde é a média ). Para uma amostra , ,..., , temos o estimador de :

) )

(2.33)

em que e é a variância.

(51)

)

) (2.34)

e o estimador é

(2.35)

e é a variância, dada por:

) (2.36)

sendo N o tamanho da amostra.

Para testar a hipótese conjunta de que todos os são simultaneamente iguais a zero pode-se usar a estatística Q desenvolvida por Box e Pierce (1970), definida por:

(2.37)

onde N é o tamanho da amostra e m a defasagem (ou lag) considerado. A estatística Q em grandes amostras segue uma distribuição qui-quadrado com m graus de liberdade.

Este teste foi posteriormente aperfeiçoado por Ljung e Box (1978) (LB). A estatística LB possui mais poder estatístico para pequenas amostras que a estatística Q e propõe testar a hipótese de que todos os coeficientes de autocorrelação sejam simultaneamente nulos sob um grau de significância estatística. A estatística dada por:

)

(2.38)

segue uma distribuição (qui-quadrado) com m graus de liberdade e a hipótese nula de independência é rejeitada para valores altos de LB.

(52)

Este teste, além dos correlogramas, serão executados com o auxílio do software EViews 7.0. Neste caso, o correlograma consiste na representação das f.a.c. e da f.a.c.p. da série temporal em questão e está representado na Figura 2.4.

A Figura 2.4 também mostra a aplicação do teste Box-Pierce-Ljung para cada uma das f.a.c., representando suas estatísticas (Q-Stat) e as probabilidades correspondentes à distribuição .

Figura 2.4 - Exemplo de correlograma com as f.a.c. e f.a.c.p., as estatísticas do teste de Box-Pierce-Ljung e os intervalos de confiança

Fonte: Elaborado pelo autor (2013)

(53)

observados das f.a.c. e f.a.c.p. estiverem fora deste intervalo caracterizados pelos limites críticos.

2.6.

Ruído Branco

Neste item será apresentado um processo estocástico importante na literatura. Porém, antes de introduzí-lo, é necessário apresentar alguns outros conceitos, como o de sequência aleatória.

Morettin (2011) afirma que se {Xn, n =1, 2,...} é uma sequência aleatória definida no mesmo espaço amostral Ω com T = {1, 2,..}, pode-se escrever para todo n ≥ 1 que:

(2.39)

Na equação (2.39), os aj’s representam estados do processo e o espaço dos estados pode ser tomado como conjuntos dos reais. Ainda segundo o autor, se as variáveis aleatórias do processo tiverem a mesma distribuição e forem mutualmente independentes, elas serão definidas como independentes e identicamente distribuídas (i.i.d., brevemente).

Definição: Diz-se que { , t ∈ Z} é um ruído branco discreto se as variáveis aleatórias

são não correlacionadas, isto é, Cov{ , } = 0, t ≠ s.

Além disso, tal processo deverá ser estacionário, com E{ } = μ e Var{ } = . Morettin (2011) define a notação para ruído branco como:

)

Que pode ser escrita de maneira um pouco diferente, quando a distribuição seguir uma distribuição normal. Neste caso, pode-se escrever:

(54)
(55)

3. MODELOS PARAMÉTRICOS PARA SÉRIES TEMPORAIS

Neste capítulo serão descritos os principais modelos de séries de tempo, bem como suas principais características, através de uma metodologia consagrada desenvolvida por Box e Jenkins (1970). Morettin (2011) sugere a utilização desta metodologia para a construção de um modelo paramétrico, a partir de um ciclo iterativo, cujos passos estão descritos a seguir:

1. Primeiro deve-se especificar uma classe geral de modelos. A partir desta classe, é possível iniciar a fase de análise;

2. Na análise há a identificação de algum modelo base, através de suas autocorrelações e autocorrelações parciais (pode-se também utilizar outros critérios);

3. Após identificar o modelo, devem-se estimar seus parâmetros;

4. Por último, há uma fase de verificação e diagnósticos dos parâmetros estimados, através da análise de resíduos.

A metodologia de Box e Jenkins considera a série temporal como sendo oriunda de uma realização de um processo estocástico. A identificação dos modelos e parâmetros baseia-se nas informações contidas na série, tratando o modelo com o menor número de parâmetros possível (parcimônia). Como dito anteriormente, esta estratégia de identificação envolve a repetição das etapas 1 a 4 diversas vezes, até encontrar o modelo que seja mais satisfatório.

3.1.

Modelos Lineares

Os modelos lineares, que serão descritos nesta parte do presente trabalho, partem do pressuposto que a série de dados seja gerada através de um sistema linear, cuja entrada é um ruído branco. Também serão descritas nesta seção as funções de autocorrelação e autocorrelação parcial, parte importante no processo de identificação, além das equações genéricas de especificação dos modelos.

Através dos modelos de Box-Jenkins, será possível ter uma visão inicial dos principais modelos lineares, para posterior compreensão de uma análise mais aprofundada sobre cada um.

(56)

t q t

p BZBa

 ( )  ( ) (3.1)

onde B é o operador lag, ф e Ө são polinômios de graus p e q, respectivamente e a é um t ruído branco RB (0, ).

Cabe aqui definir primeiramente o conceito do operador lag B, dado que esta notação é comum na literatura. É usual trabalhar com operadores que defasam a variável em séries temporais.

Um operador lag B como um operador linear é definido como:

i t t i Z Z B   (3.2)

As seguintes propriedades são válidas para o operador B: 1. O lag de uma constante é a própria constante ;

2. O operador lag segue a propriedade distributiva em relação à soma ;

3. É válida a propriedade associativa da multiplicação ;

4. Potências negativas de B significam um operador de avanço, fazendo . Então,

; 5. Se a soma infinita ) ; 6. Se a soma infinita ) ) )

. A partir de (3.1), tem-se mais apropriadamente:

p p p B  B B   B  ( ) 1 1 2 2 ... (3.3) q q q B   B B   B  ( ) 1 1 2 2 ... (3.4)

(57)

t t B a Z B) ( ) ( 3 2   t t B B B a Z B B ) (1 ) 1 ( 1 2 2  1 2 2 3 3 3 3 2 2 1 1 2 2 1 1            t t t t t t t Z Z a a a a Z      t t t t t t t Z Z a a a a Z 1 12 21 12 23 3

No caso em que q(B) 1 se tem o modelo ARMA(p,0) ou melhor AR(p). Da mesma forma, para o caso em que p(B) 1 se tem o modelo ARMA(0,q) ou simplesmente MA(q).

A condição de estacionariedade de um modelo AR(p) deve ser tal que as raízes do polinômio p(B)0 devem estar fora do círculo unitário. Para os modelos MA(q) a estacionariedade é trivial, já que não há restrições sobre os parâmetros do modelo para que o processo seja estacionário. Para um modelo ARMA(p,q) as condições de estacionariedade são aquelas de um modelo AR(p).

Como p(B) é finito, não há restrições sobre os parâmetros para assegurar a invertibilidade de , tornando esta condição igualmente trivial. Para um modelo MA(q) a inversibilidade ocorre sempre que as raízes do polinômio q(B) 0 estiverem fora do círculo unitário. Já um modelo ARMA(p,q) tem a inversibilidade sob as mesmas condições de um MA(q).

Um resumo deste comportamento dos modelos com relação à estacionariedade e inversibilidade está na Tabela 3.1.

Os modelos autorregressivos (AR), de médias móveis (MA) e o ARMA, que possuí termos autorregressivos e de médias móveis estão detalhados nas seções 3.1.1, 3.1.2, 3.1.3, respectivamente.

3.1.1. Modelos autorregressivos (AR)

(58)

t p t p t t t Z Z Z a Z 11 22    (3.5) onde a é um ruído branco; t

Tabela 3.1 - Resumo do modelo Box-Jenkins (explicações podem ser verificadas no texto)

Modelo Condições

AR

t t p BZa

 ( ) p(B)0 raízes fora do círculo unitário  estacionário e trivialmente inversível.

MA

t q

t B a

Z  ( ) q(B)0 raízes fora do círculo unitário  inversível e trivialmente estacionário. ARMA t q t p BZ  Ba

 ( ) ( ) p(B)...raízes fora do círculo unitário  estacionário. )...

(B

q

 raízes fora do círculo unitário  inversível.

Definindo o operador autorregressivo estacionário de ordem p

p pB B B B      ( ) 1 1 2 2 ... (3.6) pode-se escrever t t a Z B   ( ) (3.7)

Através de uma combinação linear dos p valores passados da série e de um ruído branco é possível chegar ao valor atual da série. Algumas características importantes deste modelo serão relacionadas abaixo:

1. A função de autocorrelação de um processo autorregressivo é constituída de uma mistura de polinômios, exponenciais e senóides amortecidas e é infinita em extensão;

(59)

Dado que o operador p pB

B B

B   

( ) ( )1 1  é finito, não há restrições sobre parâmetros para assegurar a inversibilidade de Zt. Com isso é possível assegurar de maneira trivial que o modelo é inversível. Quanto a estacionariedade, a condição será válida se (B)0 tiver raízes fora do círculo unitário.

3.1.2. Modelo de médias móveis (MA)

Segundo Morettin e Toloi (2006), um modelo de médias móveis de ordem q, definido por MA(q) é tal que, para um processo de média nula:

q t q t t t a a a Z 1 12 2   (3.8)

onde a é um ruído branco; t

Logo, para este modelo, o valor atual da série é uma média ponderada dele próprio mais os q últimos valores de um processo ruído branco.

Considerando o operador (B)11BqBq, não há restrições sobre os parâmetros jpara que o processo seja estacionário. E utilizando um argumento parecido com o caso anterior para explicar a existência de estacionariedade para os modelos AR(p), é possível verificar que se as raízes de equação característica (B)0 estiverem fora do círculo unitário, o modelo será inversível.

Outras características relevantes são:

1. A função de autocorrelação de um processo MA(q) se anula para defasagens maiores do que q, sendo, portanto, finita;

2. A função de autocorrelação parcial se comporta por exponenciais e/ou senóides amortecidas (veja Box, Jenkins e Reinsel, 1994).

3.1.3. Modelos autorregressivos e de médias móveis (ARMA)

(60)

Eles sugerem ainda que, com o objetivo de criar um modelo parcimonioso, com o menor número possível de parâmetros, é comum encontrar na prática muitas séries que possuem termos tanto autorregressivos quanto de médias móveis.

Portanto, um modelo deste tipo, denotado por ARMA(p, q) pode ser escrito da forma

t q t q t t p t p t t t Z Z Z a a a a Z 1 1 2  2   1 1 2  2    (3.9) Considerando (B)e (B) como sendo os operadores autorregressivos e de médias móveis, pode-se escrever (3.3) na forma compacta:

t t B a Z B)  ( ) (   (3.10)

Segundo os autores, o processo será estacionário se as raízes de (B)0 estiverem fora do círculo unitário (para melhores explicações ver seção 2.1) e invertível se todas as raízes de (B)0 estiverem fora do círculo unitário. A condição de estacionariedade para o processo ARMA(p, q) é a mesma que para um processo AR(1) e a condição de invertibilidade é a mesma que para um processo MA(1).

Outras características relevantes são:

1. Se q < p então a função de autocorrelação consiste numa mistura de exponenciais e/ou senóides amortecidas;

2. Se , os primeiro os não seguirão este padrão e;

3. A função de autocorrelação parcial, por sua vez, se comporta por exponenciais e/ou senóides amortecidas (veja Box, Jenkins e Reinsel, 1994).

3.2.

Processos com Memória Longa

Os processos caracterizados na seção 3.1., como por exemplo, o ARMA(p, q), são referenciados na literatura como processos de “memória curta”, uma vez que sua função de aucorrelação decresce rapidamente para zero. Morettin e Toloi (2006) demonstram que:

(61)

A expressão (3.11) garante que a função de autocorrelação é geometricamente limitada. Define-se então um processo de memória longa como sendo um processo estacionário em que sua função de autocorrelação decresce hiperbolicamente (suavemente) para zero.

Ainda segundo os mesmos autores, isto pode ser definido como:

    j Cj d j , 1 2  (3.12) onde C > 0 e 0 < d < 0,5.

As primeiras evidências da existência deste tipo de processo aconteceram na década de 50, ligadas a estudos nos setores de Climatologia e Hidrologia, principalmente. As séries apresentaram persistência nas autocorrelações amostrais, mostrando uma significativa dependência entre observações separadas por um longo intervalo de tempo.

O fenômeno de memória longa (ML) foi notado por Hurst (1951, 1957), Mandelbrot e Wallis (1968) e McLeod e Hipel (1978). Uma aplicação recente e importante deste tipo de processo são os estudos na área de climatologia, principalmente na explicação de tendências crescentes em temperaturas globais devido ao efeito estufa (ver Seater, 1993).

Dadas as características deste processo de memória longa, foram definidos dois modelos importantes, nos quais a função densidade espectral é proporcional a r,1r 2, para próximo de zero e o decaimento da função de autocorrelação segue a equação (3.11).

Mandelbrot e Van Ness (1968) introduziram primeiro o ruído gaussiano fracionário. Mais tarde, Granger e Joyeux (1980) e Hosking (1981) introduziram o modelo ARIMA fracionário, conhecido como ARFIMA.

3.2.1. Modelo ARFIMA

Morettin e Toloi (2006) descrevem primeiramente o operador de diferença fracionária como sendo, para qualquer número real d > -1:

                  

  3 2 ) 2 )( 1 ( ! 3 1 ) 1 ( ! 2 1 1 ) ( ) 1 ( B dB d d B d d d B k d B k o k d (3.13)

(62)

t t d a B Z B B)(1 ) ( ) (     (3.14)

onde at é ruído branco, ) e ) são polinômios B de graus p e q, respectivamente.

Segundo estes autores, existem algumas razões especificas para a escolha desta família de processos, no que se refere à modelagem de séries com comportamento de memória longa. A principal delas é que o efeito do parâmetro d nas observações decai hiperbolicamente conforme a distância aumenta, enquanto os efeitos dos parâmetros e decaem exponencialmente.

Por isso, o parâmetro d deve ser escolhido com o objetivo de tentar explicar a estrutura de correlação de ordens altas da série enquanto os outros parâmetros explicam a estrutura de correlação de ordens baixas.

Hosking (1981) demonstra que o processo ARFIMA(p, d, q), dado pela equação (3.14) é:

1. Estacionário se d < e todas as raízes de ) estiverem fora do círculo unitário;

2. Invertível se d > e todas as raízes de ) estiverem fora do círculo unitário.

As funções de autocorrelação e de densidade espectral também são demonstradas por Hosking (1981), tal que, se Zt, dado pela equação (3.14), for estacionário e invertível, então:

1. ) existe e é finito; 2. existe e é finito.

O caso mais simples é o ruído branco fracionário, representado por ARFIMA(0, d, 0), dado por: d t t a Z B   ) 1 ( (3.15)

(63)
(64)
(65)

4. CONTROLE ESTATÍSTICO DE PROCESSO (CEP)

4.1.

Introdução

O controle estatístico de processo, conhecido simplesmente pela sigla CEP, é um conjunto de ferramentas estatísticas utilizado em diversas áreas da engenharia, responsável principalmente por monitorar e melhorar a qualidade de um processo. Cabe aqui ressaltar alguns conceitos básicos iniciais, necessários para o melhor entendimento desta ferramenta. Portanto, serão definidos os conceitos de processo, variabilidade do processo e controle.

Processo: pode ser definido como um conjunto de atividades, que serão executadas

em sequência, até atingir um determinado objetivo. Pode ser definido também como sendo um conjunto de causas responsáveis por gerar efeitos.

Variabilidade do processo: a variabilidade está presente em qualquer processo, seja

ele produtivo ou não, independente de quão bem ele seja projetado e operado. Duas unidades produzidas pelo mesmo processo dificilmente serão idênticas, dada variabilidade do mesmo. Essa variabilidade pode ser grande ou praticamente imperceptível. Por isso, é importante reduzir a variabilidade em um processo para realizar um bom gerenciamento.

As causas desta variabilidade são divididas em dois principais grupos, as causas comuns e as causas especiais. As primeiras são causas inerentes a qualquer tipo de processo (variabilidade natural). Já as causas especiais são aquelas responsáveis pelas anormalidades no processo e necessitam de maior atenção e capacidade de gerenciamento e detecção rápida.

Controle: monitorar uma determinada estatística com o intuito de observar qualquer

causa de variabilidade especial e assim auxiliar na sua prevenção e posterior correção.

Neste trabalho, a série que será tratada e posteriormente monitorada é uma série temporal financeira. Portanto, embora estes conceitos previamente explicitados estejam mais atrelados a um clássico processo produtivo, os mesmos podem ser relacionados com este tipo de “processo”.

(66)

o preço dos ativos. Este preço pode ser influenciado e até formado por uma série se fatores mercadológicos, parcialmente listados a seguir:

1. Decisões legislativas: alteração nas regras que regem o mercado que, no caso real analisado neste trabalho, podem ser responsáveis por determinar outro patamar para a série formada pela diferença de dois ativos financeiros que representam a mesma coisa. Estas mudanças nas leis podem deixar mais caro ou mais barato a conversão de um papel no outro, alterando o patamar do spread;

2. Mudanças nas empresas: ao analisarmos as ações de uma empresa real, qualquer alteração na sua estrutura de governança ou na composição de seu conselho administrativo pode provocar alterações significativas nos preços dos ativos; 3. Decisões políticas: estas decisões macroeconômicas podem ser responsáveis por

alterar os patamares de valor entre moedas, além de também representarem uma possibilidade de mudança no preço de ações de empresas ligadas ao governo do país;

4. Notícias: qualquer fato relevante noticiado pelas principais agências de notícias do mundo é responsável também por influenciar na formação final do preço de um ativo financeiro.

Portanto, estes fatores listados aqui podem ser responsáveis por alterar determinadas características estatísticas do produto final, que neste caso é o preço do ativo. Estes fatores podem fazer com que a média e a varãncia do processo se alterem e mudem de patamar.

Pode-se então representar o processo de formação de um ativo financeiro através de um diagrama de causa e efeito, ilustrado na Figura 4.1.

4.2.

CEP

Segundo Montgomery (2004), o controle estatístico de processo (CEP) pode ser feito através de uma coleção de ferramentas de resolução de problemas, sendo útil na obtenção da estabilidade do processo e na melhoria da capacidade através da redução da variabilidade.

(67)

Figura 4.1 - Diagrama de causa e efeito para o processo de formação do preço de um ativo financeiro

Fonte: Elaborado pelo autor (2013)

1. Apresentação em histogramas ou ramo-e-folhas; 2. Folha de Controle;

3. Gráfico de Pareto;

4. Diagrama de causa-e-efeito;

5. Diagrama de concentração de defeito; 6. Diagrama de dispersão;

7. Gráfico de controle.

Independentemente de um processo ser bem planejado e mantido pelos seus agentes, é inerente que exista certa quantidade de variabilidade. Essa variabilidade natural é efeito de causas inevitáveis durante a existência do processo. Quando um processo apresenta somente este tipo de variabilidade, ou seja, opera com causas aleatórias de variação, diz-se que o mesmo está sob controle estatístico.

(68)

Montgomery (2004) fala que, em geral, os processos de produção operarão em estado sob controle, produzindo itens aceitáveis por períodos de tempo relativamente longos. No entanto, causas atribuíveis ocorrerão eventualmente, resultando em um “deslocamento” para um estado de fora de controle.

Ainda segundo o mesmo autor, o principal objetivo do controle estatístico de processo é detectar rapidamente a ocorrência de causas atribuíveis das mudanças do processo, de modo que a investigação do processo e a ação corretiva possam ser realizadas antes que o processo fora de controle possa causar grandes perdas financeiras.

Com o intuito de analisar um processo financeiro, mais precisamente uma relação entre preços de dois ativos correlacionados, o presente trabalho irá propor a utilização de Gráficos de Controle como principal ferramenta de controle estatístico de processo, de modo que qualquer variação desta relação entre preços e ativos possa ser detectada o mais rápido possível, através de um monitoramento on-line do processo. Detalhes sobre os Gráficos de Controle serão colocados na seção 4.3.

4.3.

Gráficos de Controle

Como apresentado anteriormente, o gráfico de controle é uma ferramenta estatística que permite realizar um monitoramento on-line de determinado processo, principalmente no quer se refere à sua estabilidade e controle de qualidade. Ele é uma representação gráfica de uma característica de qualidade ou estatística medida ou calculada (eixo das ordenadas) pelo número da amostra ou o tempo (eixo das abscissas).

A Figura 4.2 representa um exemplo de Gráfico de Controle de Shewhart, desenvolvido pelo Dr. Walter A. Shewhart, durante os anos 20.

(69)

Figura 4.2 - Exemplo de Gráfico de Controle

Fonte: Disponível em http://www.edti.com.br/causas-de-variaca/ Acesso em: 28 jul. 2013

Um gráfico de controle típico é constituído por três principais linhas:

1. Linha Central (LC): representa o valor médio esperado da estatística em monitoramento. Quando os valores da estatística monitorada encontram-se próximos da linha central, significa que ele está sob controle e apenas causas aleatórias estão presentes;

2. Limite Inferior de Controle (LIC): representa o valor mínimo aceitável para a estatística em monitoramento. Para valores da estatística monitorada abaixo deste nível é dito que o processo não está sob controle estatístico;

3. Limite Superior de Controle (LSC): representa o valor máximo aceitável para a estatística em monitoramento. Acima deste nível também é dito que o processo não está sob controle estatístico.

Referências

Documentos relacionados

As relações hídricas das cultivares de amendoim foram significativamente influenciadas pela a deficiência hídrica, reduzindo o potencial hídrico foliar e o conteúdo relativo de

29 Table 3 – Ability of the Berg Balance Scale (BBS), Balance Evaluation Systems Test (BESTest), Mini-BESTest and Brief-BESTest 586. to identify fall

Não obstante estas abordagens distintas à problemática do consumo, ambas as correntes teóricas partem de um argumento principal e fundamental: a consideração que o consumo

Dada a maior probabilidade de ocorrência de erros na dispensa com este tipo de receitas, existem pontos que exigem a atenção do farmacêutico, como a especificação clara do utente,

A prescrição pode fazer-se em modo online (como acontece nas receitas desmaterializadas) ou em modo offline. Neste último caso o software regista a informação da

After this matching phase, the displacements field between the two contours is simulated using the dynamic equilibrium equation that bal- ances the internal

[r]

Técnicas de Esboço, Modelação 2D e 3D foram fundamentais na realização do estágio assim como noções de Ergonomia, noções de Projeto de Ambientes e