• Nenhum resultado encontrado

Estudos empíricos brasileiros com razões de hedge dinâmi- dinâmi-cas

tura internacional

2.2 O empirismo brasileiro sobre efetividade e razão

2.2.3 Estudos empíricos brasileiros com razões de hedge dinâmi- dinâmi-cas

Acredita-se que o primeiro estudo sobre hedge condicional e dependente no tempo, executado com ativo brasileiro, foi realizado por Guillén (1996). Comparou as técnicas de estimação da razão ótima de hedge por mínimos quadrados ordinários, com e sem termo de correção de erro, e Correlação Condicional Constante de Bollerslev (1990), acrescido do termo de correção de erro, assim como Kroner e Sultan (1993).

Dividiu o período de análise dentro da amostra em: antes do Plano Real, entre 13/07/90 e 10/04/95, e a partir da sua implantação, entre 09/06/94 e 14/12/95. No intuito de simulação, também observou dados fora da amostra, entre 03/11/94 e 14/12/95. Suas estimativas partiram dos preços diários de fechamento do IBOVESPA à vista e ajuste do mercado futuro, vencimento mais próximo, ambos em logaritmo e deflacionados com o IGP-DI centrado em dias corridos. Uma semana antes do vencimento mudou para o contrato seguinte. Segundo o autor, tentou-se evitar flutuações bruscas que ocorrem próximo aos vencimentos. Como o estudo tratou sobre índice de ações, os efeitos sobre os dividendos foram considerados. Descontou-se 2% do preço à vista na quarta-feira mais próxima do dia 25 do mês de maio de cada ano.

Os testes de diagnóstico nas séries apresentaram não normalidade, autocorrelação serial, estacionariedade na primeira diferença, por meio dos testes de Dickey e Fuller (1979, 1981), existência de cointegração, bem como efeitos ARCH, verificados por Multiplicador de Lagrange. Vale salientar a distribuição assumida na modelagem como normal bivariada, mesmo as séries não a indicando na estatística descritiva.

No período antes do Plano Real, o hedge condicional obteve redução da variância amostral. Entretanto, o contrário ocorreu após o plano. Para Guillén (1996), uma das razões deve ser creditada à pouca volatilidade dos preços após o referido plano econômico. A comparação efetuada fora da amostra indicou uma melhora do hedge condicional, mas não superior aos convencionais, estimados por mínimos quadrados ordinários, com e sem termo de correção de erro.

Bueno e Alves (2001) iniciam o estudo da efetividade do hedge cambial no Brasil de forma dinâmica. A metodologia GARCH multivariada escolhida foi a vech, assim como Baillie e Myers (1991). Além desta, como usual na literatura, mantêm as estimativas estáticas, através de MQO e ingênua para comparação. Entretanto, examinam-nas para o período fora da amostra, portanto as estimativas estáticas passam a variar, uma vez que

as razões de hedge são previstas com um passo à frente. A análise partiu de dados para o câmbio à vista, ptax, e futuro, valor do ajuste diário dos contratos mais próximos do vencimento, no período de 1995 a 1998, dividido em dentro e fora da amostra, esta, 42 observações.

Sugerem que a distribuição normal não é adequada às séries, pois apresentaram padrões de obliquidade positiva e leptocurtose. Para acomodá-los, os resultados empíricos seguiram uma distribuição t de Student. Os testes de Ljung-Box, assim como o Multipli-cador de Lagrange ARCH, revelaram a existência de heterocedasticidade condicional nas séries, estacionárias na primeira diferença, mediante teste de Phillips e Perron (1988).

Chegaram à conclusão de que a metodologia dinâmica foi mais eficiente para reduzir o risco da exposição cambial, em torno de 13,3%, comparada com as estáticas. No entanto, a razão ótima de hedge condicional chegou a atingir valores negativos.

O segundo estudo encontrado na literatura brasileira sobre hedge dinâmico cam-bial foi feito por Tanaka (2005). Os dados diários, utilizados tanto para o dólar à vista, valor de venda da PTAX800, como para o dólar futuro, cotação dos contratos de maior li-quidez negociados na BM&F, foram de 1995 a 2004. Além do período completo, dividiu-o em uma sub amostra, após a mudança do regime cambial.

Com a finalidade de garantir a estacionariedade das séries, utilizou os retornos em logaritmo. Estes apresentaram comportamento leptocúrtico. A metodologia imple-mentada foi semelhante à de Bueno e Alves (2001), porém escolheu a estimação dinâmica BEKK diagonal para a razão de hedge. Em ambas as amostras, a redução do risco para a carteira “hedgeada” foi maior pelo método dinâmico que para as estáticas e sem hedge. Portanto, considerar as novas informações existentes no mercado, dentro do modelo, con-tinuou favorável, mesmo com aumento do período estudado.

O modelo tradicional de estimação da razão ótima de hedge, via MQO, considera o risco no mercado à vista e futuro como independentes do tempo. Com a finalidade de superar esta limitação, uma vez que novas informações chegam a cada pregão para os agentes, Bitencourt et al. (2006) afirmaram que seria realista e desejável a existência de uma razão ótima de hedge dinâmica, que varia diariamente. Averiguaram e compararam a efetividade bem como a razão ótima de hedge, obtidas por meio dos modelos MQO e GARCH BEKK bivariado. O indicador ESALQ/BM&F foi considerado como a série de preços à vista, e os preços de fechamento dos contratos do boi gordo, na BM&F, mais próximos ao vencimento, como preços futuros. O período de abrangência foi de 30/10/2001 a 25/10/2004 e os retornos definidos como a variação dos preços diários em

logaritmo.

O teste de Ljung-Box detectou autocorrelação e o teste de White heterocedasti-cidade. Portanto, a razão ótima de hedge estimada por MQO, de 74% com efetividade de 73% não foi apropriada. Para contornar estes problemas, estimaram via GARCH BEKK bivariado (1,1). Os resultados ressaltaram a hipótese que a razão ótima de hedge varia no tempo, além disso, apresentou dependência temporal. Concluem que, caso os agentes desconsiderem o dinamismo das razões ótimas de hedge, ao estimá-las via MQO, gera ine-ficiência na gestão de risco. Quando as superestima, podem ocasionar maiores custos aos agentes que buscam proteção. Ao subestimá-las, uma menor posição no mercado futuro não protege de forma ótima dos riscos de preços.

A análise de Araújo et al. (2007) sobre hedge cambial partiu do pressuposto que houve uma quebra estrutural no ano de 1999, pois o Banco Central do Brasil permitiu que a taxa de câmbio fosse livre, ao deixar para trás o modelo anterior de intervenção permanente. Contemplaram o período após a adoção do regime cambial flutuante, até setembro de 2004. Diferente dos demais estudos, a base de dados foi construída com os valores diários de abertura da taxa de câmbio à vista e futuro. A rolagem destes foi definida segundo dois critérios: o primeiro, sete dias antes do encerramento; o segundo, com vinte e oito dias antes do vencimento.

Confrontam o risco do agente que não faz hedge com os agentes que o fazem. En-tretanto, inovaram ao transformar os métodos estáticos em dinâmicos. Pois computaram novas razões de hedge de forma periódica, rolling betas com janelamentos, no intuito de melhor comparação da efetividade estimada pelos modelos. Os escolhidos para estimar a razão ótima de hedge foram: rolling MQO, rolling VEC e BEKK diagonal com termo de correção de erro.

Conforme esperado, a estatística descritiva apontou para médias próximas a zero, distribuição leptocúrtica e assimetria positiva, portanto não apresentaram uma distribui-ção normal, confirmada pelo teste de Jarque-Bera. Após os testes de raiz unitária de Dickey e Fuller (1979, 1981) e Kwiatkowski et al. (1992), os quais sugeriram maior ade-quação dos retornos em logaritmos à estacionariedade, utilizaram-nos nas estimativas. Conforme apresentaram integração de primeira ordem, a cointegração foi identificada por meio do teste de Engle e Granger (1987) e a escolha do número de defasagens feita medi-ante o critério informacional de Schwarz (1978), para a modelagem VEC.

A existência de heterocedasticidade condicional, identificada pelo teste Multipli-cador de Lagrange ARCH, reforça o uso da modelagem GARCH bivariada. No entanto,

concluem que o método BEKK diagonal foi superior ao tradicional rolling MQO e rolling VEC somente em períodos de maior volatilidade cambial. Creditam o processo de rolagem em janelas como crucial a esta configuração dos resultados, pois permitiu incorporar as novas informações diárias aos modelos lineares.

O trabalho de Müller et al. (2008) teve como objeto de estudo o hedge do café arábica no Brasil. Compararam estratégias estáticas (hedge ingênuo e modelagem Vetorial de Correção de Erro) e dinâmicas de hedge (BEKK completo e diagonal, com distribuições normal e t de Student). A construção da base de dados foi efetuada com médias semanais em logaritmos do indicador ESALQ, como preços à vista, bem como os ajustes no mercado futuro da BM&F, no período entre 2000 a 2006. Todavia, a efetividade do hedge foi calculada apenas para os contratos de 2005, dentro da amostra, e 2006, fora da amostra. Os testes Dickey e Fuller (1979, 1981) e Phillips e Perron (1988) indicaram esta-cionariedade das séries em sua primeira diferença. Após esta constatação, concluíram a existência de um vetor de cointegração, a partir dos testes do traço e máximo autovalor. A presença de volatilidade condicional foi confirmada com o resultado do teste Multiplicador de Lagrange para heterocedasticidade de até cinco defasagens.

A escolha do número de defasagem na modelagem estática foi obtida pelos crité-rios informacionais de Akaike (1974), Schwarz (1978) e Hannan e Quinn (1979). Indicaram quatro defasagens na modelagem VAR, por conseguinte, três na VEC. Esta foi utilizada para o cômputo da razão ótima de hedge estática de 84%. A parcimônia do modelo BEKK completo (1,1), com distribuição t de Student, apresentou o melhor ajuste, logo, seleci-onado na comparação. Concluem a superioridade da estratégia dinâmica na redução de riscos dentro e fora da amostra, todavia, diminuta.

Dana (2008) apresentou um modelo no tempo discreto, que maximiza a utilidade da riqueza e ainda considera as chamadas de margem. A razão ótima foi estimada por diferentes métodos: Correlação Condicional Dinâmica (DCC), BEKK completo, rolling MQO e ingênuo. Para analisar a eficiência, a volatilidade da riqueza foi utilizada como pa-râmetro. Este procedimento tomou uma função utilidade diferente da dos demais estudos

empíricos realizados no Brasil: U (Wt) = bWtc

2[Wt− E(Wt)]2, com b = 4 e c = 1.

A amostra diária dos preços à vista e futuros começou em setembro de 2001 e terminou em fevereiro de 2006. Desta, 127 observações foram deixadas fora da amostra para efeitos de previsão. No intuito de encadear os preços futuros dos diferentes contratos, compôs uma série sintética para os dois contratos de dólar futuro mais próximos do vencimento, negociados na BM&F, por combinação linear ponderada, dependente dos

dias úteis remanescentes às expirações.

Os parâmetros dos modelos DCC(1,1) e BEKK(1,1) foram estimados para toda a amostra e dentro da amostra, com a finalidade de verificar sua estabilidade em períodos distintos. Sugeriu que a estimação DCC foi mais estável, pois os parâmetros não mudaram tanto quanto na modelagem BEKK, portanto mais confiável. Nos períodos de maior stress nos mercados, as razões de hedge alcançaram valores superiores a um e até mesmo negativos. Justificou como fenômeno psicológico dos agentes, que tendem a maior sobre reação, no curto prazo, nos mercados à vista do que nos futuros.

As variâncias das riquezas, mensuradas em diferentes horizontes fora da amostra, de um a seis meses, com mudança nos parâmetros da utilidade b = 0, 5, b = 2 e b = 4, bem como a eficiência das estratégias, confrontadas com a ingênua, demonstraram como melhor performance a estratégia DCC, seguida da MQO, a qual superou a BEKK. Ainda que consideradas as margens, os resultados foram semelhantes.

O estudo de Monteiro e Bueno (2009) averiguou se um modelo bivariado com mudança de regime em dois estados na equação de correlação condicional das séries, pode melhorar a estimação do hedge ótimo. Suas análises foram efetuadas com retornos em logaritmo, compostos por preços à vista e futuros, contratos mais próximos do vencimento, do Índice Bovespa, bem como a taxa de câmbio brasileira, no período de 03/01/2000 a 15/02/2006.

A relação de cointegração entre as séries foi considerada ao adicionarem um termo de correção de erro, representado pela “base”, conforme Fama e French (1987). O primeiro estágio na estimação do modelo DCC foi implementado com a modelagem Glosten et al. (1993). Para evitar problemas causados por quebras estruturais, seu modelo permitiu a possibilidade de dois estados para a Correlação Condicional Dinâmica. Portanto, o modelo de Correlação Condicional Dinâmica bivariado com mudança de regime markovi-ano captura os fatos estilizados de cluster, heterocedasticidade condicional e assimetria. Comparou-o ao mensurar a performance do hedge por redução na variância e utilidade quadrática, assim como em Kroner e Sultan (1993), às estratégias computadas por Míni-mos Quadrados Ordinários, Vetorial de Correção de Erro e ingênua.

A análise descritiva dos dados permitiu verificarem excesso de curtose e assime-tria, tanto para os preços em nível como em primeira diferença, portanto, razoável o uso do modelo GJR. Os resultados para raiz unitária apontaram a estacionariedade em primeira diferença mas não em nível, por meio de quatro testes, Dickey e Fuller (1979, 1981), Phil-lips e Perron (1988), Kwiatkowski et al. (1992) e Elliott et al. (1996). Aplicado o teste de

cointegração de Johansen nas séries em nível, demonstraram a existência de cointegração, logo, a adição do termo para correção de erro foi justificada. Os valores dos parâmetros estimados como vetor de correção de erro foram significativos aos níveis convencionais de significância e próximos a um. Os autores sugerem, portanto, que a “base” de fato pode ser usada como proxy do termo de correção de erro.

A redução do risco proporcionada pela modelagem que considera a mudança de regime markoviano foi superior às demais. Para o Índice Bovespa, próxima a 90%, mas com valores semelhantes entre as estratégias. Em contraste, a efetividade do hedge dinâmico cambial foi menor, em torno de 40%, valor próximo ao estimado por MQO. Em todos os casos, a pior redução foi obtida com o modelo Vetorial de Correção de Erro. A ordenação das melhores estratégias manteve-se da mesma forma ao considerar a utilidade.

Documentos relacionados