• Nenhum resultado encontrado

Avaliação do Valor em Risco de um Portifólio de Opções segundo as Metodologias Delta-Gama e Simulação Histórica Filtrada.

N/A
N/A
Protected

Academic year: 2021

Share "Avaliação do Valor em Risco de um Portifólio de Opções segundo as Metodologias Delta-Gama e Simulação Histórica Filtrada."

Copied!
122
0
0

Texto

(1)

segundo as Metodologias Delta-Gama e Simulação Histórica

Filtrada.

Claudio Henrique da Silveira Barbedo

Universidade Federal do Rio de Janeiro

Instituto COPPEAD de Administração

Mestrado em Administração

Orientador: Eduardo Facó Lemgruber

Ph.D. em Finanças

Rio de Janeiro

2002

(2)

Avaliação do Valor em Risco de um Portifólio de Opções segundo as

Metodologias Delta-Gama e Simulação Histórica Filtrada.

Claudio Henrique da Silveira Barbedo

Dissertação submetida ao corpo docente do Instituto COPPEAD de Administração, da Universidade Federal do Rio de Janeiro - UFRJ, como parte dos requisitos necessários para a obtenção do grau de Mestre em Ciências (M.Sc.) em Administração.

Aprovada por:

Orientador : ____________________________________________

Prof. Eduardo Facó Lemgruber (COPPEAD/UFRJ)

Examinador: ___________________________________

Prof. Eduardo Saliby (COPPEAD/UFRJ)

Examinador: ___________________________________

Prof. Octávio Bessada (Banco Central)

Rio de Janeiro

(3)

FICHA CATALOGRÁFICA

Barbedo, Claudio Henrique da Silveira.

Avaliação do Valor em Risco de um Portifólio de Opções segundo as Metodologias Delta-Gama e Simulação Histórica Filtrada/ Claudio Henrique da Silveira Barbedo. - Rio de Janeiro: UFRJ/COPPEAD, 2002

xi, 114p. il.

Dissertação - Universidade Federal do Rio de Janeiro, COPPEAD. 1. Opções. 2. Ativos Não-Lineares. 3. Métodos Não-Paramétricos II. Universidade Federal do Rio de Janeiro. Instituto COPPEAD de Administração III.Título.

(4)

Agradecimentos

Aos meus pais.

Ao Departamento do Meio Circulante, por atuar participativamente na formação técnica de seus recursos humanos, com uma visão sistêmica e integrada.

Ao amigo de turma Gustavo, pelas infindáveis discussões nos fins-de-semana.

Ao professor Facó, pela objetividade e clareza demonstrada na orientação.

À minha esposa, pela compreensão, força e companheirismo demonstrados nos momentos mais difíceis desta empreitada.

(5)

RESUMO

BARBEDO, Claudio Henrique da Silveira. Avaliação do Valor em Risco de um Portifólio de Opções segundo as Metodologias Delta-Gama e Simulação Histórica Filtrada. Orientador: Eduardo Facó Lemgruber. Rio de Janeiro: UFRJ/COPPEAD, 2002. Dissertação.

Vários modelos de finanças adotam suposições simplificadas. Um dos mais importantes, o modelo de variância de Markowitz (1959), assume uma distribuição normalizada para os ativos analisados, devido à facilidade de tratamento matemático e estatístico.

Entretanto, a distribuição normal é, na prática, útil somente como uma rude aproximação, principalmente no caso de opções, que se caracterizam como um instrumento não linear e com caudas pesadas nas séries de retorno.

O objetivo deste trabalho é obter um modelo acurado e que apresente uma boa estimativa das medidas de risco de um portifólio de opções.

O estudo não faz suposições sobre propriedades estatísticas das mudanças futuras de preços e analisa os mais utilizados modelos para análise de risco de opções: o modelo RiskMetricsTM e o modelo de Simulação Histórica, com uma técnica para suplantar suas principais deficiências constantes na literatura.

A proposta é um refinamento do modelo de Simulação Histórica, ao qual, elimina o trade-off entre longos períodos amostrais, que violam a suposição de retornos independentes e identicamente distribuídos, e curtos períodos amostrais, que reduzem a precisão do modelo. Além disso, soluciona o problema de que os únicos fatores de risco possíveis de medição, na previsão por este método, serem aqueles observados no período da amostra.

O procedimento proposto é filtrar a simulação histórica pela volatilidade de um processo GARCH e modelar a futura distribuição do ativo-objeto. Os preços dos ativos-objeto são simulados pelo processo de bootstrap. Os preços das opções são computados por reavaliação contínua dos preços dos ativos-objeto. A metodologia, implicitamente, leva em consideração a correlação entre os ativos-objeto, a assimetria e as caudas pesadas, sem a necessidade de cálculo ou estimativas matemáticas.

(6)

ABSTRACT

BARBEDO, Claudio Henrique da Silveira. Avaliação do Valor em Risco de um Portifólio de Opções segundo as Metodologias Delta-Gama e Simulação Histórica Filtrada. Orientador: Eduardo Facó Lemgruber. Rio de Janeiro: UFRJ/COPPEAD, 2002. Dissertação.

Several models in finance rely on simplified assumptions. One of the most important, the Mean-Variance model of Markowitz (1959), assumes the multivariate normal distribution for a collection of assets due to its mathematical tractability and statistical interpretations.

However, the normal distribution is, in practice, useful only as a rough approximation, mainly in the case of options, because it involves a non-linear instrument in a single and typically fat-tailed return series.

The aim of this work is that of obtaining a good representation of accuracy and a good estimate of the risk measures in an option portfolio.

This study made no assumptions about statistical properties of future price changes and analyzed the two most widespread approaches to Value at Risk options estimation: the RiskMetricsTM model and the Historical Simulation model, with a technique to overcome the shortcomings of the latter.

The proposal is a refinement of the Historical Simulation model. Therefore, one will no longer have to worry about the trade-off between long sample periods, which potentially violate the assumption of independent and identical distributions, or short sample periods, which reduce the precision of the Historical Simulation estimate. Furthermore, it solves the problem that the only changes in risk factors that were possible to measure in the forecast distribution were those observed in the historical sample period.

The proposed procedure is filtering a historical simulation by GARCH volatilities and modeling the future distribution of assets. The underlying prices are simulated by the bootstrapping process. Options process changes are computed by full reevaluation of the changing prices of underlying assets. The methodology takes asset correlations, skewness and tail-fatness into account implicitly, avoiding parameterizing and estimating a mathematical model.

(7)

SUMÁRIO

CAP.1: INTRODUÇÃO... 1 1.1 - O PROBLEMA... 1 1.2 - OBJETIVOS... 5 1.3 - CARACTERÍSTICAS DO ESTUDO... 6 1.4 - DELIMITAÇÃO DO ESTUDO... 7

CAP.2: REVISÃO DA LITERATURA... 10

CAP.3: METODOLOGIA ... 42

3.1 - SELEÇÃO DO PERÍODO E DA AMOSTRA... 42

3.2 - CÁLCULO DA CURVA DA TAXA DE JUROS PRÉ-FIXADA... 43

3.3 - METODOLOGIA DA SIMULAÇÃO HISTÓRICA FILTRADA... 48

3.4 – OUTRAS METODOLOGIAS... 56

3.5 – A METODOLOGIA DELTA-GAMA... 60

3.6 – MÉTODOS PARA AVALIAÇÃO DOS MODELOS... 63

3.6.1 – Kupiec ... 64

3.6.2 – Christoffersen ... 65

3.6.3 – Lopez ... 70

CAP.4: RESULTADOS ... 74

4.1 – RESULTADO DAS METODOLOGIAS PARA AS OPÇÕES ISOLADAS... 75

4.2 – RESULTADO DAS METODOLOGIAS PARA OS PORTIFÓLIOS DE OPÇÕES... 88

4.3 – RESULTADO DAS METODOLOGIAS SEGUNDO A PROXIMIDADE DO DINHEIRO PARA AS OPÇÕES ISOLADAS... 96

4.4 – RESULTADO DAS METODOLOGIAS SEGUNDO A PROXIMIDADE DO DINHEIRO PARA OS PORTIFÓLIOS... 99

CAP.5: CONCLUSÕES E CONSIDERAÇÕES FINAIS ... 101

REFERÊNCIAS BIBLIOGRÁFICAS ... 105

(8)

CAP.1: INTRODUÇÃO ... 1

1.1-OPROBLEMA ... 1

1.2-OBJETIVOS ... 5

1.3-CARACTERÍSTICAS DO ESTUDO ... 6

1.4-DELIMITAÇÃO DO ESTUDO ... 7

CAP.2: REVISÃO DA LITERATURA ... 10

CAP.3: METODOLOGIA ... 42

3.1-SELEÇÃO DO PERÍODO E DA AMOSTRA ... 42

3.2-CÁLCULO DA CURVA DA TAXA DE JUROS PRÉ-FIXADA ... 43

3.3-METODOLOGIA DA SIMULAÇÃO HISTÓRICA FILTRADA ... 48

3.4–OUTRAS METODOLOGIAS ... 56

3.5–A METODOLOGIA DELTA-GAMA ... 60

3.6–MÉTODOS PARA AVALIAÇÃO DOS MODELOS ... 63

3.6.1 – Kupiec ... 64

3.6.2 – Christoffersen ... 65

3.6.3 – Lopez ... 70

CAP.4: RESULTADOS ... 74

4.1–RESULTADO DAS METODOLOGIAS PARA AS OPÇÕES ISOLADAS ... 75

4.2–RESULTADO DAS METODOLOGIAS PARA OS PORTIFÓLIOS DE OPÇÕES ... 88

4.3–RESULTADO DAS METODOLOGIAS SEGUNDO A PROXIMIDADE DO DINHEIRO PARA AS OPÇÕES ISOLADAS ... 96

4.4–RESULTADO DAS METODOLOGIAS SEGUNDO A PROXIMIDADE DO DINHEIRO PARA OS PORTIFÓLIOS ... 99

CAP.5: CONCLUSÕES E CONSIDERAÇÕES FINAIS ... 101

REFERÊNCIAS BIBLIOGRÁFICAS ... 105

(9)

Cap.1: Introdução

1.1 - O Problema

Métodos de cálculo do Valor em Risco desempenham um papel importante no gerenciamento do risco de instituições financeiras. Vários modelos de Valor em Risco ou VaR são usados com o mesmo objetivo, que é medir a pior perda esperada ao longo de determinado horizonte de previsão, sob condições normais de mercado e dentro de um determinado nível de confiança.

A análise de Valor em Risco impulsionou-se com a disponibilização gratuita da metodologia de quantificação de risco pela matriz de variância-covariância, introduzida pelo banco J.P. Morgan – RiskMetricsTM (1993). A aproximação variância-covariância pôde ser resgatada baseada na teoria de portifólios de Markowitz (1959)1, o que explica, em parte, o porquê desta metodologia ter tido tão ampla repercussão no gerenciamento de risco.

Antes disso, o primeiro passo para uma administração de risco mais rígida tinha sido o histórico Acordo da Basiléia de 1988, que estabeleceu exigências mínimas de capital para os bancos comerciais, como prevenção contra o risco de crédito. A partir de 1995, os países que compunham o grupo dos dez (G-10), do qual o Comitê de Supervisão Bancária da

1 Markowitz introduziu a matriz de variância-covariância com um diferente propósito. Seu objetivo era

determinar os pesos ótimos dos ativos considerando a relação risco e retorno. Gerentes de risco não enfrentam o problema de alocação de ativos.

(10)

Basiléia foi criado, foram obrigados a requerer dos bancos medidas de risco de mercado usando a noção de Valor em Risco. Os bancos seriam autorizados a escolher entre um modelo padrão legislado ou algum modelo interno criado pelo próprio banco, desde que comprovado a adequação aos propósitos e previamente aprovado pelos supervisores, estabelecendo-se que a adequação de capital seria proporcional a medida de VaR de cada instituição financeira. Este mesmo movimento foi seguido pelos membros dos estados da União Européia em 1996. Estas propostas demonstraram o reconhecimento dos bancos centrais de que os modelos de administração de risco utilizados pelos principais bancos eram superiores a qualquer modelo que eles pudessem propor.

Porém, esta liberdade para a escolha da metodologia usada para o cálculo do Valor em Risco apresenta o aspecto negativo de poder dar margem a resultados muito diferentes de necessidade de adequação de capital. Bancos com posições semelhantes poderiam ter diferentes necessidades de capital em função do método escolhido para a mensuração do Valor em Risco. Isto poderia representar um obstáculo a uma precisa e confiável estimação da solvência do banco pelos supervisores, caso houvesse alguma tendência de utilização de métodos de VaR que produzissem menores necessidades de capital. Portanto, pesquisas nesta área tornaram-se extremamente importantes e necessárias para a estabilidade do sistema financeiro.

Pelo lado das instituições financeiras, este assunto também apresenta grande importância pelo fato de definir-lhes o melhor método de medida do Valor em Risco, que seja aceitável pelo supervisor, de maneira que não imponha adequações extras de capital e ao mesmo tempo permita que o banco administre o seu risco de maneira prudente e responsável.

(11)

Os modelos de risco mais utilizados no mercado, geralmente se baseiam em propriedades estatísticas existentes que impõem fortes suposições sobre a distribuição dos dados. A função de probabilidade dos retornos diários geralmente é estabelecida como normal e com média e variância constante. Como previamente documentado por Kendall (1953), Mandelbrot (1963) e Fama (1965), a suposição de normalidade é pouco realista, à medida que a distribuição dos retornos das séries financeiras parece tender para caudas mais gordas do que a da distribuição normal. Com isso, a suposição de normalidade produz uma subestimação do Valor em Risco. Duffie e Pan (1997) apontam que as possíveis causas para a existência das caudas gordas nas séries financeiras são a presença de saltos, que representam mudanças descontínuas nos preços, e a presença da volatilidade estocástica.

Estes problemas são agravados quando o portifólio contém posições em ativos não lineares, pois, neste caso, dada a distribuição de retornos do ativo-objeto, não se consegue determinar, com precisão, a distribuição de retornos do derivativo.

Para contornar estas limitações, gerentes de risco iniciaram a trabalhar com técnicas de simulação, usadas para gerar trajetórias de preços ou cenários específicos para as posições lineares, taxas de juro, câmbio e outras, para então avaliar as posições dos derivativos, em função de cada cenário. Porém, o modelo também não conseguiu fugir às críticas, pois gerava cenários baseados em números aleatórios de uma distribuição teórica, que geralmente era a normal, e que nem sempre era similar a distribuição empírica do ativo que se queria investigar.

(12)

Reconhecendo o fato que muitos retornos de ativos não podem ser descritos por uma distribuição teórica, um grande número de instituições financeiras está usando modelos de Simulação Histórica2. Neste método, cada observação histórica forma um cenário possível e para cada cenário há uma precificação do ativo. A distribuição do portifólio gerada é mais realista do que quando baseada em uma distribuição teórica dos fatores de risco. Porém, o método também apresenta algumas falhas, devido à suposição implícita de que os retornos são distribuídos independente e identicamente (iid)3. Fierli (2002) ressalta que esta suposição é violada pelas evidências do cluster de volatilidade e que esta violação leva a uma inconsistência na estimativa do Valor em Risco.

Algumas técnicas têm sido usadas para reduzir esta inconsistência, como a metodologia de Simulação Histórica de Boudoukh, Richardson e Whitelaw (1998) que desconsidera a suposição padrão de que os retornos passados têm a mesma probabilidade de ocorrência, atribuindo maior probabilidade a observações mais recentes e a metodologia de Barone-Adesi, Giannopoulos e Volsper (2000), que apresentam uma técnica para resolver o problema da não ocorrência de retornos distribuídos independente e identicamente, que é a utilização destes retornos divididos pela volatilidade modelada por um processo GARCH.

2 Segundo Barone-Adesi, Giannopoulos e Vosper (2000).

3 Independent and identically distributed. Identicamente distribuída significa que a probabilidade de

ocorrência de uma específica perda é a mesma para cada dia. Independência implica que a escala do movimento do preço em um período não influenciará o movimento de preços sucessivos.

(13)

1.2 - Objetivos

O objetivo fundamental deste trabalho é verificar a eficiência da metodologia de Barone-Adesi, Giannopoulos e Volsper (2000) no cálculo do Valor em Risco de uma carteira de opções negociadas na Bovespa, com as respectivas adaptações do modelo às características do mercado brasileiro.

A principal idéia, seguida neste trabalho, é padronizar os retornos assumindo um modelo para a volatilidade do ativo estudado. Dentro da série, um bootstrap é aplicado para gerar uma distribuição de retornos simulada.

O bootstrap é uma técnica que assume que os resíduos padronizados têm a mesma probabilidade de ocorrência. Esta suposição é extremamente coerente se considerarmos que a volatilidade do modelo foi corretamente especificada, caso contrário, seria melhor atribuir probabilidades maiores de ocorrência as mais recentes observações da série. Neste sentido, este trabalho compreende também um minucioso estudo sobre a estimativa da volatilidade dos ativos envolvidos, conforme será explicitado no capítulo que trata da metodologia do trabalho.

Para alcançar esse objetivo, será verificada a eficiência do modelo no teste de proporção de falhas de Kupiec (1995), que verifica a acurácia do VaR calculado, no teste condicional de Christoffersen (1996), que se baseia nas informações existentes em cada ponto da amostra e no teste de Lopez (1999), que se baseia nas perdas verificadas.

(14)

1.3 - Características do Estudo

A decisão do tipo de portifólio a ser utilizado neste trabalho foi devida principalmente a poucos estudos previamente apresentados no Brasil e ao fato de ser, neste momento, um dos objetos de regulamentação pelo Banco Central do Brasil. Outro aspecto importante a destacar é o nível de complexidade do assunto, conforme nos retrata Gyzycky e Hereford (1998), que através de um estudo empírico, enviaram uma série de portifólios para todos os bancos australianos, para que estes calculassem o VaR diário de cada portifólio pelos seus próprios métodos. Dos vinte e dois bancos que responderam a pesquisa, somente dois foram capazes de calcular o Valor em Risco de todos os portifólios e o que continha opções foi o que apresentou os maiores problemas para cálculo pelos bancos.

O período de estudo deste trabalho não foi determinado por acaso. O objetivo foi selecionar um período comum em que as opções de maior liquidez do mercado pudessem compor um portifólio teórico, a fim de que se pudesse testar a metodologia indicada.

Em relação à escolha do nível de significância, neste trabalho, seguiu-se a recomendação do BIS4. Pode-se dizer que esta escolha, em última instância, é arbitrária e varia de acordo com o propósito em questão, seja avaliação da precisão do sistema de risco implantado, determinação do volume de capital exigido para a instituição ou comparação de sistemas de risco distintos. Mollica (1999) oferece algumas indicações, ao afirmar que se o propósito da escolha for a avaliação do sistema, recomenda-se que o nível de significância seja alto,

(15)

porque, caso contrário, retornos que excedem o VaR seriam eventos raros e, com isso, seria necessária uma base de dados muito grande para se obter informações sobre o desempenho do modelo. No caso da determinação de capital, a escolha do nível de significância depende do grau de aversão ao risco do administrador: quanto mais avesso ao risco menor deve ser o nível de significância para que o capital alocado seja maior. Por último, o autor afirma que se o propósito é comparar diferentes sistemas de risco sob a hipótese de normalidade, o nível de significância escolhido é irrelevante, pois neste caso, o VaR com dado nível de significância pode ser diretamente transformado num outro nível de significância qualquer, com a simples alteração de parâmetros. Verifica-se, portanto que, sem a premissa de normalidade, a escolha do nível de significância é importante para o cálculo do Valor em Risco e que, neste caso, os diferentes níveis de significância tornam-se incomparáveis.

1.4 - Delimitação do Estudo

Este estudo não se propõe a abordar ou comparar os diferentes métodos de cálculo do Valor em Risco, tarefa já amplamente executada em diversos cursos e trabalhos5, mas sim focar em um aspecto chave para o cálculo do Valor em Risco em geral e, sobretudo para o cálculo do Valor em Risco de opções, em particular: a validade da suposição de normalidade dos retornos de um ativo-objeto. Sob este aspecto, literaturas consagradas na área de risco são apresentadas no capítulo de Revisão Bibliográfica e demonstram que, embora haja uma definição ou mesmo uma indiferença do mercado na maneira de se calcular o Valor em Risco de ativos-objeto, no que tange aos derivativos, há uma gama de

5 O capítulo de revisão bibliográfica apresenta diferentes trabalhos de comparação dos mais diversos métodos

(16)

estudos pouco conclusivos. Este estudo pretende prestar uma contribuição dentro da área de Valor em Risco de opções, demonstrando a aplicabilidade de uma metodologia denominada Simulação Histórica Filtrada.

Dentre as técnicas mais comumentes adotadas nos trabalhos acadêmicos, para avaliação do Valor em Risco dos modelos existentes no mercado, encontramos: curtos holding periods, geralmente 1 ou 10 dias, distribuição dos retornos normais, retorno esperado zero, matriz de variância-covariância constante e ausência de benchmark. Porém, a maioria dos modelos considerados como práticas padrão nasceram do uso dos bancos e dentre o que se vê na prática6, destaca-se: horizonte de investimento longo, pelo menos 1 mês e em alguns casos períodos maiores, a não razoabilidade de considerarmos a distribuição dos retornos normais para este horizonte, retorno esperado do portifólio diferente de zero, volatilidades e correlações variantes com o tempo e não necessariamente lineares e a existência de um

benchmark. Com isso, os métodos por ora presentes, acabam se caracterizando por

representações simplistas da realidade dos mercados.

Das técnicas abordadas neste trabalho, uma considera a hipótese de normalidade dos retornos – a metodologia Delta-Gama, e o cálculo do Valor em Risco envolve apenas um problema probabilístico, uma vez que estamos supondo conhecida a distribuição dos retornos da carteira. A outra, desconsidera esta hipótese, e a mensuração do Valor em Risco envolve um problema de inferência, pois a única informação disponível é a realização do processo estocástico passado dos retornos. Neste segundo caso, conforme será apresentado no capítulo da Revisão Bibliográfica, alterações na metodologia original serão conduzidas,

(17)

visando a apresentação de um modelo que se mostre confiável para aplicação dentro do objetivo deste trabalho e que atenda às práticas de negociação das opções.

Por fim, apesar das diferentes ramificações e exposições a riscos financeiros – risco de crédito, mercado, liquidez e operacional, este trabalho ficará centrado no risco de mercado para um portifólio de derivativos de renda variável, o que significa a quantificação da variação do valor da carteira decorrente somente de mudanças inesperadas nos preços dos ativos-objeto estudados.

(18)

Cap.2: Revisão da Literatura

Duffie e Pan (1997) conduziram um dos mais completos trabalhos de comparação entre o método de simulação de Monte Carlo e o método Delta-Gama adotado pelo RiskMetricsTM. Em seu estudo, os autores ilustraram as implicações dos métodos de estimação do Valor em Risco para um portifólios de opções, utilizando 10.996 opções dos 418 ativos-objeto da carteira do RiskMetricsTM de 29 de julho de 1996, distribuídos em 4 grupos formados por

commodities, moeda estrangeira, títulos de renda fixa e ações.

Os autores verificaram que com 99% de confiança, na posição comprada ou vendida, o cálculo do VaR utilizando o método de simulação de Monte Carlo, que assumia um processo estocástico descrito pelos preços como log-normal, apresentou valores maiores dos que o resultante da metodologia do RiskMetricsTM. No caso do holding period de 1 dia, a diferença chegou a 0.1% do valor inicial do portifólio e no holding period de 10 dias, esta diferença chegou a 1.8%. É nesta medida de confiança que se concentra a cauda da distribuição de probabilidade e quando os problemas de caudas gordas aparecem, devido à não normalidade e à falta de linearidade, no caso das opções.

Pritsker (1997) testa a hipótese de que os diferentes métodos de cálculo do Valor em Risco, para ativos não lineares, geram resultados distintos. O autor comprova esta idéia ao examinar 6 diferentes metodologias para cálculo do Valor em Risco. Em um primeiro exercício, o autor calcula o Valor em Risco de posições comprada e vendida, para opções isoladas de moeda estrangeira, com 7 classificações de moneyness e 10 classificações de

(19)

maturidade, variando de 36 dias a 1 ano. Em um segundo exercício, o autor examina o cálculo do Valor em Risco para 500 portifólios aleatórios, formados pelas opções do primeiro exercício.

O autor também analisa o trade-off entre acurácia e tempo computacional. No exame de acurácia, os resultados foram divididos em dois grupos devido a grande superioridade dos métodos de simulação sobre os métodos analíticos. No exame de tempo computacional, apesar de verificado a superioridade dos métodos analíticos, como era de se esperar, os resultados conjugados com o exame da acurácia apontaram a superioridade do método de simulação de Monte Carlo, utilizando o Delta e o Gama do portifólio para estimar as variações a partir de movimentos no preço do ativo-objeto.

Os resultados indicaram que todos os métodos de cálculo do Valor em Risco, à exceção do Monte Carlo completo - denominação seguida pelo autor para designar a suposição de que o processo estocástico descrito pelos preços é log-normal, geraram grandes erros para opções muito fora-do-dinheiro com um curto tempo para expiração. Para o caso de opções de compra isoladas, o autor utilizou variações das metodologias Delta analítica e Delta-Gama analítica e concluiu que os métodos superestimaram grosseiramente o Valor em Risco do período. No caso de opções de venda isoladas, as metodologias subestimaram o Valor em Risco. Somente os resultados da metodologia Delta foram consistentes com os verificados na literatura sobre VaR.

Na análise do Valor em Risco dos portifólios foi constatada uma relativa similaridade no comportamento dos erros dos métodos analíticos e simulação. Quando os métodos

(20)

analíticos erravam grosseiramente o Valor em Risco do portifólio, os métodos de simulação também erravam grosseiramente, porém quando os métodos analíticos apresentavam pequena escala de erros, os métodos de simulação acertavam na previsão.

O autor termina o artigo constatando a superioridade dos métodos de simulação no cálculo do Valor em Risco de ativos não lineares.

No Brasil, Picanço (2000) avaliou como flutuações no preço do ativo-objeto podem ser traduzidas em Valor em Risco para posição comprada de opções isoladas e de portifólios tipo spread borboleta, por 6 diferentes metodologias de cálculo. Foram utilizados dados do mercado brasileiro para 12 vencimentos de opções telebrás, no período de janeiro de 1995 a dezembro de 1996, e as metodologias utilizadas foram: Diferença de valor por Black&Scholes, Delta analítica, Delta-Gama analítica, simulação de Black&Scholes, simulação Delta e a simulação Delta-Gama.

O autor ressalta que, de um modo geral, as metodologias correspondentes apresentaram o mesmo comportamento ao longo de todo o período, isto é, o Valor em Risco da simulação Delta, Delta-Gama e Black&Scholes foram praticamente coincidentes com o Valor em Risco do Delta, Delta-Gama e Black&Scholes analíticas, respectivamente. No caso das opções isoladas houve uma sobrevalorização das abordagens tipo Delta analítica e uma subavaliação das do tipo Delta-Gama analítica, como era de se esperar, porém as abordagens por simulação não se mostraram mais precisas do que as analíticas. Para o portifólio tipo spread borboleta, o autor verificou que as metodologias correspondentes também apresentavam o mesmo comportamento ao longo de todo o período.

(21)

Desta maneira, o estudo desperta atenção para a importância da escolha do modelo de comportamento futuro dos retornos do ativo-objeto utilizado na simulação, de maneira que o custo computacional do método de simulação possa ser traduzido em resultados efetivamente melhores de previsão do Valor em Risco.

Coronado (2000) também compara a metodologia do RiskMetricsTM com o método de simulação de Monte Carlo, assumindo que o processo estocástico descrito pelos preços é log-normal, para estimar o Valor em Risco de portifólios de opções de um dos maiores bancos espanhóis. O portifólio escolhido para estudo foi um portifólio hedgeado que continha posições de opções de moedas e posições do ativo spot na data de 21 de outubro de 1996. A partir da referida data foi calculado o Valor em Risco do portifólio hedgeado e do portifólio denominado não-hedgeado, composto somente pelas opções do portifólio hedgeado. A autora verificou que a maior diferença de valor entre os métodos, tanto para o portifólio hedgeado quanto para o portifólio não-hedgeado, foi obtida para o VaR calculado com 99% de confiança. No caso do portifólio hedgeado, com 99% de confiança em qualquer holding period, a diferença entre os métodos variou de 12% a 13% e a menor foi obtida para o VaR diário com 90% de confiança, com a diferença entre os métodos em torno de 3%. No caso do portifólio composto apenas por opções, com 99% de confiança e em qualquer holding period, a diferença entre os métodos variou de 5% a 6%. Com isso, o estudo verificou que o VaR calculado pelo método de simulação de Monte Carlo apresenta valores superiores aos do VaR calculado pelo método analítico, pela maior capacidade da simulação em capturar a não linearidade e a não normalidade.

(22)

A importância desta constatação pode ser vista sob o prisma da supervisão bancária, onde, no caso do Acordo da Basiléia, a adequação de capital para o risco de mercado é estabelecida de acordo com a medida de 99% de confiança e holding period de 10 dias, precisamente onde foi verificada a maior diferença no estudo apresentado. Neste caso, poderia haver uma demanda maior dos bancos pelo método analítico, por requerer menor necessidade de ajuste de capital e, conseqüentemente, por beneficiar a rentabilidade esperada do negócio.

A Figura 1 demonstra o comportamento do método analítico no cálculo do VaR para opções. Verifica-se pelo erro da aproximação de segunda ordem, que o método superestima as perdas potenciais em posição vendida.

Figura 1: Erro Verificado por ocasião da Precificação de Opção de Venda pela Metodologia Delta-Gama, no caso de uma variação x, no preço do ativo-objeto.

y y+x x Erro Pr eç o d a O pç ão f (y ) Preço do Ativo-Objeto y f’(y)x + 1/2 f’’(y)x2

(23)

Estrella (1996) afirma que a aplicação das aproximações de Taylor, para estimação do Valor em Risco, deve ser feita com extrema cautela. O autor avalia a utilização das aproximações Delta e Delta-Gama na avaliação do Valor em Risco de opções. Segundo o autor, estas aproximações funcionam somente dentro de uma limitada amostra de valores e falham na detecção de informações do comportamento não linear associado com movimentos extremos do ativo-objeto. Jorion (1997) também afirma que o método Delta-Gama superestima o valor real da opção no caso de movimentos extremos do ativo-objeto.

Estrella (1996) comprova, ainda, que a não linearidade das opções não é limitada somente ao risco do Gama, apesar desta premissa ser freqüentemente assumida no gerenciamento do risco, e deve ser tratada com ordens mais altas de não linearidade. Segundo o autor, há duas implicações na utilização das aproximações de Taylor: a primeira é a não compatibilização destas aproximações com o contexto do teste de stress, pois para movimentos maiores que 2 ou 3 desvios-padrões ele observa substanciais diferenças. A segunda é que o gerenciamento do risco envolvendo pequenos movimentos periódicos, menores que 1 desvio-padrão, pode ser possível através das aproximações de Taylor, porém com especial atenção para opções altamente não lineares, como opções muito próximas do dinheiro e de curta maturidade. O autor termina o seu artigo indicando o método de simulação de Monte Carlo como o mais preciso para o gerenciamento do risco de opções.

Coronado (2000) classifica ainda, os dois métodos para se obter o Valor em Risco de ativos ou de portifólios: O primeiro método, denominado método geral, tenta estimar o VaR do percentil da distribuição empírica “real” de retornos dos ativos, como no caso dos métodos de Simulação Histórica e simulação de Monte Carlo. No segundo método, denominado

(24)

método paramétrico, é utilizada uma distribuição paramétrica que melhor se ajusta aos dados de retorno dos ativos. Neste método se inclui a metodologia analítica da matriz de variância-covariância para o cálculo do Valor em Risco. Como principais vantagens do método analítico da matriz de variância-covariância, a autora aponta a simplicidade do método e a rapidez dos cálculos. Como principais problemas do método, a autora aponta a tendência do método de superestimar o VaR para níveis de confiança menores e de subestimar, para níveis de confiança mais altos, conseqüentemente, influenciando a adequação do capital requerido pelas autoridades supervisoras. Outro problema apontado, é que a suposição de linearidade torna este método aplicável apenas para portifólios lineares.

Como comentário final, Coronado (2000) ressalta que não observou o trade-off entre acurácia e tempo computacional, ou seja, a precisão obtida no cálculo do Valor em Risco, pelo método de simulação de Monte Carlo, se adequou melhor as exigências de uma estimativa de VaR mais apurada e não pôde ser menosprezada em função do tempo despendido no processo. Porém, a autora afirma que a distribuição normal poderia ser assumida para o retorno do portifólio de opções, desde que o número de opções no portifólio fosse suficientemente grande e que a magnitude da correlação serial entre as opções fosse pequena.

A autora destaca que, no caso de um portifólio com um número grande de opções independentes, as propriedades da distribuição normal poderiam ser assumidas devido ao teorema do limite central. Duffie e Pan (1997) também concordam com a idéia de que um portifólio bem diversificado tem uma distribuição de probabilidade aproximadamente normal. Segundo os autores, este portifólio teria a importância das caudas gordas diminuída

(25)

sensivelmente, o que tornaria possível a aplicabilidade da propriedade do teorema do limite central.

Finger (1997) demonstrou quantas opções seriam necessárias para formar um portifólio bem diversificado com distribuição de probabilidade aproximadamente normal. Para realizar o teste, o autor considerou opções com as seguintes características na composição da carteira: todas as opções eram de compra; todas as opções estavam no-dinheiro; as opções possuíam a mesma maturidade; os retornos dos ativos-objeto eram normalmente distribuídos e cada par de ativos-objeto tinha a mesma correlação. O autor verificou que para um portifólio com o mínimo de 20 opções, independentes ou fracamente correlacionadas, a distribuição de probabilidades se aproxima muito da normal nos percentis. O autor estabelece, ainda, um limite para a noção de fracamente correlacionadas, como um valor menor ou igual que 10%, para cada par de ativos-objeto do conjunto de opções.

Na conclusão do seu estudo, o autor afirma que só há duas maneiras de garantir que um portifólio de opções tenha distribuição normal: a primeira, construindo um portifólio de opções com a mesma característica do seu experimento, o que é pouco viável nos mercados financeiros, principalmente o brasileiro, objeto de questão do presente estudo. A segunda maneira, seria manter o portifólio hedgeado, com posição neutra, através de posições spot dos ativos-objeto, o que neste caso destrói a atratibilidade deste estudo, que tem como característica a composição de portifólios exclusivamente por opções.

(26)

Silva Neto (1999) também classifica os modelos existentes para a análise de risco. Nos modelos paramétricos ou analíticos cada fator de risco é isolado, calcula-se o risco pressupondo determinada distribuição de probabilidades (normal ou log-normal) e agrega-se o risco da carteira com baagrega-se nas correlações existentes entre cada um de agrega-seus componentes. Nos modelos não paramétricos, os instrumentos são tratados em blocos, geralmente através de simulação, sem pressupor determinada distribuição de probabilidades.

Nos modelos não paramétricos, segundo o autor, o Valor em Risco da carteira é calculado segundo uma série de cenários definidos. Para determinação destes cenários, pode-se usar tanto os dados históricos quanto modelos probabilísticos, como a Simulação Estruturada de Monte Carlo ou Monte Carlo Completo.

O autor afirma ainda, após verificação empírica, que assumir uma distribuição normal para alguns mercados no Brasil seria atribuir uma grande probabilidade para eventos que são quase impossíveis de ocorrer, em detrimento daqueles que possuem uma grande probabilidade de ocorrência.

Um dos primeiros estudos a abordar o problema da não normalidade no Brasil foi elaborado por Lemgruber e Ohanian (1997), que testaram a hipótese de que os retornos diários das variáveis de mercado seguiam uma distribuição de probabilidades do tipo normal no mercado brasileiro. Os testes visavam, em especial, verificar a precisão do modelo RiskMetricsTM de estimativa de volatilidade dos retornos e a consistência da hipótese de distribuição normal condicional de probabilidades.

(27)

As amostras de variáveis do mercado brasileiro compreenderam as séries históricas de variações diárias ocorridas nas taxas de juros interbancários, taxas de cupom cambial e dólar comercial venda, no período de 16/01/1996 a 15/05/1997.

O teste consistiu em, uma vez estimada a volatilidade pela metodologia do RiskMetricsTM,

verificar os intervalos de confiança projetados e se eles se enquadravam no padrão definido para uma distribuição normal, ou seja, 5% no intervalo de um desvio-padrão, 2.5% no intervalo de dois desvios-padrões e 1% no intervalo de três desvios-padrões.

A hipótese de distribuição normal condicional testada significava que variáveis de mercado, como taxa de juros e câmbio, comportavam-se, diariamente, de acordo com medidas de probabilidades normais condicionais ao tempo, pois os parâmetros média e desvio-padrão dessas distribuições variavam a cada dia.

Os autores verificaram que as séries de retornos diários dessas variáveis apresentavam significativos graus de curtose, o que poderia significar que eventos extremos ocorriam com uma probabilidade maior do que aquela prevista por uma curva normal. Com isso, o modelo que trabalhava com a hipótese de distribuição normal, ou seja, a metodologia do RiskMetricsTM, funcionava razoavelmente bem para margens de confiança da ordem de 5%, porém tendia a subestimar o risco de mercado incorrido quando margens de confiança mais rígidas eram exigidas.

Os autores concluem o trabalho com a constatação de que existe a necessidade de se enriquecer os modelos utilizados no mercado brasileiro.

(28)

Bonomo e Garcia (2001) em seu estudo sobre modelos de precificação condicional no mercado de ações brasileiro, também verificaram a pouca evidência de normalidade em 25 ações componentes do índice IBOVESPA, durante o período de janeiro de 1976 a dezembro de 1992. Segundo os autores, todas as séries passaram fortemente longe da distribuição normal, como indicado principalmente pela estatística do excesso de curtose.

Hull e White (1998) também abordam o problema da não normalidade das mudanças dos retornos diários dos ativos nos mercados. Os autores afirmam que embora o RiskMetricsTM assuma normalidade para o cálculo do Valor em Risco, as mudanças nos mercados exibem curtose positiva, o que significa que movimentos extremos nos ativos-objeto são mais prováveis do que uma distribuição normal pode prever. Inicialmente, os autores demonstram a não normalidade das taxas de retorno, ao examinar o mercado de cotação de 12 moedas, no período de janeiro de 1988 a agosto de 1997, o que cobre um total de 2425 dias de negociação. Os dados demonstraram um significativo excesso de curtose e a hipótese de normalidade foi rejeitada com um elevado nível de confiança.

A probabilidade do movimento de um desvio-padrão foi em média de 25.04%, consideravelmente menor do que os 31.73% previstos pela distribuição normal, o que indicava que as taxas das moedas tinham uma distribuição, no pico da curva, maior do que a normal. A probabilidade do movimento de três desvios-padrões foi de 1.34%, em média, comparado com 0.27% para a distribuição normal e consistente com a evidência empírica de caudas gordas ou pesadas.

(29)

Os autores propuseram uma maneira de tratar a não normalidade. O método consiste em considerar as mudanças diárias do retorno como uma função de distribuição normal cumulativa, ou seja, a usual suposição de normalidade para o cálculo do Valor em Risco seria substituída por uma suposição de normal-transformada. O método apresentado pode ser usado tanto com simulação de Monte Carlo quanto em modelos fechados de cálculo do Valor em Risco e apresenta a vantagem de permitir que os momentos da distribuição dos retornos sejam refletidos nos cálculos do Valor em Risco.

Mollica (1999) faz um extenso teste sobre a normalidade dos retornos em seu trabalho, no qual comparou o método Delta-Normal e o método de Simulação Histórica na estimação do Valor em Risco de duas carteiras de ativos. Para estimar a matriz de covariância do método Delta-Normal, o autor utilizou modelos de variância estocástica, modelos de GARCH e modelos de EWMA, supondo que os retornos dos ativos tinham distribuição condicional normal. Para o cálculo do VaR, foi estimado o parâmetro de cada modelo com as 900 primeiras observações e utilizado para a previsão os próximos 100 dias úteis, reestimando-se estes parâmetros a cada 20 dias úteis.

Os testes foram aplicados em duas carteiras compostas de posições compradas em ativos, com participação relativa idêntica de cada um deles. A cada dia era feito o rebalanceamento das carteiras para que a variação no valor de mercado dos ativos não alterasse a participação relativa dos ativos. Nas duas carteiras, a série histórica dos retornos era composta por 1000 observações no período de 04/08/94 a 18/08/98. A primeira carteira era composta por 5 ativos: três vencimentos de DI futuro, Telebrás PN e o IBOVESPA futuro.

(30)

A segunda carteira era composta por quatro ativos: dois vértices da curva de juros de 20 e 40 dias úteis, Telebrás PN e o índice IBOVESPA a vista.

O método Delta-Normal, com a matriz de covariância estimada pelo EWMA, e o método de Simulação Histórica apresentaram os melhores resultados para um nível de confiança de 1% e 5% em ambas as carteiras, porém o autor criticou o método Simulação Histórica por apresentar pouca adaptabilidade às condições de mercado e às observações mais recentes, resultado esperado para que um modelo possa ser bem qualificado para o cálculo de VaR.

O autor ratifica o problema da não normalidade das mudanças dos retornos diários dos ativos, no mercado brasileiro, ao verificar que as estatísticas de assimetria e curtose, de todos os ativos envolvidos e durante todo o período de realização do estudo, apontavam para um distanciamento da hipótese de normalidade. Em todos os casos rejeitava-se a hipótese nula de que a distribuição dos retornos era normal. Na descrição estatística, das séries de ajustes diários dos três vencimentos de DI futuro, a média amostral era próxima de zero e o desvio padrão amostral crescia com os vencimentos. Nas séries estudadas, pertencentes ao mercado acionário, a média dos retornos era maior do que zero para estes ativos e o gráfico da distribuição acumulada dos retornos mostrava que a probabilidade de ocorrência de retornos extremos era maior que no caso de uma distribuição normal, o que indicava a existência do efeito caudas pesadas.

Com isso, verifica-se ser pouco confiável a aceitação prévia da hipótese de que os retornos diários das variáveis de mercado seguem uma distribuição de probabilidades do tipo

(31)

normal. Menos confiável ainda, conforme o estudo relatado por Finger (1997), a hipótese de uma distribuição de probabilidades do tipo normal para opções.

A literatura de finanças não indica de forma direta qual a metodologia mais adequada para avaliar o risco de um portifólio que contenha somente instrumentos não lineares, porém ressalta grandes restrições as metodologias que desprezam a captura das características de não normalidade e de não linearidade7 e apresenta uma série de testes empíricos, conforme citados neste trabalho, onde a metodologia da Simulação de Monte Carlo apresenta os melhores resultados na determinação da exposição de um portifólio de opções. De acordo com esta metodologia, uma trajetória futura dos preços do ativo-objeto seria modelada e o valor do portifólio, constituído somente por opções, seria reavaliado aos vários preços simulados para o ativo-objeto ao longo da trajetória. As críticas recentes surgidas a este método se atêm basicamente a sobrecarga computacional e ao tempo demandado para a simulação. A mais forte crítica a este método, porém, encontra-se no fato da escolha arbitrária da futura distribuição que o ativo-objeto irá seguir, o que pode trazer como conseqüências, de acordo com Barone-Adesi, Giannopoulos e Bourgoin (2000), a destruição de valiosas informações sobre a distribuição passada dos retornos dos portifólios. Os autores ressaltam que, de um modo geral, a simulação de Monte Carlo impõe a estrutura de risco que o método supõe investigar. Com isso, a confiança em um modelo estocástico específico ou em modelos de precificação previamente definidos pode levar ao risco de modelo. Jorion (1997) também aborda o problema do risco de modelo na metodologia Monte Carlo e destaca que, caso se considerasse um grande número de

7 Conforme críticas de Estrella (1996), Jorion (1997), Pritsker (1997), Hull and White (1998) e Coronado

(32)

variáveis estocásticas, como a variação temporal de volatilidade e os cenários extremos, que seriam os melhores casos de previsibilidade do modelo, o custo financeiro e computacional inviabilizaria o processo.

Barone-Adesi, Giannopoulos e Volsper (2000) desenvolveram um modelo de VaR que pôde trabalhar com a não-normalidade dos retornos de ativos, com informações sobre a distribuição passada dos retornos e com a heterocedasticidade no cálculo do Valor em Risco de opções e portifólios de opções.

Inicialmente, a volatilidade de cada ativo-objeto da opção contida no portifólio era modelada separadamente, por um processo GARCH, construindo-se uma trajetória estimada de volatilidade para cada ativo-objeto, conforme a expressão:

2 1 2 1 1 2 1         t t t t t r d r h h     (1)

Onde: ht é a variância no momento t

rt é o retorno no momento t

esão parâmetros de GARCH

 é o parâmetro de GARCH relativo à assimetria

dt é uma variável dummy igual a 1 se yt é negativo e 0, em caso contrário.

A partir daí, os autores regressionavam os retornos passados de cada ativo-objeto, para uma janela de 1000 dias úteis, em função do retorno e da volatilidade do dia anterior e do

(33)

ativo livre de risco, gerando uma série de resíduos de retorno que seriam a parte não explicável do modelo de regressão, com premissa estatística de distribuição normal. Como exemplo desta regressão, a distribuição dos retornos apresentada foi modelada por um processo ARMA (1,1) descrito como:

t t t

t r

r  1  1  (2)

Onde: rt é o retorno no momento t

esão parâmetros da regressão

t é o parâmetro de resíduo da regressão dos retornos.

Estes resíduos eram divididos pela volatilidade calculada pelo modelo GARCH, estimada na mesma data em que eles foram colhidos, o que gerava uma distribuição independente e identicamente distribuída de resíduos de retorno padronizados, de acordo com a seguinte fórmula:

Zt =

t

h

t (3)

Onde: t é o resíduo da regressão dos retornos

ht é a variância diária dos retornos do ativo-objeto obtidos por GARCH

(34)

Estes resíduos de retornos padronizados eram colhidos aleatoriamente e com reposição pela técnica do bootstrap e a seguir, multiplicados pela volatilidade modelada pelo processo GARCH do dia que se queria prever, a fim de serem ajustados para as condições correntes de mercado. Estes resíduos iriam compor a parte aleatória do retorno futuro do ativo-objeto. A parte explicável seria a resultante do modelo de regressão. Este procedimento recursivo era então repetido para cada dia até que o holding period fosse alcançado, gerando uma trajetória de preços futuros do ativo-objeto. Todo o processo era repetido 10.000 vezes.

No caso de portifólios, a seleção dos resíduos de retorno padronizados, dos ativos-objeto que compunham o portifólio, era feita em uma mesma data da base de dados, de maneira a manter o co-movimento que existia entre os ativos-objeto a cada dia.

Desta forma, obtínhamos o preço futuro do ativo-objeto. Para precificar a opção, aplicava-se a fórmula de Black&Scholes, pois aplicava-se partia da premissa, do método de regressão, de que os resíduos de retornos regressionados eram normais. Conseqüentemente, gerava-se por este método uma distribuição normalizada de valores do ativo previstos para o holding

period, com sua correspondente variância prevista pela modelagem GARCH. O VaR da

opção era obtido através da leitura direta dos piores retornos para um dado percentil da distribuição empírica.

Esta metodologia foi denominada de Simulação Histórica Filtrada.

A mais severa crítica ao método da Simulação Histórica Filtrada foi feita por Bellini e Talamanca (2001), que afirmaram que a modelagem GARCH só pode ser considerada

(35)

correta se a distribuição for aproximadamente normal. Neste aspecto, a metodologia da Simulação Histórica Filtrada apresenta a incoerência de não considerar uma distribuição específica para os retornos do portifólio, mas modelar a volatilidade dos retornos por um processo que é considerado paramétrico.

Hull e White (1998-B) afirmam que as mais comuns aproximações utilizadas para modelar a não normalidade em retornos observados de séries temporais têm sido assumir que, embora os retornos incondicionais não sejam normais, os retornos são condicionalmente normais. Dessa forma, existem três modelos amplamente utilizados na literatura para adequar estes retornos: Modelos GARCH, Modelos de Saltos Difusos Misturados e Modelos de Markov. Nos modelos GARCH ou nos modelos de volatilidade estocástica, os retornos são normais condicionais conhecendo-se a variância corrente. Nos modelos de Saltos Difusos Misturados, os retornos são normais condicionais não havendo os saltos. Nos modelos de Markov, os retornos são normais condicionais conhecendo-se o valor corrente das variáveis. Dessa forma, os modelos desenvolvidos permitem a utilização das propriedades da distribuição normal. Barone-Adesi, Giannopoulos e Volsper (2000) se utilizam, neste trabalho, da adequação de que os retornos condicionais são normais e que sua variância pode ser modelada por um processo GARCH.

A Simulação Histórica Filtrada surgiu na tentativa de refinar a metodologia de Simulação Histórica Tradicional, absorvendo suas vantagens e corrigindo suas principais falhas.

Mollica (1999) afirma que a metodologia de Simulação Histórica Tradicional é o método de abordagem mais direta e intuitiva para o cálculo do Valor em Risco de uma carteira de

(36)

ativos. A técnica consiste em aplicar os pesos atuais de cada ativo do portifólio às respectivas séries históricas dos retornos destes ativos, para obter uma série histórica dos retornos do portifólio.

Em seguida, constrói-se a distribuição empírica destes retornos, da qual se obtém o VaR ao nível de significância desejado no percentil equivalente. Por exemplo, numa série de 1000 observações de retornos da carteira, o VaR a 95% de confiança é a perda que excede 5% dos dias, isto é, a 5maior perda na carteira.

Este método é relativamente simples de implementar e tem uma série de atrativos. Em primeiro lugar, trata-se de uma técnica em que não é necessária a estimação de nenhum parâmetro, como volatilidades e correlações, para obtenção do VaR. Com isso, evita-se problemas de modelagem e erros de estimações destes parâmetros. Outra vantagem do método de Simulação Histórica, é que ele dispensa qualquer hipótese a priori sobre a distribuição dos retornos dos ativos. Segundo Jorion (1997), o método incorpora as características específicas de cada série, como o excesso de curtose e assimetrias das distribuições, freqüentemente negligenciadas por outros modelos. Além disso, como o retorno do portifólio está sendo calculado em cada instante do tempo, o método também considera de forma implícita os efeitos de não linearidades, tais como o risco Gama. Por último, os recursos computacionais atualmente disponíveis tornam extremamente simples sua implementação.

(37)

Papageorgiou e Paskov (1999) apontam algumas críticas ao método de Simulação Histórica em relação ao método tradicional de simulação de Monte Carlo, dentre elas, a suposição de que a distribuição passada dos retornos pode representar a futura distribuição, ou seja, o método considera a distribuição como estacionária, além de apresentar uma grande sensibilidade dos resultados em relação à extensão do período histórico. Jorion (1997) acrescenta outras críticas: o fato do método não tratar de forma adequada as situações com volatilidade temporariamente elevada e o fato do método ponderar igualmente todas as observações na janela, inclusive os dados mais antigos.

O método da Simulação Histórica Filtrada corrigiu as principais falhas apontadas na literatura para o método de Simulação Histórica. Em relação à crítica de que a Simulação Histórica supõe que a distribuição passada dos retornos representa a futura distribuição, o método da Simulação Histórica Filtrada corrige esta deficiência permitindo que se modele o comportamento futuro dos ativos por outro modelo qualquer, como por exemplo, o movimento browniano geométrico, adotado nesse trabalho. Em relação à grande sensibilidade dos resultados em relação à extensão do período histórico, o método da Simulação Histórica Filtrada diminui esta deficiência ao trabalhar com resíduos padronizados de retornos passados colhidos aleatoriamente por um processo de bootstrap com reposição, o que reduz a influência da extensão do período histórico sobre a capacidade de previsão do método. Em relação ao fato da Simulação Histórica não tratar de forma adequada às situações com volatilidade temporariamente elevada, o método da Simulação Histórica Filtrada corrige totalmente esta falha, ao multiplicar os resíduos padronizados de retornos passados pela volatilidade prevista pelo modelo GARCH do dia em que se quer prever o retorno do ativo-objeto. Por último, em relação à crítica de que o

(38)

método de Simulação Histórica pondera igualmente todas as observações na janela, inclusive os dados mais antigos, o método Simulação Histórica Filtrada utiliza uma distribuição independente e identicamente distribuída de resíduos de retorno padronizados, o que diminui a importância da antiguidade da observação sobre o poder de previsão do método, devido a forte influência da série de volatilidade prevista pelo modelo GARCH.

Trabalhos anteriores aos da Simulação Histórica Filtrada também propuseram soluções semelhantes às apresentadas por esta metodologia.

Duffie e Pan (1997) propõem um bootstrap com dados de retorno históricos, como a melhor maneira de capturar correlações, volatilidades, caudas gordas e assimetria dos retornos, que são características presentes empiricamente em séries de retorno de variáveis de mercado e de maneira a evitar a necessidade de parametrizar e estimar modelos matemáticos, com os conseqüentes custos e perigos de erros para o cálculo do Valor em Risco. A fim de considerar as características de não estacionaridade da série, os autores propõem ainda atualizar os retornos passados, dividindo-os pela volatilidade do momento em que os dados foram colhidos e multiplicando-os pela volatilidade do momento em que se pretende fazer a previsão.

Cunha Júnior et al (2001) ressaltam as vantagens do bootstrap para precificação, na medida em que ele pode ser aplicado em situações complicadas onde a modelagem paramétrica ou a análise teórica não pode ser aplicada. Os autores afirmam ainda que, dado que a finalidade do VaR é capturar o comportamento das caudas e que a amostra histórica

(39)

apresenta caudas mais pesadas do que a distribuição normal, o método de bootstrap satisfaz muito bem ao conceito de Valor em Risco.

Hull e White (1998-B) também propuseram um procedimento semelhante ao método da Simulação Histórica Filtrada que consistia em modelar a volatilidade da série usando um modelo GARCH ou EWMA e conjugar com o método da Simulação Histórica para o cálculo do Valor em Risco. Ao invés de usar as mudanças percentuais históricas das variáveis de mercado para o processo de bootstrap e simulação, os autores propõem ajustar as mudanças históricas pela razão da volatilidade corrente do momento em que se quer fazer a previsão, e a volatilidade do momento em que se fez a observação.

Os autores compararam esta metodologia com a de Simulação Histórica e com a de Boudoukh, Richardson e Whitelaw (1998) – aqui denominada de BRW – que consistia em uma Simulação Histórica onde a série de observações histórica era ponderada, de maneira a dar mais pesos para as observações mais recentes. Nesta metodologia, para se determinar um determinado percentil da distribuição de probabilidade era necessário ordenar as observações e, iniciando da menor, acumular pesos até o percentil ser alcançado.

A comparação entre as três metodologias foi feita com dados de 12 moedas estrangeiras e 5 índices de ações, entre 4 de janeiro de 1988 e 15 de agosto de 1997, e o objetivo dos autores foi escolher o método que, para uma determinada média de capital investido, maximizasse a proteção contra perdas. A distribuição de probabilidades dos dados passados, para os três métodos comparados e para todas as variáveis de mercado, foi feita com base nos 500 dias mais recentes de dados passados.

(40)

Os autores verificaram que, no método da Simulação Histórica, a necessidade de adequação de capital ficava inalterada por longos períodos de tempo, devido à extensão do período histórico, enquanto que, no método proposto por eles, a adequação de capital era determinada pelas estimativas de volatilidade e, portanto, muito mais sensível às recentes variações.

Para posição comprada em moeda estrangeira, a adequação de capital para o método BRW era em média 11% menor do que para a Simulação Histórica e a adequação de capital para o método dos autores era em média 7.8% menor do que para a Simulação Histórica. Para posição comprada em índice de ações a adequação de capital para o método BRW era em média 0.2% maior do que para a Simulação Histórica e a adequação de capital pelo método dos autores era em média 6.7% maior do que para a Simulação Histórica.

Foram calculados ainda, os percentis de 99% e 99.5% para holding period de 1 e de 10 dias. O método de Hull e White, com volatilidade estimada por um método EWMA, apresentou melhores resultados do que o BRW para os dois conjuntos de ativos analisados e em relação ao método da Simulação Histórica, apresentou melhores resultados para moedas estrangeiras. Para os índices de ações, os resultados do método proposto pelos autores apresentaram melhores resultados para holding period de 1 dia, mas piores resultados para holding period de 10 dias.

Pritsker (2001) analisa o método da Simulação Histórica Filtrada destacando seus pontos-chave para se obter uma precisão na obtenção do Valor em Risco. O autor destaca que o método é superior a metodologia BRW e a Simulação Histórica Tradicional, por ter

(41)

características que aprimoram significativamente os resultados em relação aos métodos de matriz de variância-covariância e aos métodos de Simulação Histórica atualmente utilizados no mercado.

Para analisar as limitações do método da Simulação Histórica Filtrada, o autor trabalhou com dados de moedas estrangeiras de janeiro de 1973 a junho de 1986. Uma importante suposição do método é que as correlações do conjunto de dados filtrados são constantes ao longo do tempo. Testes estatísticos aplicados pelos autores sugeriram que as mudanças nas correlações ao longo do período foram estatisticamente significantes, com isso o bootstrap colheu observações com correlações diferentes das correlações do momento que se queria prever. O autor afirma que isto pode ter o efeito de fazer posições de risco aparecerem hedgeadas ou posições hedgeadas aparecerem como posições de risco. O autor aponta duas alternativas para o problema em questão, a primeira seria modelar estruturas de correlação variável com o tempo, como em modelos GARCH multivariados. A segunda seria encurtar o período da extensão dos dados passados, com a conseqüência de uma eventual perda de informações não paramétricas importantes sobre as caudas da distribuição de probabilidades.

Em relação a esta segunda solução, o autor analisou uma possível fonte de erro do modelo que poderia ser causado pela extensão de dados passados. Sua conclusão é que, para amostras históricas de dados filtrados até 500 observações, há uma tendência para que o modelo subestime o risco, devido a pouca quantidade de extremos na distribuição dos dados a serem coletados pelo bootstrap. Neste aspecto, uma maior extensão de dados

(42)

passados pode melhorar a metodologia, permitindo uma maior quantidade de observações extremas na distribuição.

Barone-Adesi, Giannopoulos e Volsper (2000) testaram a metodologia da Simulação Histórica Filtrada em portifólios reais de derivativos. O objetivo era seguir as recomendações do BIS na avaliação do risco para 4 diferentes níveis de confiança (0.95; 0.98; 0.99 e 0.995) e para 5 diferentes holding periods (1; 2; 3; 5 e 10 dias). A análise era baseada em 2 critérios: estatístico e econômico. O primeiro examinava a freqüência e o padrão de perdas excedentes do Valor em Risco, previstos pela Simulação Histórica Filtrada. O segundo examinava as implicações destas diferenças, em termos econômicos, com referência ao Valor em Risco total alocado. Foram utilizados dois anos de dados históricos dos ativos-objeto para calibrar o modelo GARCH e para construir a base de dados necessária para a simulação.

A primeira bateria de backtests foi aplicada para portifólios de futuro de taxa de juros e opções no período de 4 de janeiro de 1996 a 12 de novembro de 1997. Os autores compararam os lucros e perdas efetivamente realizadas com as previstas pela sua metodologia para 216 portifólios. Foi observado que, exceto para níveis de confiança muito altos (0.99 e 0.995) e curtos holding periods (1; 2; 3), os resultados da aplicação da metodologia produziram uma estimativa dentro dos limites considerados para o Valor em Risco, ou seja, as perdas previstas pela metodologia foram excedidas pelo valor efetivo dentro de uma certa porcentagem correspondente ao nível de confiança definido. Os autores fizeram uma segunda simulação, modelando o comportamento futuro da volatilidade como estocástico, e encontraram resultados semelhantes. Exceto para os mesmos níveis de

(43)

confiança anteriores e holding period (1; 2), os resultados ficaram dentro dos limites considerados para o Valor em Risco.

A segunda bateria de backtests foi aplicada para 24 portifólios de swaps de 4 moedas estrangeiras, no mesmo período que o anterior, para maturidades variando de 2 a 10 anos. Foi observado que todos os resultados da aplicação da metodologia produziram uma estimativa dentro de cada intervalo de confiança previamente definido para o cálculo do Valor em Risco.

A última bateria de backtests foi aplicada para portifólios contendo futuros, opções e swaps para o mesmo período. Neste caso, os resultados também produziram uma estimativa dentro de cada intervalo de confiança previamente definido para o cálculo do Valor em Risco.

Os autores encontraram ainda, uma tendência do modelo para superestimar o risco no caso de holding periods mais longos. Esta observação foi constatada tanto para opções isoladas, como para portifólios de opções. Para holding periods curtos foi verificada a maior acurácia da metodologia.

Gibson (2001) produziu um trabalho sobre o risco de evento, comparando as metodologias de Simulação Histórica, a metodologia de Boudoukh, Richardson e Whitelaw (1998), a Simulação Histórica Filtrada e a de matriz de variância-covariância. Risco de evento é o risco do valor do portifólio ser afetado por largos movimentos nos preços de mercado. No caso de ações, risco de evento é sinônimo de caudas gordas e movimentos de saltos e é um

(44)

dos elementos defendidos pelos órgãos regulamentadores de risco como componente do risco de mercado. O autor afirma que, na teoria, um bom modelo de VaR deve capturar simultaneamente a variação da volatilidade com o tempo e as caudas gordas, e que a maioria dos modelos só conseguem capturar o primeiro em detrimento do segundo.

Segundo o autor, a Simulação Histórica Filtrada se constitui no melhor método, dos utilizados no trabalho, para a análise do risco de evento, por utilizar dados recentes para capturar a variação da volatilidade com o tempo, através de um processo GARCH, e ao mesmo tempo trabalhar com uma ampla base de dados para cada ativo, suficiente para capturar os movimentos nas caudas.

Terazzan, Berardi e Tebaldi (2001) compararam a performance do método de Simulação Histórica Filtrada com o método de Simulação Histórica convencional, para um período de 6 anos dos retornos do índice Mib308 de 1994 a 2000. Os primeiros 3 anos foram utilizados para construir o banco de dados e foi considerado um holding period de 10 dias com 5 diferentes níveis de confiança (95%, 96%, 97.5%, 99%, 99.5%). Todo dia havia uma simulação para os próximos 10 dias, gerando 7120 dados para o backtesting. Os autores verificaram que todos os resultados produzidos pela metodologia da Simulação Histórica Filtrada ficaram dentro dos limites do teste de Kupiec e foram muito superiores aos da Simulação Histórica convencional. Os autores verificaram ainda que o método da Simulação Histórica Filtrada, utilizando a volatilidade dos dados de alta freqüência com

8 O índice MIB é um índice de capitalização ponderado das ações das 30 maiores empresas italianas

(45)

intervalo de 30 minutos nos retornos, produziu resultados consideravelmente melhores do que pela metodologia que utilizava a volatilidade modelada por um processo GARCH.

Os trabalhos mais recentes considerando a metodologia da Simulação Histórica Filtrada são apresentados a seguir por Pallotta e Zenti (2002) e Fierli (2002).

Pallotta e Zenti (2002) discutiram e compararam os diferentes caminhos para lidar com o problema de se calcular o Valor em Risco para grandes holding periods, ao contrário dos trabalhos tradicionais que se limitam a analisar horizontes de 1 e 10 dias. Os autores afirmam a necessidade de considerarmos prazos mais longos, pois estes fazem parte da realidade das instituições bancárias. O autor comparou métodos paramétricos de matriz de variância-covariância, Simulação Histórica tradicional, metodologias de bootstrap, o método sugerido por Hull e White (1998), comentado anteriormente neste Capítulo, e o método de Simulação Histórica Filtrada.

Foram comparadas as medidas de Valor em Risco com nível de confiança de 95% e

holding period de 1 mês para os seguintes índices: MSCI USA, MSCI Far East, MSCI

EMF, MSCI Italy, MSCI Consumer Goods, MSCI Capital Equipment, J.P. Morgan US Govt. Bond, J.P. Morgan Italy Govt. Bond, MSCI World e J.P. Morgan Global Govt. Bond. O período estudado foi de 1/1/1990 a 5/5/2000.

O Valor em Risco para o mês da previsão, em todos os métodos estudados, foi estimado com base em uma janela de 18 meses, sendo que a cada dia o resultado gerado era comparado com o valor observado e o procedimento repetido, movendo-se um dia na

(46)

janela. As metodologias foram julgadas com base na sua capacidade de previsão de risco e após o experimento foi aplicado o teste de proporção de falhas de Kupiec (1995).

Os resultados indicaram que poucos métodos apresentaram acurácia em relação ao teste de proporção de falhas, basicamente devido ao horizonte relativamente longo usado no trabalho. O método da Simulação Histórica e o da Simulação Histórica Filtrada foram as técnicas que apresentaram o maior número de sucessos no teste indicado.

Os autores verificaram ainda se alguns dos métodos apresentavam algum poder de sinalizar mudanças no risco do mercado, a fim de auxiliar asset managers para que pudessem reagir de maneira adequada aos movimentos nos retornos dos ativos. O método que se mostrou mais propenso às estimativas de variação de risco foi o método da Simulação Histórica Filtrada.

O autor conclui afirmando que o método da Simulação Histórica Filtrada provê satisfatória assessoria nos riscos do portifólio e que gera cenários de médio e longo prazo confiáveis, levando em conta a heterocedasticidade, a correlação serial e as características específicas das séries financeiras.

Fierli (2002) trabalhou com um portifólio composto por ações de empresas de biotecnologia e opções de índices listados na bolsa de Nova York. O período estudado foi de 07/06/1999 a 30/05/2001. A escolha das ações foi motivada pela grande volatilidade destes ativos e por grandes perdas passadas ocasionadas em momentos de crash da bolsa, o que capacitou o autor a observar a sensibilidade dos métodos de medida do Valor em Risco

Referências

Documentos relacionados