• Nenhum resultado encontrado

Lista de Acrónimos

Capítulo 3 Aspetos metodológicos 3.1 Introdução

3.4 Modelação de ligações de longo prazo entre os mercados

Para analisar as ligações de longo prazo entre os mercados bolsistas internacionais, recorremos à análise de componentes principais, que é uma técnica estatística multivariada, usada com frequência no estudo de comovimentos dos mercados bolsistas globais. Esta técnica permite combinar diversos mercados bolsistas, em distintos clusters ou combinações de componentes principais, em função de similaridades nos seus comovimentos. Em termos de diversificação internacional da carteira de investimentos, mercados que apresentem padrões de comovimento semelhantes não oferecem boas possibilidades de diversificação.

Considere-se um conjunto de n séries de rendibilidades, resumidas na matriz T×n de X, e

V como a matriz de covariâncias de X. As componentes principais de V são as colunas

n

T× , da matriz P, definida por P =XW, em que W é a matriz ortogonal, de tamanho n

n× , dos valores próprios (eigenvalues) de V. O sistema original das rendibilidades correlacionadas é transformado num sistema de rendibilidades ortogonais P, não correlacionadas entre si, as chamadas componentes principais.

O principal interesse da análise de componentes principais é o de utilizar apenas um conjunto reduzido de componentes principais, para representar as variáveis originais X. Com este objetivo, W é ordenada de modo a que a sua primeira coluna tenha o maior valor próprio de

V, a segunda coluna de W tenha o segundo maior valor próprio de V, e assim sucessivamente.

A mésima componente principal é a mésima coluna de P, ou seja, a coluna derivada da

ésima

m− coluna de W. Quando as colunas de W são ordenadas, como referido anteriormente, o somatório do quadrado dos elementos, na componente principal, é o maior

ésimo

m− valor próprio de V, dado por λm. A variação total, em X, é dada pelo somatório dos valores próprios de V, λ12K+λn, e a proporção desta variação total, que é explicada

pela mésima componente principal, é dada pela expressão λm

(

λ1+K+λn

)

−1. Entre estas,

a primeira componente principal k mede a proporção da variação total no sistema, sendo dada pela relação

n k λ λλ + +λ + + K K 1 1 .

A escolha de k , pode ser feita para capturar uma proporção fixa da variação. Em alternativa, esta escolha define o número de componentes principais, para depois se procurar que parte da variação pode ser capturada por estas componentes.

Quando as primeiras k colunas de P são utilizadas como colunas de uma matriz P , * T×k, ajusta-se numa aproximação das rendibilidades originais, em termos das primeiras componentes k , com XP* W*´, onde W é a matriz * n×k, cujas k colunas são dadas pelos primeiros

k

valores próprios. Esta aproximação pode ser feita de forma tão precisa quanto desejado, através do aumento de k .

Na seleção das componentes principais, recorre-se ao critério de Kaiser-Meyer-Olkin (KMO), sendo retidas as componentes principais estatisticamente significativas, cujos valores próprios sejam superiores a 1. Para se conseguir uma melhor interpretação das componentes principais, é utilizado o método de Varimax, para efetuar a rotação dos eixos fatoriais. Este método tem como objetivo a obtenção de uma estrutura fatorial, em que cada uma das variáveis se associe fortemente a um único fator e pouco aos restantes fatores.

No âmbito da presente investigação, a análise de componentes principais foi aplicada a cada sub-período separadamente, para se perceber do impacto da crise financeira global nos padrões de comovimento dos mercados bolsistas.

Para avaliar a qualidade dos resultados estimados, recorremos a três metodologias, designadamente o critério de Kaiser-Meyer-Olkin, o teste de esfericidade de Bartlett e a matriz anti-imagem:

i) O critério de adequação de Kaiser-Meyer-Olkin, proposto por Kaiser (1970) e Kaiser e Rice (1974), mede a homogeneidade das variáveis, através da comparação das correlações simples com as correlações parciais, variando a respetiva estatística entre zero e um. De acordo com Sharma (1986) e Pestana e Gageiro (2000), a qualidade da análise de componentes principais pode aferir-se pela tabela 3.1.

Tabela 3.1: Qualidade da análise de componentes principais

Valor do critério de KMO Recomendação relativamente à análise

]

0,9−1,0

]

Excelente

]

0,8−0,9

]

Boa

]

0,7−0,8

]

Média

]

0,6−0,7

]

Medíocre

]

0,5−0,6

]

Mau, mas ainda aceitável

5 , 0

≤ Inaceitável

ii) O teste de esfericidade de Bartlett, testa a hipótese nula da matriz de correlações ser a matriz identidade, contra a hipótese alternativa da matriz de correlações ser diferente da matriz identidade;

iii) A matriz anti-imagem avalia a adequação de cada variável na análise de componentes principais. Valores pequenos de uma variável, inferiores a 50%, na diagonal principal da matriz anti-imagem, podem conduzir à eliminação dessa variável da análise. Em termos de utilização da análise de componentes, os valores da diagonal principal deverão ser elevados, enquanto os valores fora da diagonal, que expressam o simétrico da matriz de correlações, deverão ser pequenos (Pestana e Gageiro, 2000).

3.5 Síntese do capítulo

Nas últimas décadas, a modelação e a análise dos mercados financeiros foram intensamente investigadas e receberam uma considerável atenção por parte dos participantes de mercado. Esta intensa investigação reflete a importância da volatilidade no âmbito do investimento e da gestão do risco. É reconhecido por profissionais e académicos que a volatilidade não é diretamente observável, mas também que a volatilidade dos ativos financeiros exibe clusters de volatilidade, efeito assimétrico e excesso de volatilidade. Para capturar as características da volatilidade, foram desenvolvidos diversos modelos e metodologias. Zimmermann et al. (2003) desenvolveram uma metodologia para diferenciar a volatilidade, em função da ocorrência de ambientes de subida e de descida dos mercados. Alizadeh et al. (1999), Parkinson (1980), Garman e Klass (1980) e Rogers e Satchell (1991) desenvolveram estimativas de volatilidade que consideram informação intradiária, acerca da trajetória dos preços dos ativos, que os modelos baseados na rendibilidade diária não permitem incorporar.

Os modelos econométricos tradicionais baseiam-se no pressuposto de homocedasticidade. Contudo, em diversas situações, tal pressuposto não traduz a realidade. Engle (1982) propôs o modelo autorregressivo de heterocedasticidade condicionada (ARCH), que acomoda a variabilidade da volatilidade. De acordo com este modelo, a variância condicional da taxa de rendibilidade de um ativo financeiro é variável no tempo e é função linear dos erros quadráticos desfasados. Mais tarde, Bollerslev (1986) apresentou o modelo GARCH, que é uma generalização do modelo ARCH, e que permite ultrapassar a principal limitação deste último, que é pouco parcimonioso, permitindo também acomodar o fenómeno dos clusters de volatilidade. Posteriormente, Nelson (1991) propôs a versão exponencial do modelo GARCH

(EGARCH) e Zakoian (1994) propôs o modelo TGARCH. Estas duas propostas permitiram suprir a principal limitação do modelo GARCH, de simetria dos choques sobre a volatilidade, ao considerarem a variância condicional como função assimétrica do vetor dos resíduos. Para estudar a relação entre a rendibilidade esperada e a volatilidade esperada e acomodar o efeito assimétrico sobre a volatilidade, foi desenvolvido o modelo EGARCH-in-Mean (Nelson, 1991), o qual pode pressupor diversas distribuições para os termos dos erros, como são a distribuição normal, a distribuição t-Student e a distribuição dos erros generalizada, entre outras.

Com o objetivo de analisar a transmissão de volatilidade, diversas metodologias têm sido aplicadas. A mais utilizada é a dos modelos autoregressivos de heterocedasticidade condicionada, inspirados no trabalho de Bollerslev (1986), que deram origem ao modelo GARCH-VECH, desenvolvido por Bollerslev et al. (1988).

Para analisar as ligações entre mercados, Erb et al. (1994) desenvolveram uma metodologia, designada por semicorrelações, que ajuda a perceber a ligação linear entre duas variáveis ao longo do tempo, permitindo diferenciar os ambientes de rendibilidades dos mercados, ao contrário da habitual medida de correlação, proporcionada pelo coeficiente de correlação de Pearson, que representa os comovimentos médios, de subidas e descidas dos índices dos mercados. Diversos estudos, acerca do comportamento dos mercados, têm concluído que as ligações lineares entre os mercados aumentam quando estes descrevem movimentos de queda.

Para acomodar a heterocedasticidade condicionada, foram desenvolvidos diversos modelos. Destes, destaca-se o modelo de correlação condicional dinâmica, proposto por Engle (2002) e Tse e Tsui (2002), que permite que a matriz de correlação condicional seja variável no tempo.

Para estudar as interdependências, as dinâmicas e a simultaneidade das interações entre as rendibilidades diárias dos mercados, foi apresentado o vetor autoregressivo (VAR), desenvolvido por Sims (1980), que permite estimar um sistema de equações dinâmicas simultâneas, sem estabelecer restrições prévias na estrutura das relações entre as variáveis. Com base nesta proposta, foram apresentados os testes de causalidade, baseados no procedimento VAR Granger Causality/Block Exogeneity Wald Tests, que avalia a significância conjunta de cada variável endógena desfasada, em cada uma das equações do VAR, mas também a significância do contributo conjunto de todas as variáveis endógenas desfasadas na equação. Recorrendo ainda ao modelo VAR, foram apresentadas as funções de impulso- resposta generalizadas, introduzidas por Koop et al. (1996) e Pesaran e Shin (1998).

Para analisar as ligações e a ocorrência de comovimentos de longo prazo, foi apresentada a análise de componentes principais, que permite agrupar variáveis em distintos clusters de componentes principais, em função da trajetória de movimentos descrita pelas variáveis.

O aumento da complexidade dos produtos financeiros e a ocorrência de fortes perdas financeiras, em consequência de episódios de crise financeira, com impacto à escala global, terá criado a necessidade de apresentação de propostas por parte das entidades reguladoras e de supervisão do sistema financeiro internacional, com vista à credibilização e ao reforço da segurança do sistema financeiro, que culminaria na assinatura das várias versões dos chamados acordos de Basileia. A metodologia privilegiada nestes acordos, como medida do risco de mercado, seria o Value-at-Risk, que se tornaria numa espécie de benchmark na análise e gestão do risco de mercado, fornecendo uma estimativa da perda potencial máxima em que os investidores incorrem, em função da sua exposição às várias posições de investimento. Das diversas metodologias disponíveis para estimação do VaR, selecionámos a abordagem gaussiana, a abordagem t-Student e a teoria do valor extremo. De acordo com diversos autores, a grande vantagem da teoria dos valores extremos, face a outras abordagens, nomeadamente as alicerçadas na distribuição normal, é a de permitir um bom ajustamento às caudas da distribuição das rendibilidades (Reiss e Thomas, 1997; Danielsson e De Vries, 1997; Embrechts et al. 1997; McNeil, 1998). Uma vez que o maior risco que recai sobre uma carteira de investimento é o de uma queda negativa repentina de elevada dimensão, torna-se importante a utilização de uma abordagem que acomode as rendibilidades mais extremas, daí que a teoria dos valores extremos se tenha transformado numa importante peça para estimar o risco de mercado, tendo conquistado grande popularidade em diversas áreas de estudo, designadamente na estimação do VaR.

Capítulo 4 - Aplicação empírica, resultados e discussão