• Nenhum resultado encontrado

P ARAMETRIZAÇÃO DO G RANDE C ANÔNICO M INORITY GAME (GCMG)

Definição 4 : O coeficiente de aglomeração de um gráfico G é dado pela média de

3.4. P ARAMETRIZAÇÃO DO G RANDE C ANÔNICO M INORITY GAME (GCMG)

Para introdução da troca de informações locais através da utilização de uma estrutura de rede complexa, modificamos o algoritmo do modelo GCMG conforme descrito a seguir:

1. No início do processamento, que simboliza o início das atividades no mercado, cada agente recebe aleatoriamente s estratégias para serem utilizadas no decorrer do tempo.

2. Antes da simulação do modelo é gerada uma rede estática utilizando uma estrutura de rede complexa para conectar os agentes. Pensando no mundo real, essa rede poderia ser formada através: internet, intranet, telefonia, ou qualquer outra forma de interação entre os agentes.

3. Em cada intervalo de tempo, antes do início das atividades do mercado, as estratégias dos agentes mais bem informados são herdadas pelos seus vizinhos menos bem informados. As estratégias do imitador é substituída pelas estratégias do imitado, gerando o fenômeno conhecido como efeito manadana dinâmica do sistema.

As estratégias são herdadas seguindo um dos dois algoritmos apresentados na seção 3.2 desse capítulo.

As simulações do modelo GCMG em nosso trabalho seguem as principais referências, por exemplo Johnson et al. (2003) e Jefferies et al. (2001). E na parte da imitação, segue o

nosso primeiro e segundo algoritmo de imitação descrito na seção 3.2 deste trabalho. Os parâmetros de configuração do modelo estão dispostos a seguir:

1. Número de agentes (N) igual a 101 ou 501, para permitir a análise da influência do número de agentes na dinâmica do modelo.

2. O intervalo de tempo escolhido é de T = 500 intervalos de tempo, é um período suficiente tendo em vista diversos mercados do mundo real. Economicamente falando, esse intervalo de tempo poderia ser o tempo de maturidade de uma ação no mercado de opções. Poderia ser medido em minutos, horas, dias, meses etc.

3. A memória disponível para que os agentes tomem suas decisões m é de 3 e 6 intervalos de tempo, para permitir a análise da influência da memória dos agentes na dinâmica do modelo. Em se tratando de um mercado de taxa de câmbio, os agentes teriam acesso às 3 ou às 6 últimas cotações da moeda para formarem suas opiniões quanto às cotações futuras.

4. O número de estratégias dos agentes é fixado em duas, assim o agente tem a opção de escolher a sua melhor estratégia, incorporamos aqui racionalidade nos agentes.

5. A contagem mínima para que um agente participe dos negócios é r = 4 (JOHNSON et al., 2003). Ou seja, se a recompensa da melhor estratégia do agente lhe render um escore superior a 4, ele participa do mercado, caso contrário ele não participa.

6. O índice de mercado l é fixado em 0,001 (JOHNSON et al., 2003).

Em todas as simulações do modelo GCMG utilizamos os dois algoritmos de imitação de estratégias descritos na seção 3.2 deste capítulo, e as seguintes configurações das redes complexas:

i. Rede aleatória com o parâmetro p = {0.1, 0.2, 0.3, 0.4, 0.5}; ii. Rede aleatória com o parâmetro p = {0.1, 0.2, 0.3, 0.4, 0.5};

iii. Rede small-world com os parâmetros k = 16 e p = {0.1, 0.2, 0.3, 0.4, 0.5}; iv. Rede scale-free com os parâmetros µ0= 10 e µ = {1, 2, 4, 6, 8}.

4.

R

ESULTADOS

Neste capítulo são apresentados os principais resultados deste trabalho. Na seção 4.1 são apresentados os resultados do minority game padrão e na 4.2, os resultados do grande canônico minority game.

4.1.M

INORITY GAME

P

ADRÃO

(MG)

As Figuras 4.1, 4.2, 4.3, 4.4, 4.5, 4.6, 4.7 e 4.8 apresentam os principais resultados das simulações deste modelo conforme parametrização descrita no capítulo 3, uma versão preliminar dessa seção fui publicada em Cajueiro e De Camargo (2006). Em todas as figuras, nós plotamos

2/ N

 como uma função de 2 /m N

  para o mercado de lançamento de moeda (coin toss market), para o minority game padrão e para o minority game modificado com a presença de imitação. A diferença entre eles é o algoritmo utilizado para emular a imitação e a estrutura de vizinhança onde em cada figura a vizinhança é construída por uma estrutura de rede diferente. Nas figuras 4.1, 4.2, 4.3 e 4.4 utilizamos o primeiro algoritmo para prover a imitação, onde a imitação se restringe à vizinhança. Nas figuras 4.5, 4.6, 4.7 e 4.8 utilizamos o segundo algoritmo para prover a imitação, onde a imitação não fica restrita à vizinhança. Em todas as figuras, o número de agentes N = 101, o número de estratégias s = 2 e horizonte de tempo T = 10000.

Em primeiro lugar, notamos que em todos os casos a presença de imitação torna a volatilidade do minority game modificado maior do que a volatilidade do MG padrão. Isto acontece porque a presença de imitação gera no MG, como por exemplo, grandes grupos de

agentes usando as mesmas estratégias. Este fato foi estudado na teoria econômica por Lee (1998) e na física por Johansen e Sornette (1997), ambos mostram que imitação pode ser a fonte de largos movimentos de preços e também crashes.

Comparando as figuras 4.1, 4.2, 4.3 e 4.4 e as figuras 4.5, 4.6, 4.7 e 4.8 fica fácil notar que o segundo algoritmo gera um MG com cooperação entre agentes meno s eficientes que os apresentados no primeiro algoritmo. Isto é fortemente relacionado com o fluxo de informação e com o grau de imitação presente no algoritmo.

Em todas as figuras, até certo ponto da presença de imitação, a inclinação da fase de memória-baixa não é modificada, e esta fase está clara em quase todas as simulações. Isto pode ser interpretado facilmente. No MG padrão Savit et al. (1999) dizem que a fase de memória-baixa é caracterizada por uma fase abarrotada onde o número de estratégias é pequeno quando comparado ao número de agentes. A presença de imitação só reforça este fato. Porém, se a presença de imitação é muito forte, então parte da fase de memória-baixa é substituída numa linha horizontal. Isto significa que o agrupamento é tanto que o número adicional de estratégias introduzido não é bastante para reduzir isto.

Por outro lado, em todas as figuras, quando o fenômeno do comportamento de imitação emerge, a fase de memória -alta é altamente afetada, apesar do número de estratégias serem enormes, isto acontece porque o número de estratégias que os agentes de fato usam é pequeno quando comparado com o número total de agentes.

Além disso, nota-se que o valor dec é quase o mesmo em todas as simulações quando o comportamento de imitação está presente. Porém, o valor de cnesta situação é maior que o

valor encontrado no MG padrão. Por outro lado, em todas as simulações, o valor de c aumenta quando a conectividade da vizinhança aumenta.

Figura 4.1: A razão2/ N como uma função de 2 /m N. Comparando o MG padrão com o MG modificado utilizando rede regular e o primeiro algoritmo. Para N = 101; s = 2 e T = 10000.

Figura 4.2: A razão2/ N como uma função de 2 /m N . Comparando o MG padrão com o MG modificado utilizando rede aleatória e o primeiro algoritmo. Para N = 101; s = 2 e T = 10000.

Figura 4.3: A razão2/ N como uma função de 2 /m N. Comparando o MG padrão com o MG modificado utilizando rede smal -world e o primeiro algoritmo. Para N = 101; s = 2 e T = 10000.

Figura 4.4: A razão2/ N como uma função de 2 /m N . Comparando o MG padrão

Figura 4.5: A razão2/ N como uma função de 2 /m N. Comparando o MG padrão com o MG modificado utilizando rede regular e o segundo algoritmo. Para N = 101; s = 2 e T = 10000.

Figura 4.6: A razão2/ N como uma função de 2 /m N . Comparando o MG padrão com o MG modificado utilizando rede aleatória e o segundo algoritmo. Para N = 101; s = 2 e T = 10000.

Figura 4.7: A razão2/ N como uma função de 2 /m N . Comparando o MG padrão com o MG modificado utilizando rede smal -world e o segundo algoritmo. Para N = 101; s = 2 e T = 10000.

Figura 4.8: A razão2/ N como uma função de 2 /m N . Comparando o MG padrão com o MG modificado utilizando rede scale-free e o segundo algoritmo. Para N = 101; s = 2 e T = 10000.

Documentos relacionados