• Nenhum resultado encontrado

COMO CALCULAR PROBABILIDADES DE SUCESSO

N/A
N/A
Protected

Academic year: 2021

Share "COMO CALCULAR PROBABILIDADES DE SUCESSO"

Copied!
10
0
0

Texto

(1)

COMO CALCULAR PROBABILIDADES DE SUCESSO

Por Hindemburg Melão Jr.

http://www.saturnov.com

Há alguns dias foi feita uma otimização do Saturno V 6.1 usando dados do último ano, apenas, e foi constatado que com os mesmos parâmetros desta otimização, ele lucrava na base de dados inteira. Isso, por si, já é impressionante, mas hoje constatamos algo muito mais impressionante e acima das expectativas. Ele pode ser otimizado em qualquer período de 1 ano, desde 1971 até 2010, e os parâmetros dessa otimização continuam servindo para obter lucros no restante da base de 39,6 anos. Em 39 otimizações diferentes, cada qual num período de apenas 1 ano para determinar os valores ótimos dos parâmetros, se consegue obter valores que são válidos para a base inteira de quase 40 anos.

Qual é a probabilidade de isso acontecer por sorte? Intuitivamente podemos estimar que é muito pequena. Mas quão pequena? Em outras palavras: qual é a força desta evidência no sentido de confirmar a funcionalidade desta estratégia?

Há muitas maneiras de se calcular as probabilidades de uma estratégia se manter lucrativa durante determinado tempo. Porém quase todos os métodos para isso são incompletos e repletos de distorções. Incompletos no sentido de não levarem em consideração todos os fatores necessários para o cálculo, inclusive porque muitos fatores não são sequer conhecidos. Outros fatores são extremamente difíceis de se interpretar quantitativamente ou de ponderar a relevância dos tais fatores na predição de estabilidade do desempenho.

Para não ficar no campo dos “achismos” e estimativas “chutadas”, nem usar modelos teóricos que só servem para trabalhos acadêmicos, mas falham grosseiramente no mundo real quando surgem outliers muito distantes da média, decidi desenvolver um método para calcular a probabilidade de um sistema de investimentos alcançar determinado resultado por sorte. Na verdade, o método é exclusivamente para a versão 6.1 do Saturno V, embora possa ser igualmente aplicado a qualquer outro sistema que atenda às mesmas condições, se existir outro assim.

O método consiste em dividir a série histórica numa quantidade suficientemente grande de partes, de modo que cada parte seja também suficientemente extensa e diversificada. Por exemplo: a série de 40 anos pode ser dividida em 40 partes de 1 ano cada, ou 100 partes de 100 dias cada, ou 20 partes de 2 anos cada. Nesse caso, fizemos a divisão em 39 partes de 1 ano cada, pois a base tem 39,6 anos, e cortamos a parte inicial de 1971.

Em seguida, se faz uma otimização em cada uma destas partes. Se a série tiver sido dividida em 40 partes, então se faz otimizações O1, O2, O3... O40.

Por fim, roda-se o sistema usando os valores obtidos para os parâmetros em cada uma das otimizações O1, O2, O3 etc., no restante da série histórica.

Anota-se os resultados, que serão depois comparados com os de um sistema placebo. O sistema placebo adota os seguintes critérios para compra e venda: se [hora=0 && minuto=0 && parte inteira de log(Ask/Point) é par] ele compra. Se é ímpar, ele vende, ou algum critério semelhante. Essa “estratégia” obviamente é inútil, mas pode-se otimizá-la em alguns parâmetros como Stop Loss, Take Profit, Trailing Stop, os valores de horas e minutos para operar (pode ser que em vez de 0 e 0, ele consiga ficar positivo num período específico comprando às 2:44, por exemplo. Essa otimização quase sempre deixará os resultados positivos dentro do período em que a otimização é realizada, devido ao overfitting. Quanto mais

(2)

parâmetros ele tiver para complementar o critério aleatório, maiores as probabilidades de ficar muito positivo dentro do período de otimização. Porém fora do período de otimização ele deve ter mesma probabilidade de sucesso que outro sistema aleatório que não tenha passado por qualquer otimização, ou seja, a otimização não deve melhorar me nada seus resultados, já que a estratégia que ele adota não faz sentido. Assim, após a otimização ele deve ter cerca de 50% de probabilidade de ficar positivo nos restantes 38,6 anos da base. Como existe um spread em cada operação, ele perde um pouco a cada trade, ficando na verdade com menos de 50% de probabilidade de ficar positivo, sendo essa probabilidade tanto menor se tanto maior for o número de operações realizadas. Também há perdas com swaps. Para nossos propósitos, gostaríamos que o sistema aleatório tivesse resultado médio perto de 0, em vez de ficar muito negativo. Para tanto, usamos spread 0 para ele, mas usamos spread 4,2 pips para o Saturno V. Então compara-se a performance desse EA aleatório com a do Saturno V 6.1 e verifica-se qual a probabilidade de os resultados obtidos pelo Saturno V serem fruto do acaso.

Vamos começar calculando da maneira mais simples, e depois faremos de maneiras progressivamente mais corretas. A mais simples consiste em partir do conhecimento a priori de que este sistema aleatório deve ficar positivo quase 50% das vezes e negativo pouco mais de 50% das vezes. Se o Saturno V 6.1 tivesse apenas sorte, e fosse otimizado 39 vezes em intervalos de 1 ano cada, e depois utilizasse os mesmos parâmetros destas otimizações anuais para rodar no resto da base de 39,6 anos, a probabilidade de ficar positivo em todas as 39 otimizações seria 0,539 ou 1 em 549.755.813.888. Ou seja, há 99,99999999981810106% de probabilidade de esse resultado não ser mera sorte, e sim uma estratégia que realmente modela o Mercado num conjunto de propriedades tais que, se estas propriedades forem medidas num fragmento de 1/40 da base de dados, os mesmos valores para estes propriedades no intervalo de 1/40 da base continuam válidos para os 39/40 restantes, não importando qual seja o fragmento escolhido, o resultado é basicamente o mesmo, não idêntico em todos os casos, obviamente, mas apresentando uma distribuição normal.

Agora faremos o cálculo de forma um pouco mais correta, que é também um pouco mais complexa, e com isso constatamos que a probabilidade real é muito maior do que 99,99999999981810106%, porque nesse cálculo consideramos apenas a probabilidade de ficar positivo. O correto seria calcular a probabilidade de ter alcançado cada uma das performances medidas. Para calcular isso, precisamos antes conhecer os resultados do sistema aleatório.

O histórico da carteira do sistema aleatório é um movimento browiano, com final médio do movimento em 362,4 pips negativos e desvio-padrão no resultado final de 4.988,3 pips. O final médio de −362,4 pips é muito próximo do final teórico de 0 pips, estando apenas 0,073 desvio-padrão abaixo do esperado. O máximo obtido pelo sistema aleatório foi 7.764,0 pips e o mínimo foi −9.942,1 pips. Os testes de qualidade de ajuste à distribuição normal utilizados mostraram que a hipótese de normalidade não deve ser rejeitada a um grau de significação 0,1 para os testes de Kolmogorov-Smirnov e Shapiro-Wilk.

Pois bem, conhecendo a média e o desvio-padrão na distribuição de resultados do sistema aleatório, podemos calcular a probabilidade de um determinado resultado ter sido alcançado por sorte, pois os resultados do sistema aleatório mostram quão freqüentemente os resultados por sorte podem atingir determinado patamar. O balanço final médio do Saturno V 6.1 foi 16.814,7 pips, com máximo 25.396,3 e mínimo 5.254,6, com desvio-padrão 4.803,4. Os resultados individuais foram:

(3)

O valor mínimo está cerca de 1,1 desvios-padrão acima de 0. Então a probabilidade de uma performance atingir o valor mínimo por sorte é cerca de 14,6%, bem menor que os 50% da estimativa inicial, e isso porque o valor mínimo é o mais fácil de ser alcançado. A média aritmética das performances do Saturno V 6.1 medidas em pips (não em porcentagem) foi cerca de 3,5 desvios-padrão acima de 0, portanto a probabilidade de atingir o valor médio por sorte seria cerca de 0,037%.

Com isso já é possível fazer um cálculo simples e mais preciso que o anterior. Se a média aritmética das performances é 3,5 desvios-padrão acima da média de um sistema aleatório (0), então poderíamos fazer 0,0003739, que resulta em 6,3×10−131, um número setilhões de vezes menor do que 1/googol. É a primeira vez que o número googol surge para mim durante o cálculo de uma questão cotidiana. Como o Universo observável supostamente tem muito menos átomos do que 1 googol, é relativamente raro surgir esse número em assuntos do dia-a-dia, ou mesmo em Física de Partículas e Astronomia. Na década de 1980, algumas estimativas para a meia-vida do próton, caso ele não seja estável, variavam de 1031 a 10160 anos. Mini-buracos-negros em rotação relativamente massivos podem demorar mais que googol anos para evaporar pela radiação de Hawking-Penrose. Enfim, é um número incomum, que não surge com freqüência, e quando surge está ligado à Ciência de ponta e a fenômenos extremos.

Um cálculo melhor teria que considerar não a probabilidade de atingir a média aritmética das performances elevada a 39, mas sim a produtória das probabilidades de atingir cada uma das performances individuais, isto é:

39=1 ()

i P i , onde P(i) é a probabilidade de cada performance i

ser atingida por sorte. Isso dá cerca de 1,68×10−141, mais de um bilhão de vezes menor que o resultado anterior. A tabela abaixo resume os cálculos para se chegar a este resultado:

(4)

Mas na prática é um pouco diferente, porque há uma incerteza associada a cada um dos valores das performances. Portanto além da probabilidade de o valor ter sido alcançado por sorte, há uma probabilidade de o valor “verdadeiro” ser um pouco maior ou um pouco menor que o valor medido. Por exemplo, numa série histórica que cubra exatamente o mesmo período, mas tenha sido coletada de outra fonte, existe uma certa probabilidade de que os resultados medidos pudessem ser ligeiramente diferentes, um pouco menores ou um pouco maiores do que estes. Não dispomos da distribuição dessas variações para fazer o cálculo, mas podemos estimar que seja semelhante ao desvio-padrão nas performances medidas para o Saturno V 6.1 nos 39 períodos de otimização. Se levar esse detalhe em consideração, o resultado é cerca de 1,74×10−67. Também é incertezas nos parâmetros da distribuição da amostra, e incertezas

em relação a quão bem esta distribuição pode representar os dados empíricos, especialmente fora do intervalo considerado. E há ainda uma incerteza em cada incerteza destes valores, bem como uma incerteza no desvio-padrão para o sistema aleatório. E há incertezas nas incertezas das incertezas, ad infinitum. A complexidade do cálculo aumenta exponencialmente, mas podemos estimar grosseiramente a ordem de grandeza em cerca de 10−55 como sendo a probabilidade de os resultados alcançados terem sido fruto de sorte, já considerando nessa estimativa as performances percentuais, não em pips, pois os ganhos medidos em pips são simétricos, enquanto os ganhos reais, percentuais, não são simétricos, e uma perda de 10% precisa de um ganho de 11,1% para ser compensada; uma perda de 20% precisa de um ganho de 25% para ser compensada etc.

Com isso, constatamos de maneira simples que a probabilidade de um sistema de investimentos ser otimizado em 39 períodos diferentes, de 1 ano cada, e depois usar os resultados de cada uma destas otimizações para operar num período diferente de 38,6 anos, e ficar positivo todas as 39 vezes, é cerca de 1,8×10−12, ou uma chance em 550 bilhões, que é 11.000 vezes mais difícil do que acertar os 6 números na Mega Sena. Vimos também que um cálculo mais elaborado mostra que a probabilidade correta de tal resultado ser obtido por sorte é ainda menor, em torno de 10−55. Agora vamos aguardar os resultados práticos em situação real confirmarem o que os números já demonstram.

Apenas para ilustrar, transcrevemos a seguir as performances obtidas pelo Saturno V 6.1 no período de 4/1/1971 a 26/7/2010 com base em otimizações feitas em períodos de apenas 1 ano, de 1971 a 1987. Cada período de otimização é discriminado no cabeçalho do tópico: Otimização entre 26/7/1971 e 26/7/1972

Total em 39,6 anos: 253,89%

Média anual: 3,24% (isso foi anual, não mensal ☺) Máximo drawdown: 72,62%

Trades: 32

Fator de lucro: 1,51

Porcentagem de anos positivos: 52,5% Otimização entre 26/7/1972 e 26/7/1973 Total em 39,6 anos: 1644,78% Média anual: 7,49% Máximo drawdown: 75,17% Trades: 323 Fator de lucro: 1,29

Porcentagem de anos positivos: 62,5%

Otimização entre 26/7/1973 e 26/7/1974 Total em 39,6 anos: 7.851,27% Média anual: 11,68% Máximo drawdown: 56,85% Trades: 422 Fator de lucro: 1,13

(5)

Otimização entre 26/7/1974 e 26/7/1975 Total em 39,6 anos: 16.187,30% Média anual: 13,72% Máximo drawdown: 52,31% Trades: 409 Fator de lucro: 1,51

Porcentagem de anos positivos: 67,5%

Otimização entre 26/7/1975 e 26/7/1976 Total em 39,6 anos: 9.942,47% Média anual: 12,34% Máximo drawdown: 70,30% Trades: 707 Fator de lucro: 1,23

Porcentagem de anos positivos: 72,5%

Otimização entre 26/7/1976 e 26/7/1977 Total em 39,6 anos: 2.687,01% Média anual: 8,77% Máximo drawdown: 72,09% Trades: 316 Fator de lucro: 1,27

Porcentagem de anos positivos: 60%

Otimização entre 26/7/1977 e 26/7/1978 Total em 39,6 anos: 2.002,63% Média anual: 7,99% Máximo drawdown: 55,70% Trades: 216 Fator de lucro: 1,34

Porcentagem de anos positivos: 72,5%

Otimização entre 26/7/1978 e 26/7/1979 Total em 39,6 anos: 8.598,75% Média anual: 11,94% Máximo drawdown: 49,03% Trades: 637 Fator de lucro: 1,23

Porcentagem de anos positivos: 72,5% Otimização entre 26/7/1979 e 26/7/1980 Total em 39,6 anos: 9.239,17% Média anual: 12,14% Máximo drawdown: 55,79% Trades: 624 Fator de lucro: 1,21

Porcentagem de anos positivos: 75%

Otimização entre 26/7/1980 e 26/7/1981 Total em 39,6 anos: 3.400,41% Média anual: 9,39% Máximo drawdown: 53,57% Trades: 370 Fator de lucro: 1,20

Porcentagem de anos positivos: 75%

Otimização entre 26/7/1981 e 26/7/1982 Total em 39,6 anos: 9.960,86% Média anual: 12,35% Máximo drawdown: 62,33% Trades: 222 Fator de lucro: 1,27

(6)

Otimização entre 26/7/1982 e 26/7/1983 Total em 39,6 anos: 2054,03% Média anual: 8,06% Máximo drawdown: 60,87% Trades: 567 Fator de lucro: 1,08

Porcentagem de anos positivos: 57,5%

Otimização entre 26/7/1983 e 26/7/1984 Total em 39,6 anos: 4.191,38% Média anual: 9,96% Máximo drawdown: 53,32% Trades: 455 Fator de lucro: 1,22

Porcentagem de anos positivos: 70%

Otimização entre 26/7/1984 e 26/7/1985 Total em 39,6 anos: 15.201,63% Média anual: 13,55% Máximo drawdown: 63,78% Trades: 551 Fator de lucro: 1,24

Porcentagem de anos positivos: 62,5%

Otimização entre 26/7/1985 e 26/7/1986 Total em 39,6 anos: 3.903,73% Média anual: 13,55% Máximo drawdown: 56,15% Trades: 131 Fator de lucro: 1,63

Porcentagem de anos positivos: 77,5%

Otimização entre 26/7/1986 e 26/7/1987 Total em 39,6 anos: 5.468,96% Média anual: 10,68% Máximo drawdown: 52,53% Trades: 361 Fator de lucro: 1,35

Porcentagem de anos positivos: 82,5%

Tanto com dados recentes como dados antigos, uma otimização feita em qualquer ano é suficiente para encontrar parâmetros que se aplicam nos 38,6 anos restantes. Só em 1971 há um pouco mais de dificuldade para obter bons parâmetros, mas se tomar a segunda metade de 1971 e a primeira metade de 1972, a otimização já produz resultados aceitáveis.

Convém aprofundar um pouco mais a questão conceitual sobre o que representa a probabilidade de 1−10−55, que é uma probabilidade altíssima. Mas é probabilidade de quê, exatamente?

Ela indica que a hipótese de os resultados obtidos terem sido por mera fatalidade deve ser descartada com um nível de significação menor que 0,0000000000000000000000000000000000000000000000000000001. É uma evidência fortíssima, com mais de 99,99999999981810106% de probabilidade de que a estratégia é lucrativa e de mais de 99,99999999999999999999999999999999999999999999999999999% de probabilidade de que não se pode alcançar resultados como estes, ou superiores, por mera sorte.

(7)

Do ponto de vista conceitual, esse resultado é importante por validar a estratégia. Equivale a dizer que há mais de 99,99999999999999999999999999999999999999999999999999999% de probabilidade de que seja correta a afirmação “esta estratégia é lucrativa”.

Esta informação isolada não é tão útil, servindo apenas para dizer que esta estratégia é capaz de produzir lucros e que o nível de certeza quanto a isso é altíssimo. Mas não diz nada sobre o tamanho da lucratividade, nem sobre a amplitude de variação dessa lucratividade. Qual a vantagem de uma estratégia capaz de render 15% ao ano com 99,99999999999999999999999999999999999999999999999999999% de probabilidade de funcionar, em comparação a outra que rende 20% ao ano com 99,99% de probabilidade de funcionar? Em minha opinião, nenhuma vantagem, aliás, uma clara desvantagem, pois me parece mais vantajoso ganhar 20% ao ano com 99,99% de certeza do que ganhar 15% ao ano com 100% de certeza, inclusive porque nos 0,01% de probabilidade de não ganhar 20% não significa “perder tudo”; significa apenas ganhar menos de 20%. A informação sobre a probabilidade de a estratégia funcionar é predominantemente técnica, que serve para separar estratégias aprovadas para uso daquelas em fase de avaliação. O nível de confiança na aprovação também é importante, pois algumas estratégias são aprovadas com cerca de 99,9% de probabilidade de funcionar, e usando métodos menos rigorosos do que este no cálculo, enquanto outras são aprovadas com cerca de 90% de probabilidade de funcionar por terem rentabilidade muita alta, justificando o maior risco de não funcionar devido à maior rentabilidade esperada, como nos casos das versões 4.x, que desde o início apresentaram dificuldades entre meados de 2006 e o final de 2008, mas excelentes resultados antes de 2006 e durante 2009. Além disso, com aprimoramentos sucessivos, tende-se a aumentar as probabilidades de que as 4.x funcionem a longo prazo, e numa variedade maior de situações.

Com a altíssima probabilidade do Saturno V 6.1, ele se equipara à Poupança, no quesito de segurança, embora apresente oscilações muito maiores. Esse tipo de análise ajuda a compreender que embora exista correlação entre amplitude das oscilações e probabilidade de funcionar, no caso do Saturno V 6.1 os outliers que aumentam a dispersão estão no extremo superior, como um dos anos com 160% de lucro, 6 anos com mais de 65% de lucro, enquanto a maior perda anual foi de 17%. A maior dispersão torna o desvio-padrão maior porque há resultado altos acima do esperado, e como a gaussiana é simétrica, se os resultados não forem corretamente interpretados, o aumento no desvio-padrão pode levar à falsa interpretação de que as probabilidades para baixo também poderiam ser maiores.

Também convém esclarecer que a maior perda anual de 17% não significa que o máximo drawdown tenha sido de 17%. O máximo drawdown foi maior que isso. Mas mostra também um aspecto positivo, porque o máximo drawdown que chegou a 44% foi rapidamente revertido dentro do mesmo ano em que ocorreu, finalizando o ano com apenas −17%, não se prolongando por muito tempo o período negativo, e no ano seguinte já houve ganho de 43%. Estes valores são no caso de a configuração “padrão” que, por enquanto, adotamos como a referência e está na página de entrada do site, mas já temos resultados que ainda não foram aprofundados no estudo das propriedade estatísticas, mas que já superam a estes em alguns pontos, com maior balanço e menor drawdown, porém em períodos mais curtos e sem o mesmo nível de estabilidade.

A configuração padrão gera 697.000% em 39,6 anos, com máximo drawdown 44%. Já temos uma configuração que gera 69,86% ao ano, em média, entre 1/1/2000 e 26/7/2010, com máximo drawdown de 36,56%. Qual a probabilidade de que ela funcione com estas mesmas configurações por 40 anos? Provavelmente menos de 60%. Qual a probabilidade de que funcione nos próximos 3 anos? mais de 90%. É uma configuração para uso a curto e médio prazo, enquanto passará por aprimoramentos, enquanto a configuração de referência pode ser usada sem reservas por décadas.

(8)

Temos também uma versão de alto risco que obteve 727% de lucro entre 1/1/2010 e 26/7/2010, um ganho comparável aos resultados da versão 4.3 de maior risco, com a diferença que a 4.3 é apropriada para cenários mais pacatos, como a maior parte do ano de 2009, enquanto a 6.1 consegue atuar em situações mais selvagens, como 2008 e 2010. Com esta mesma configuração e risco no nível máximo, ela chega a 38.637,85% entre 26/6/2010 e 26/7/2010. Ela funciona com este nível de risco entre 26/5/2010 e 26/6/2010, mas quebra ou fica negativa em qualquer período anterior. Com o risco alto, mas não extremo, ela consegue ficar positiva somente 2003 e 2010: 1998: quebra 1999: quebra 2000: −3% 2001: quebra 2002: −17% 2003: +143% 2004: −72% 2005: −84% 2006: −58% 2007: −54% 2008: quebra 2009: quebra

2010: +727% (em menos de 8 meses)

Com este resultado de 38.000% em 1 mês, ela supera o recorde estabelecido pela versão 2.5f, de 7.742% em 1 mês, em abril de 2008, com algumas vantagens e algumas desvantagens. Uma das vantagens é que a 6.1 não faz scalping e por isso não precisa de spreads extremamente curtos, de 1 pip, no caso das 2.x. Outra vantagem é que a 6.1 não depende de liquidez imensa e não sofre no caso de pequenos atrasos nas execuções das ordens pelos brokers, pois realizou apenass 12 operações certeiras nesse período em que foi recordista, enquanto a 2.5f realizou mais de 80.000 operações no mês em que foi recordista, e seria difícil que todas estas 80.000 operações fossem executadas sem atraso, sem salto no spread, com liquidez apropriada etc. Uma desvantagem é que as 2.x, desde que o spread, a liquidez e as condições de rapidez na execução sejam atendidas, é estável a longo prazo, com probabilidade de quebra muito menor que a probabilidade de atingir 100%, então se pode adotar o esquema de esperar render k%, sacar, esperar novamente k%, sacar novamente etc., e quando quebrar já se sacou valores maiores que o depósito inicial, então abre-se outra conta com parte do lucro sacado, repetindo o procedimento sucessivas vezes. O valor ótimo de k depende da configuração, sendo que algumas suportam k acima de 1000%, enquanto outras exigem saques a cada 100% de lucro. A 6.1 com esta configuração não é estável a longo prazo, ela ganha muito rapidamente, em condições muito especiais, mas os valores dos parâmetros só se aplicam em maio, junho e julho de 2010. Se reduzir o risco, aplicam-se também a 1/1/2010 a 26/7/2010 e em 2003. Antes de 18/12/2009 não é aplicável, mesmo reduzindo ainda mais o risco, ela vai perdendo aos poucos entre 2004 e 2009. Se o cenário atual se prolongar por alguns meses, ela pode ser usada com “baixo” risco e rentabilidade perto de 1000% ao ano. Porém é muito mais razoável usar a 6.1 com a configuração de 69,86% ao ano e estabilidade por 10 anos, ou a configuração com 25% ao ano e provável estabilidade vitalícia, com 39,6 anos de confirmação e indícios de que se houver mudança de cenário, basta reconfigurar adicionando os dados de alguns meses do novo período, para voltar ao desempenho normal, conforme já comentados sobre o evento em 1966 no índice Daw Jones, em que uma otimização entre 1928 e 1932 continua a funcionar até 1966, mas então começa a perder, e não adianta adicionar dados anteriores a 1966, ela continua a perder, mas basta adicionar

(9)

dados de 1967 para que ela volte a funcionar, e quando se adiciona também dados de 1968 ela passa a funcionar bem melhor, praticamente no nível anterior a 1966.

A 6.1 usa uma estratégia universal, aplicável em qualquer época, qualquer mercado, qualquer cenário, bastando apenas dispor de dados históricos para calcular os parâmetros daquele mercado. Se o Mercado mudar, basta uma pequena realimentação de dado para que volte a funcionar.

A seguir, uma comparação entre os resultados do recorde anterior e o atual:

Sistema: Saturno_V_2.5f entre 25/3/2008 23/4/2008 (real time) Trades: 82.344

Acertos: 61,83% Lucro: +7.741,64% Fator de lucro: 1.39

Máximo drawdown: −29,06%

Sistema: Saturno_V_6.1_M15 entre 26/6/2010 26/7/2010 (back test) Trades: 12 Acertos: 83% Lucro: +38.637,85% Fator de lucro: −17,28 Máximo drawdown: 43,50%

A versão 6.1 pode ser usada de diferentes maneiras:

1) Configuração extremamente estável, de baixo risco, operando em OHLC final de dia, com estabilidade por 40 anos, rentabilidade média de 25% ao ano.

2) Configuração estável, de risco moderado, operando em timeframe de 15 minutos com dados tick-by-tick, com estabilidade por 10 anos, rentabilidade média de 70% ao ano. 3) Configuração de alto risco, operando em timeframe de 15 minutos com dados tick-by-tick, com estabilidade por 6 anos, rentabilidade variando de 300% a 1000% em 6 meses. 4) Configuração de risco no limite máximo, operando em timeframe de 15 minutos com dados tick-by-tick, com otimização em 30 dias para operar nos 30 dias seguintes, rentabilidade que pode passar de 1000% em 1 mês, chegando a 38.000% no melhor resultado. Funciona exclusivamente em cenários nos quais as propriedades gerais se mantenham por pelo menos 2 meses, ou 2 períodos de otimização/aplicação.

Para teste e diversão, as opções de risco 3 e 4 são toleráveis. Como a estratégia é a mesma nos 4 casos, mudando apenas escala de fragmentação e nível de risco, então a validação da estratégia feita em 40 anos se aplica a estratégia em si, não importando se o risco muda ou o timeframe muda. É diferente de assumir um risco alto com uma estratégia sem sentido. Nesse caso, embora o risco seja alto, há fundamentos para se assumir tal risco, porque a estratégia é bem fundamentada e amplamente validada.

Para investimentos relativamente mais conservadores, os casos 1 e 2 atendem a estes perfis de risco. Para somas consideráveis, acima de alguns milhões, só o caso 1 é aceitável, em que é possível aplicar, sem sustos, somas de milhões ou até bilhões, e deixar por anos rendendo. Pode ficar eventualmente negativo por alguns períodos, mas cedo ou tarde ocorre uma forte tendência e ele ganha muito nessas ocasiões. A oportunidade de ter um sistema próprio com

(10)

rentabilidade similar à dos fundos de Buffett e Soros, que normalmente não seriam acessíveis a investidores “comuns”, e com estabilidade também comparável à dos fundos destes gigantes, é muito gratificante. Agora que nossa ferramenta técnica para gestão de fundos atingiu o grau de segurança, rentabilidade e estabilidade que atende aos meus padrões de rigor, podemos abrir um fundo. Será nosso próximo passo.

As configurações e versões mais arrojadas ficam também à disposição para uso, para quem tiver interesse e mais apetite pelo risco.

Antes de finalizar, vejamos algumas informações mais úteis, do ponto de vista prático, sobre as propriedades estatísticas do Saturno V 6.1 na configuração mais estável:

1) Qual é a probabilidade de o Saturno V 6.1 ficar positivo no próximo ano? A resposta não é mais de 99,99999999999999999999999999999999999999999999999999999%, nem 99,99999999981810106%, e nem mesmo 99%. Há cerca de 80% de probabilidade de ficar positivo no próximo ano, pois com base no histórico dos últimos 39,6 anos, com as melhores configurações, ele teve 8 anos negativos, ou seja, fica positivo em 31,6 entre 39,6 anos. Esse cálculo pode ser feito de outras formas, mas todos chegam a aproximadamente 80%: Gumbel: 81,0966%, α=13,174, θ=25,815 Normal 1: 80,6681%, µ=28,074, σ=33,109 Normal 2: 80,3682%, µ=28,338, σ=33,150 Normal 3: 81,0158% ± 4,5463%, µ=28,049 ± 6,635, σ=31,929 ± 5,221 Empírico: 80%

Normal 1: máxima verossimilhança Normal 2: cálculo

Normal 3: máxima verossimilhança, bootstrap com 1000 reamostragens de 40 elementos

A probabilidade de ficar positivo nos próximos 2 anos é A probabilidade de ficar positivo nos próximos 3 anos é

2) Qual é a probabilidade de ficar positivo nos próximos 40 anos? Ao responder a esta pergunta, poderemos “sentir” duas importantes qualidades do Saturno V 6.1. Por exemplo, para a versão 4.07b2, a probabilidade de ficar positiva durante 40 anos usando os mesmos parâmetros atuais é quase 0, e por 10 anos já não é uma probabilidade boa. No caso do Saturno V 6.1 é o contrário. Para um período de 40 anos, o Saturno V 6.1 tem quase 100% (99,999999988%), na forma bayesiana de interpretar o problema. Na forma clássica de interpretar, o Excel não possui casas decimais suficientes para fazer o cálculo, mas quando eu instalar novamente o Maple, atualizarei este trecho.

%

59

,

97

01,,5567%% + −

%

946

,

99

00,,027086%% + −

Referências

Documentos relacionados

E perceberás, então, como o Cristo fustigado na cruz, que os teus mais acirrados perseguidores são apenas crianças de curto entendimento e de

A combinação dessas dimensões resulta em quatro classes de abordagem comunicativa, que podem ser exemplificadas da seguinte forma: interativo/dialógico: professor e

A prática delas também é norteada pelos saberes adquiridos com a experiência, esta é produzida por elas no seu cotidiano docente, num processo permanente de reflexão

X153 Onychoprion fuscatus julho de 1999 Santa Maria, Ilhéu da Vila 1 juv.. não voador

A seguir encontrará uma descrição de diversas actividades de limpeza que podem ser realizadas por uma lavadora de pressão da Nilfi sk-ALTO, conjuntamente com acessórios e

Esta disciplina visa apresentar ao aluno os conceitos necessários à correta abordagem científica para a condução de pesquisas no campo da Geologia. Seu objetivo é discutir os

Face a carancia de informaç6es científicas sobre a calagem e aduba ç&o fosfatada para a cultura de pimenta-do-reino, no Estado do Para, foi implan tado em fevereiro de 1988,

Destinatários: avós e netos Número mín: 8 pessoas Número máx: 18 pessoas Número de Monitores: 1 Duração: 6 horas de oficina.. FÉRIAS