• Nenhum resultado encontrado

Entropia Aproximada e Entropia Amostral

No documento Previsibilidade de séries financeiras (páginas 72-77)

Nesta seção são introduzidos dois índices bastante semelhantes: a entropia aproximada e a entropia amostral. Essa última é apresentada como uma continuação do desenvol- vimento da primeira.

3.3.1 Entropia Aproximada

A entropia aproximada é citada em Pincus [1991] como uma alternativa ao uso da dimensão de correlação para se quanticar a complexidade de dados experimentais. Segundo Pincus, a entropia aproximada (ApEn) é capaz de classicar sistemas, em função de sua complexidade, com poucas observações.

3.3. Entropia Aproximada e Entropia Amostral 55 10−4 10−3 10−2 10−1 100 0 0.5 1 1.5 2 2.5 log(ε0) Dimensão de correlação (a) 10−4 10−3 10−2 10−1 100 0 1 2 3 4 5 6 7 8 9x 10 −3 log(ε0)

Erro RMS da estimativa de distribuição de C(

ε

)

(b)

Figura 3.5. A Figura (a) mostra a dimensão de correlação ˆD2 em função de

ϵ0. Na mesma escala, a Figura (b) mostra os erros de regressão na estimativa da

distribuição, que podem também ser vistos como a dispersão de ˆD2. O valor de

ϵ0 na gura 3.4 foi obtido escolhendo-se, na Figura (b) acima, o de menor erro

cuja dimensão estimada fosse diferente de zero. Nessa faixa de valores em que ϵ0

é pequeno, a dimensão é próxima de zero porque não há dados sucientes para se

estimar a distribuição e o erro de regressão não representa a dispersão de ˆϵ0.

Parte-se da estimativa da integral de correlação como denida na Equação 3.2 e desenvolvida na Seção 3.2, mas agora em função da dimensão de imersão m e, calculada para cada vetor xi. Considera-se:

Cm,i(ϵ) = 1

Dene-se, Φm(ϵ)como: Φm(ϵ) = 1 N N ∑ i=1 log Cm,i(ϵ). (3.6)

A denição da Equação 3.6 assemelha-se a Cm(ϵ) do cálculo da dimensão de correlação. Entretanto, para Φm(ϵ), soma-se o logaritmo de Cm,i.

A entropia de Eckmann-Ruelle é, então, denida como: Entropia E-R = lim

ϵ→0m→∞lim N →∞lim (Φm(ϵ) − Φm+1(ϵ)) . (3.7) Essa entropia aparentemente não diferencia processos que diferem entre si em termos de complexidade. Além disso, seu valor é innito para processos somados a ruído de qualquer amplitude (Pincus [1991]). Porém, ao se xar m e ϵ na Equação 3.7 ao invés de se tomar seus limites, tem-se:

ApEn(m,ϵ) = lim

N →∞(Φm(ϵ) − Φm+1(ϵ)) .

Essa fórmula, em um conjunto nito de dados, é implementada para determinado N como:

ApEn(m,ϵ,N ) = Φm(ϵ) − Φm+1(ϵ).

ApEn mede a probabilidade de que padrões que estejam próximos perma- neçam próximos ao incremento de m. Ou seja, P (padrões próximos em m + 1|padrões próximos em m). Considerando-se dois sistemas dinâmicos diferentes A e B, pode-se calcular essa probabilidade de ambos obtendo-se ApEnA(m,ϵ,N ) e ApEnB(m,ϵ,N ) para determinados m, ϵ e N. A motivação para o uso da ApEn está na intuição de que se essas probabilidades têm valores distintos, então a distribuição de probabilidade marginal dos sistemas (considerando todos os m e ϵ e N → ∞) deve também ser diferente. A vantagem desse procedimento é que são necessários muito menos pontos para se estimar a probabilidade condicional do que para se estimar a marginal. Como colocado em Pincus [1995], não é necessário reconstruir totalmente duas trajetórias no espaço de fases (ou dois atratores) para se distinguir uma do outra. A Figura 3.6 mostra esse índice para o mapa logístico com valores do parâmetro de bifurcação λ tomados entre 3,5 e 4.

É de se esperar que, nesse intervalo de parâmetro, a complexidade do mapa (considerando-se sua topologia no espaço de fases) seja proporcional a λ. Um valor baixo de ApEn indica uma maior regularidade, ou seja, menor complexidade da série. Para λ = 3,5, por exemplo, a série tem comportamento periódico, e portanto, elevada

3.3. Entropia Aproximada e Entropia Amostral 57 0 0.05 0.1 0.15 −0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 ε ApEn(2, ε ,3500) λ = 3,5 λ = 3,6 λ = 3,7 λ = 3,8 λ = 3,9 λ = 4,0

Figura 3.6. Entropia aproximada ApEn(2,ϵ,3500) para mapas logísticos com valores do parâmetro de bifurcação λ tomados entre 3,5 e 4. ϵ é variado de 0 a aproximadamente 30% do valor do desvio padrão dessas séries. Observa-se que, para o intervalo de ϵ mostrado (excetuando-se o primeiro valor), a ApEn conse- gue ordenar os mapas por complexidade (considerando que λ seja proporcional à complexidade, como em Pincus [1991]).

regularidade. Isso é reetido em um valor quase nulo de entropia. Percebe-se que a ApEn, para esse caso, consegue ordenar as séries de acordo com sua complexidade em todos os valores de ϵ calculados, como em Pincus [1991].

Na gura, ϵ é variado de 0 a aproximadamente 30% do valor do desvio padrão da série. O resultado da entropia para ϵ próximo de zero é também próximo de zero para todas as séries. Pode-se perceber isso pela Equação 3.5, uma vez que não há pontos a uma distância menor que zero além do próprio ponto i. Segundo Pincus [1991], deve-se utilizar valores de ϵ próximos de 10 a 20 % do desvio padrão da série. Como esse desvio padrão está próximo de 0,35, utilizou-se valores de ϵ entre 0,035 e 0,07 para ilustrar o cálculo da entropia aproximada.

3.3.2 Entropia Amostral

Uma limitação da entropia aproximada é considerar no cálculo de Cm,i(ϵ), na Equa- ção 3.5, o caso i = j. Ou seja, considera-se que o próprio vetor seja próximo (distância

menor que ϵ) a ele mesmo, uma vez que |xi− xj|∞ é sempre menor que ϵ para i = j. Em Richman & Moorman [2000] esses vetores são chamados self-matches e fazem com que a estimativa da ApEn(m,ϵ) seja enviesada para N nito. Não se deve considerar a similaridade de um vetor com ele próprio como uma indicação de regularidade. Por- tanto, as estimativas da entropia aproximada tendem a indicar mais regularidade do que realmente há na série. Isso, porém, evita que Cm,i seja nulo e tenha-se na Equa- ção 3.6 o cálculo de log(0). Esse viés é, então, uma maneira de se garantir que Φm(ϵ) seja sempre denido.

Richman (Richman & Moorman [2000]) contorna o problema do viés propondo uma família de estatísticas semelhante a ApEn dada por:

SampEn(m,ϵ) = lim

N →∞− log (Cm+1(ϵ)/Cm(ϵ)) ,

em que N é o tamanho da amostra. Essa fórmula é implementada para determinado N como:

SampEn(m,ϵ,N ) = − log (Cm+1(ϵ)/Cm(ϵ)) .

Cm é a estimativa da integral de correlação descrita na Seção 3.2. Nesse desen- volvimento, pode-se entender Cm como um cálculo de Φm, porém, sem o logaritmo e sem considerar os self-matches no número de vetores próximos. Isso resolve a questão do viés da entropia aproximada. Substituiu-se o somatório dos logaritmos da ApEn pelo logaritmo da soma na SampEn.

A Figura 3.7 mostra esse índice para o mapa logístico com valores do parâmetro de bifurcação λ tomados entre 3,5 e 4, como feito para a entropia aproximada.

Um valor elevado de SampEn também indica uma maior regularidade. Essa estatística consegue ordenar as séries da gura por complexidade para todos os valores de ϵ calculados. Para pequenos valores de ϵ, enquanto o valor da ApEn tende a zero, o valor da SampEn passa a não ser denido. Isso acontece porque, para ϵ sucientemente pequeno, a soma de todos os Cm,i será nula o que resultará em − log(0). Porém, para os valores de ϵ próximos a 20% do desvio padrão, como recomendado em Richman & Moorman [2000], a entropia amostral é uma ferramenta bastante útil para se quanticar complexidade de séries. Os primeiros valores denidos de SampEn são maiores que os correspondentes de ApEn sugerindo o viés de ApEn, conforme explicado anteriormente. Como essa entropia é muito semelhante a anterior, e além disso, contorna o problema do viés, para o restante do trabalho apenas SampEn será utilizada.

3.4. Informação Mútua Média 59

No documento Previsibilidade de séries financeiras (páginas 72-77)