• Nenhum resultado encontrado

Analisando mais detidamente o funcionamento do algoritmo da Sec. B.2 observamos que, sob baixos níveis de ruído, as densidades p(Xk|h(i), y

0:n) estimadas (através do algoritmo BCJR) tem valores muito próximos de 0 ou 1, num comportamento que pa-

rece contribuir para o aparecimento de algo semelhante a um ciclo-limite3que impede a convergência do algoritmo para uma solução fixa.

Para contornar este problema, fizemos uma alteração de caráter heurístico no algo- ritmo da Sec. B.2 inspirada em técnicas de simulated annealing. Estas técnicas [48], amplamente empregadas na solução de problemas de otimização não-linear, baseiam- se na observação de fenômenos naturais ligados à cristalização de metais, que sugerem que a convergência para o mínimo global num problema de minimização iterativa pode ser obtida pela introdução de perturbações lentamente decrescentes (nas suas soluções intermediárias).

Para evitar o aparecimento de oscilações cíclicas como as observadas para o algo- ritmo anteriormente descrito, substituímos a densidade p(Xk|h(i), y

0:n, σ2) (calculada através do algoritmo BCJR), necessária para a determinação de (B.23), pela densidade

¯

pi(Xk|h(i), y0:n, σ2) = p(Xk|h(i), y0:n, σ2 + δ(i)), com δ(i) > 0 sendo uma função decrescente de i.

Note que, dado o maior nível de ruído informado ao algoritmo BCJR, a densidade ¯

pi(Xk|h(i), y0:n, σ2) exibe uma menor tendência de assumir valores extremos (0 ou 1) do que a densidade a posteriori verdadeira. Isto parece contribuir para a eliminação de oscilações cíclicas. Em nossas simulações, testamos diversas formas para a função δ(i), obtendo melhores resultados para funções δ(i) da forma exponencial.

B.3.1 Simulações

Nas Figs. B.2 e B.3 mostramos o desempenho obtido pela versão modificada do al- goritmo da Sec. B.2, utilizando δ(i) = 10−0,1i e δ(i) = 10−0,05i, respectivamente, empregando as mesmas hipóteses adotadas na Sec. B.2.1.

Como se pode observar, ao fazer δ(i) = 10−0,1i nota-se ainda uma degradação de desempenho para SNR superiores a 12 dB (Fig. B.2). Diminuindo-se o nível de ruído adicional mais lentamente (δ(i) = 10−0,05i), no entanto, o desempenho do algoritmo modificado aproxima-se bastante daquele do detector ótimo MLSE (Viterbi) para 25 iterações, como se pode observar na Fig. B.3.

B.4 Comentários

Apresentamos neste capítulo algoritmos para a equalização de canais lineares FIR ba- seados na versão Bayesiana do algoritmo EM. O algoritmo desenvolvido gera estima- tivas dos parâmetros do canal de transmissão que maximizam localmente a densidade

0 2 4 6 8 10 12 14 16 18 20 10-4 10-3 10-2 10-1 100 SNR (dB) BER EM (1 iter.) EM (10 iter.) EM (25 iter.) Viterbi

Figura B.2: Desempenho médio ao longo de 100 realizações independentes da versão modificada do algoritmo para equalização cega descrito na Sec. B.2.1 (δ(i) = 100,1i) em função da relação sinal-ruído(SNR) e o número de iterações.

a posteriori destes parâmetros (estimativa local MAP), determinando estimativas dos

símbolos transmitidos indiretamente (e de forma subótima) ao re-estimar os parâme- tros do canal.

Conforme verificamos por meio de simulações numéricas, o algoritmo da Sec. B.2 tem a sua convergência prejudicada sob baixos níveis de ruído, o que pôde ser con- tornado, pelo menos sob o cenário adotado, pela utilização de técnicas de annealing (Sec. B.3), sem incorrer num aumento de complexidade computacional.

0 2 4 6 8 10 12 14 16 18 20 10-4 10-3 10-2 10-1 100 SNR (dB) BER EM (1 iter.) EM (10 iter.) EM (25 iter.) Viterbi

Figura B.3: Desempenho médio ao longo de 100 realizações independentes da versão modificada do algoritmo para equalização cega descrito na Sec. B.2.1 (δ(i) = 100,05i) em função da relação sinal-ruído(SNR) e o número de iterações.

Apêndice C

Estimação através de Métodos MCMC

Os métodos MCMC (Markov Chain Monte Carlo) são ferramentas numéricas para a geração de amostras de variáveis aleatórias baseadas na simulação de cadeias de Mar- kov [49]. A utilização destes métodos, que permaneceu limitada até os anos 90 devido a restrições na área computacional, promoveu grandes avanços na área da estatística aplicada por permitir a obtenção de soluções Bayesianas para inúmeros problemas de estimação praticamente intratáveis por métodos tradicionais.

Neste apêndice apresentamos uma breve introdução às cadeias de Markov (Sec. C.1), descrevendo em seguida os dois principais métodos MCMC: o algoritmo de Metropolis- Hastings (Sec. C.2) e o Amostrador de Gibbs (Sec. C.3). Em seguida, descrevemos dois algoritmos para equalização cega baseados no Amostrador de Gibbs desenvol- vidos em [11] e [29] (Sec. C.4), avaliando seu desempenho através de simulações numéricas.

C.1 Métodos MCMC e Cadeias de Markov - Definições

Básicas

Nesta seção apresentamos uma síntese de resultados sobre cadeias Markov, enfati- zando aqueles ligados ao funcionamento das técnicas MCMC. Referências completas sobre o assunto podem ser encontradas em [8], [49] e [42], entre outros.

Entendemos por cadeias de Markov uma seqüência x0:n de variáveis aleatórias tal que

P(xk+1∈ A|x0:k) = P(xk+1 ∈ A|xk) . (C.1) Como conseqüência de (C.1), uma cadeia de Markov é completamente definida

pelo seu núcleo de transição (transition kernel) [42], uma função K definida1em X × B(X ) tal que

(i) ∀x ∈ X , K(x, ·) é uma medida de probabilidade; (ii) ∀A ∈ B(X ), K(·, A) é mensurável.

(iii) P(xk+1 ∈ A|xk) = 

AK(xk, dxk+1).

Numa formulação geral, cada uma das variáveis aleatórias xk, k ≥ 0 é distribuída distintamente, i.e.2 xk ∼ πk, valendo que

πk+1(B) = 

Xk

K(xk, B)π(dxk) . (C.2)

O funcionamento dos métodos MCMC baseia-se na simulação de uma cadeia de Markov com núcleo de transição K tal que πk convirja para a distribuição p da qual se deseja gerar amostras na medida em que k → ∞. Uma condição suficiente para que isto ocorra é que a medida invariante π associada ao núcleo K, definida como a solução de

π(B) = 

X

K(x, B)π(dx), ∀B ∈ B(X ) (C.3)

exista e seja igual à distribuição da qual se deseja amostrar. Assim, desde que a πk convirja para p a uma taxa suficientemente3 alta, pode-se assumir para fins práticos que xk ∼ p(x), k > k0, sendo as amostras x0, ..., xk0 descartadas (período de burn in).

Um segundo resultado mais restritivo que garante a existência de uma medida in- variante é a satisfação da condição de balanço detalhado, definida como

K(y, x)π(y) = K(x, y)π(y) ∀x, y . (C.4) Caso (C.4) for satisfeita, a cadeia de Markov em questão é reversível e possui medida invariante π.

1Indicamos pela notação B(X ) o σ−campo de Borel gerado pelos elementos de X .

2Pela notação x ∼ p(x) entende-se que a variável aleatória x tem sua densidade dada por p(x). 3Infelizmente, é difícil estabelecer condições gerais de convergência para as medidas invariantes dos núcleos de transição empregados pelos métodos MCMC. É possível demonstrar que, sob condições de regularidade expostas em ([8], Cap. 4 e 6), o algoritmo de Metropolis-Hastings e o Amostrador de Gibbs geram cadeias tais que Kn(x,·) − π

h≤ Mr−n, onde M e r são constantes e  · hdenota [8]

µh= sup |g|≤h & & & &  g(x)µ(dx) & & & & .