• Nenhum resultado encontrado

A necessidade de transmitir periodicamente a sequência de treinamento durante a equalização supervisionada compromete parte da taxa de símbolos, reduzindo a transmissão efetiva de informação. Por conta disso, buscou-se desenvolver algoritmos que pudessem realizar a equalização de forma não-supervisionada. Um dos primeiros avanços neste sentido foi uma versão do algoritmo LMS dirigida por decisão, o DD- LMS (R. Lucky, 1965), no qual o sinal de erro é substituído por

Figura 3.3: Canal SISO com equalização dirigida por decisão (DD)

e[n] = (ˆs[n] − y[n]), (3.12)

onde ˆs[n] é uma estimativa de s[n] obtida pela decisão sobre o sinal y[n]. Para que o algoritmo DD-LMS funcione, é necessário que a taxa de erro de símbolos seja baixa o suficiente para que ˆs[n] seja uma estimativa razoável de s[n], o que significa que o equalizador w não pode ser iniciado em um ponto arbitrário como no caso do LMS supervisionado, mas sim em uma região suficientemente próxima do valor de wotimo.

Esta restrição se traduz em y[n] apresentar um diagrama de olho aberto, situação na qual a maior parte do símbolos é decidida corretamente. Dessa condição surgiu o termo "equalização cega", para descrever um processo de equalização que pudesse ser realizado sem o conhecimento de s[n] e em condições de olho fechado.

O Teorema de Benveniste-Goursat-Ruget (A Beneviste, M. Goursat, G. Ruget, 1980) garante que ocorre a equalização perfeita do canal se a densidade de

probabilidade dos sinais s[n] e y[n] forem iguais, sob as restrições de que o conjunto composto pelo canal e pelo equalizador seja um sistema linear, e que o sinal s[n] seja uma sequência não-gaussiana de valores independentes e identicamente distribuídos. Este resultado tem um impacto significativo na teoria de equalização, pois permite substituir a informação das amostras de s[n] pelo conhecimento de sua função de densidade de probabilidade, o que é plausível em muitos casos práticos. Embora demonstre teoricamente que a equalização cega é possível, o teorema de Benveniste- Goursat-Ruget não fornece diretamente um critério que possa ser explorado para obtenção de um algoritmo prático.

3.2.1

O critério do Módulo Constante

Os maiores avanços na tentativa de obter um critério de fato cego foram feitos não por meio estudos teóricos, mas sim de sucessivas tentativas empíricas. O algoritmo de Sato (Y. Sato, 1975) foi um dos primeiros avanços neste sentido. Porém o principal resultado obtido com esta abordagem foi a solução proposta por Godard (D. N. Godard, 1980). A função custo do critério de Godard, publicada no mesmo ano que o Teorema de Benveniste-Goursat-Ruget, é dada pela equação 3.13:

JGodard= E{(|y[n]|p− R2p)}. (3.13)

Esta equação foi denominada dispersão de ordem p. Godard percebeu por meio de testes que o valor da constante Rpfuncionava como um fator de escala para o sinal

equalizado. Forçando o sinal equalizado a ter a mesma energia do sinal transmitido, Godard encontrou o valor ótimo de Rp, dado por:

Rp = E{|s[n]| 2p}

E{|s[n]|p}. (3.14)

Uma situação particularmente interessante é obtida quando utilizamos uma ordem p = 2:

A função custo assume neste caso uma característica de penalizar desvios no módulo de y[n] em relação ao valor quadrático médio de s[n]. Este critério foi proposto como uma forma de equalizar sinais modulados somente em fase, e que portanto possuem módulo constante, daí o nome posteriormente dado de critério do módulo constante (CM Constant Modulus) (J. R. Treichler, B. G. Agee, 1983).

O critério CM apresenta algumas semelhanças interessantes com o critério de Wiener, e também algumas limitações importantes. A função custo CM, ao contrário da função custo de Wiener, possui múltiplos pontos de mínimo. Embora alguns destes pontos sejam relacionados com o ponto ótimo de Wiener, e resultando portanto em valores de erro quadrático médio semelhantes aos obtidos com critérios supervisionados, outros são mínimos sub-ótimos. Outra limitação do critério CM é sua indiferença à fase do sinal, já que função JCM utiliza apenas o módulo de y[n].

Isso faz com que a solução ótima do critério CM corresponda a obter s[n] a menos de uma fase arbitrária.

Utilizando este critério, podemos derivar um algoritmo utilizando como base o LMS substituindo o sinal de erro do caso supervisionado pelo erro do critério CM:

e[n] = (|y[n]|2− R2) (3.16)

Obtendo assim a regra de atualização do equalizador através do algoritmo do módulo constante:

w(n + 1) = w(n) + µx[n]y[n](|y[n]|2

− R2). (3.17)

O uso de um algoritmo baseado no método do gradiente, embora atraente do ponto de vista técnico, não evita a convergência para os mínimos locais da função custo CM, o que torna o CMA sensível ao valor inicial de w. Outra desvantagem do CMA é sua menor velocidade de convergência quando comparado ao LMS. Curiosamente, o CMA também apresenta as restrições consideradas no Teorema de Benveniste-Goursat-Ruget quanto a s[n] ser uma sequência i.i.d. não-gaussiana, mesmo que não seja explicitamente baseado neste teorema. Outro ponto interessante é que, embora o algoritmo tenha sido inicialmente concebido para equalização de

sinais de módulo constante, ele também equaliza sinais sem esta característica. Uma compreensão melhor sobre o critério CM foi obtida a partir de uma série de estudos teóricos, iniciados com a enunciação do Teorema de Shalvi- Weinstein (O. Shalvi, E. Wenstein, 1990), outro importante resultado no campo da equalização não-supervisionada. Este teorema afirma que, dado um sinal s[n] com as mesmas condições impostas no teorema de Benveniste-Goursat-Ruget, será obtida a equalização perfeita se s[n] e y[n] possuírem as mesmas estatísticas de ordem dois e coincidirem em pelo menos um cumulante de ordem superior não nulo. Este teorema é na verdade uma grande evolução do teorema de Benveniste-Goursat-Ruget, pois mostra que, ao invés de recuperar a densidade de probabilidade de s[n], podemos recuperar apenas algumas estatísticas e ainda assim equalizar o canal. Baseado neste teorema foi desenvolvido o critério de Shalvi-Weinstein (SW). Este critério busca igualar a curtose, o cumulante de ordem quatro, das distribuições de s[n] e y[n], sob a restrição de que seus momentos de ordem dois também sejam iguais. A curtose de uma variável aleatória x pode ser expressa por

K(x) = E{x4} − 3[E{x2}]2. (3.18)

A curtose pode ser utilizada como uma medida de gaussianidade de uma variável aleatória. Quanto maior for o valor da curtose, mais a variância de uma variável aleatória deve-se a infrequentes porém maiores desvios em relação a média. Estas distribuições possuem uma pdf com aspecto mais afunilado que uma distribuição gaussiana de mesma variância, porém com caudas mais pronunciadas, e são classificadas como super-gaussianas ou leptocúrticas. Por sua vez, uma distribuição de probabilidade com um valor negativo de curtose tem sua variância provocada por frequentes, porém modestos, desvios em relação a média, possuindo uma pdf de aspecto mais achatado que uma gaussiana de mesma variância. Estas distribuições são chamadas sub-gaussianas ou platicúrticas. Uma distribuição gaussiana tem curtose nula.

Esta relação da curtose com a gaussianidade leva a um resultado interessante. Considerando que o sinal s[n] é iid e o conjunto canal e equalizador é um sistema linear, é esperado que a curtose do sinal após a convolução pelo sistema tenha

uma valor mais próximo de zero que a curtose de s[n], uma vez que o efeito da interferência inter simbólica leva a um aumento da gaussianidade do sinal. A curtose só se manteria com o mesmo valor se y[n] fosse também iid, em outras palavras, se o equalizador inverter o canal. Portanto, igualar as curtoses equivale a maximizar o módulo da curtose de y[n], o que nos leva a formalizar o critério SW como

max {|K(y[n])|} , (3.19)

sujeito a restrição

E|y[n]|2 = E |s[n]|2 . (3.20)

Apesar de serem derivados a partir de conceitos diferentes, os critérios de Shalvi- Weinstein e do módulo constante apresentam aspectos comuns, dentre eles, suas superfícies das funções custo apresentam os mesmos pontos críticos (P. A. Regalia, 1980). Isto motivou a análise destes critérios, e levou a constatação de que o algoritmo do módulo constante utiliza de forma implícita a maximização da curtose de y[n]. Por conta disso o CMA é classificado como um método de equalização não-supervisionada que explora implicitamente estatísticas de ordem superior. Uma diferença importante é que o critério CM maximiza a curtose de y[n], não o módulo da curtose. Isso limita o uso do algoritmo aos casos em que a curtose de s[n] é menor que zero. Felizmente, a maioria dos sinais utilizados em comunicações têm distribuições sub-gaussianas.

Documentos relacionados