• Nenhum resultado encontrado

A combina¸c˜ao convexa de dois ou mais filtros operando em paralelo foi proposta para melho- rar o desempenho de filtros adaptativos [MART´INEZ-RAM ´ON et al., 2002; ARENAS-GARC´IA, 2004; ARENAS-GARC´IA; G ´OMEZ-VERDEJO; FIGUEIRAS-VIDAL, 2005; ARENAS-GARC´IA; FI- GUEIRAS-VIDAL; SAYED, 2006; ARENAS-GARC´IA et al., 2006; AZPICUETA-RUIZ; FIGUEIRAS- VIDAL; ARENAS-GARC´IA, 2008; SILVA; NASCIMENTO, 2008a; ARENAS-GARC´IA; FIGUEIRAS- VIDAL, 2009; L ´AZARO-GREDILLA et al., 2010]. Esse m´etodo ´e relativamente simples e pro- porciona um desempenho global melhor ou igual ao de cada filtro individual operando in- dependentemente. Essa ideia tem gerado interesse, pois uma dificuldade no projeto de filtros adaptativos ´e escolher da melhor forma os parˆametros fixos do filtro, como o passo de adapta¸c˜ao para algoritmos do tipo LMS ou o fator de esquecimento para algoritmos do tipo RLS. Cabe destacar que h´a diversos artigos que prop˜oem o uso de algoritmos com passo vari´avel [KWONG; JOHNSTON, 1992; ABOULNASR; MAYYAS, 1997; BILCU; KUOSMANEN; EGI- AZARIAN, 2002; NELATURY; RAO, 2002], mas o desempenho deles ´e pior do que o de um algoritmo com parˆametro fixo escolhido de maneira ´otima, principalmente quando os sinais s˜ao estacion´arios. Como o desempenho de combina¸c˜oes de filtros nunca ´e pior do que o de cada filtro individual, essa solu¸c˜ao ´e mais interessante do que as que utilizam parˆametros vari´aveis em muitas situa¸c˜oes pr´aticas.

A ideia de se combinar as sa´ıdas de v´arios filtros adaptativos independentes para se obter um melhor desempenho do que o de cada filtro individual n˜ao ´e nova. Ela foi proposta inicialmente em [ANDERSSON, 1985] e posteriormente melhorada em [NIED´ZWIECKI, 1990, 1992]. Ideias similares tamb´em tˆem sido usadas na literatura de teoria da informa¸c˜ao (veja, e.g., [KOZAT; SINGER; ZEITLER, 2007]). No entanto, o m´etodo de [ARENAS-GARC´IA; FIGUEI- RAS-VIDAL; SAYED, 2006] tem recebido mais aten¸c˜ao devido `a sua relativa simplicidade e `a prova de que a combina¸c˜ao ´e universal, i.e., considerando entradas estacion´arias, a estimativa combinada ´e pelo menos t˜ao boa quanto `a do melhor filtro componente em regime.

A combina¸c˜ao convexa de dois filtros adaptativos est´a esquematizada na Figura 1.5, onde se considera a filtragem supervisionada que pode ser usada para diferentes aplica¸c˜oes, como identifica¸c˜ao de sistemas, equaliza¸c˜ao adaptativa, cancelamento de eco ou ru´ıdo etc. [HAYKIN, 2002; SAYED, 2003]. O sinal de sa´ıda global y(n) ´e obtido a partir da combina¸c˜ao

linear das sa´ıdas y1(n) e y2(n) dos filtros individuais, ou seja,

y(n) = η(n)y1(n) + [1 − η(n)]y2(n), (1.25)

sendo η(n) o parˆametro de mistura. Os vetores de coeficientes de cada filtro w1(n − 1) e

w2(n − 1) s˜ao adaptados com seus respectivos erros

e1(n) = d(n) − y1(n) (1.26)

e

e2(n) = d(n) − y2(n), (1.27)

sendo d(n) a resposta desejada, que no caso da equaliza¸c˜ao supervisionada corresponde ao s´ımbolo a(n − ∆). u(n) d(n) e(n) e1(n) e2(n) y1(n) y2(n) y(n) η(n) 1 − η(n) w1(n − 1) w2(n − 1) w(n − 1)

Figura 1.5: Combina¸c˜ao convexa de dois filtros adaptativos transversais para filtragem supervisionada.

Na mistura de dois algoritmos do tipo LMS com passos de adapta¸c˜ao µ1 e µ2, sendo

µ1 > µ2, a combina¸c˜ao convexa tem uma interpreta¸c˜ao intuitiva. No in´ıcio da convergˆencia,

η(n) → 1 e a combina¸c˜ao se aproxima do filtro µ1-LMS, que converge mais rapidamente.

Em regime, η(n) → 0 e a combina¸c˜ao se aproxima do filtro µ2-LMS, que por ser mais lento,

em que 0 < η(n) < 1 e nesses casos, a combina¸c˜ao pode apresentar um desempenho melhor do que o de cada um dos filtros quando considerados separadamente [ARENAS-GARC´IA; FI- GUEIRAS-VIDAL; SAYED, 2006]. Esse comportamento pode ser observado nos resultados de simula¸c˜ao mostrados na Figura 1.6, em que a combina¸c˜ao convexa de dois filtros LMS com diferentes passos de adapta¸c˜ao (µ1 = 0, 1 and µ2 = 0, 01) foi usada para identificar o sistema

h

0, 9003 −0,5377 0,2137 −0,0280 0,7826 0,5242 −0,0871 i

.

O regressor u(n) ´e obtido de um processo x(n), gerado com um modelo autoregressivo de primeira ordem, cuja fun¸c˜ao de transferˆencia ´e dada por √1 − b2/(1 − bz1

). Esse modelo ´e alimentado com um processo gaussiano iid, cuja variˆancia ´e escolhida para que o tra¸co da matriz de autocorrela¸c˜ao R seja igual a um. Al´em disso, um ru´ıdo aditivo iid v(n) com variˆancia σ2

v = 0, 01 ´e adicionado para se obter o sinal desejado. Na Figura 1.6-(a), s˜ao

mostradas curvas de EMSE, estimadas a partir de uma m´edia de conjunto de 500 realiza¸c˜oes e filtradas por um filtro de m´edia m´ovel com 128 coeficientes para facilitar a visualiza¸c˜ao. Na Figura 1.6-(b), ´e mostrada a m´edia do parˆametro de mistura ao longo do tempo. Pode-se observar que η(n) → 1 durante o in´ıcio da convergˆencia e em regime, η(n) → 0.

Na combina¸c˜ao convexa, o parˆametro de mistura η(n) fica restrito ao intervalo [ 0, 1 ] e por isso ´e modificado atrav´es de uma vari´avel auxiliar α(n) que est´a relacionada com η(n) atrav´es da seguinte fun¸c˜ao

η(n) = ϕ[α(n − 1)] = sgm[α(n − 1)] − sgm[−α +] sgm[α+] − sgm[−α+] , (1.28) sendo sgm[x] = 1 1 + e−x (1.29)

a fun¸c˜ao sigmoidal e α+ o m´aximo valor que |α(n)| pode assumir. A fun¸c˜ao de ativa¸c˜ao ϕ[·]

foi proposta em [L ´AZARO-GREDILLA et al., 2010] e ´e uma vers˜ao deslocada e escalonada da fun¸c˜ao sigmoidal. ´E importante notar que η(n) atinge os valores 1 e 0 para α(n − 1) = α+

e α(n − 1) = −α+, respectivamente.

Calculando a derivada do MSE global da combina¸c˜ao

JMSE(n) = E{|e(n)|

2

combina¸c˜ao µ2-LMS µ1-LMS E M S E (d B ) (a) 0 0 1 2 3 −10 −20 −30 −40 −50 E { η (n )} (b) 0 0 1 1 0, 5 ×104 2 3 Itera¸c˜oes

Figura 1.6: (a) EMSE para µ1-LMS, µ2-LMS, e sua combina¸c˜ao convexa; (b) m´edia de conjunto

de η(n); µ1 = 0, 1, µ2 = 0, 01, µα = 100 (adapta¸c˜ao n˜ao-normalizada), α+ = 4, b = 0, 8; m´edia de

500 realiza¸c˜oes.

com rela¸c˜ao `a α(n) e aproximando as esperan¸cas por seus valores instantˆaneos, obt´em-se a seguinte regra para adaptar α(n):

α(n) = α(n − 1) + ˜µα(n) Re{[d(n) − y(n)][y1(n) − y2(n)] ∗ }ϕ′[α(n − 1)], (1.30) sendo ϕ′ [α(n − 1)] = dη(n) dα(n − 1) = sgm[α(n − 1)]{1 − sgm[α(n − 1)]} sgm[α+] − sgm[−α+] (1.31)

e ˜µα(n) um passo de adapta¸c˜ao. Na pr´atica, α(n) fica restrita por satura¸c˜ao ao intervalo

sim´etrico [−α+, α+], j´a que o fator ϕ

[α(n − 1)] em (1.30) pararia a adapta¸c˜ao se |α(n)| crescesse muito. Uma escolha comum na literatura ´e α+ = 4 [ARENAS-GARC´IA; FIGUEIRAS-

VIDAL; SAYED, 2006; AZPICUETA-RUIZ; FIGUEIRAS-VIDAL; ARENAS-GARC´IA, 2008; L ´AZARO- GREDILLA et al., 2010]. Quando se trata da combina¸c˜ao convexa de dois algoritmos com passos de adapta¸c˜ao diferentes, por exemplo, combina¸c˜ao do µ1-LMS com o µ2-LMS, em

um comportamento semelhante ao do filtro r´apido no in´ıcio da convergˆencia. Entretanto, o desempenho da combina¸c˜ao n˜ao ´e afetado significativamente se α(−1) for feito igual a um valor no intervalo [ −α+, α+], j´a que λ(n) converge rapidamente para pr´oximo de 1 quando

o filtro µ2-LMS ainda n˜ao convergiu. Isso tamb´em ocorre quando h´a mudan¸cas abruptas no

canal de comunica¸c˜ao, por exemplo.

Embora seja poss´ıvel usar um valor constante para ˜µα(n), um comportamento melhor

pode ser obtido com uma regra normalizada. Reinterpretando a combina¸c˜ao como um filtro adaptativo de “segunda camada” [AZPICUETA-RUIZ; FIGUEIRAS-VIDAL; ARENAS-GARC´IA, 2008] e notando que [y1(n) − y2(n)] faz o papel de sinal de entrada para essa segunda

camada, pode-se considerar

˜

µα(n) =

µα

p(n) (1.32)

sendo p(n) uma estimativa da potˆencia de [y1(n)−y2(n)], i.e,

p(n) = λpp(n − 1) + (1 − λp)|y1(n) − y2(n)|2 (1.33)

com p(−1) = 1. A regra normalizada ´e mais f´acil de ajustar do que a n˜ao-normalizada, como observado em [AZPICUETA-RUIZ; FIGUEIRAS-VIDAL; ARENAS-GARC´IA, 2008;CANDIDO; SILVA; NASCIMENTO, 2010]. Al´em disso, a sele¸c˜ao do fator de esquecimento λp n˜ao ´e cr´ıtica

para um bom desempenho da combina¸c˜ao, sendo λp = 0, 9 uma escolha comum na literatura.

As opera¸c˜oes da combina¸c˜ao convexa de dois algoritmos LMS com passos de adapta¸c˜ao diferentes e adapta¸c˜ao normalizada est˜ao mostradas na Tabela 1.4, em que

sign[x] =    −1, x < 0 1, x ≥ 0.

Cabe observar que em uma implementa¸c˜ao pr´atica, a fun¸c˜ao ϕ[·] pode ser calculada com o aux´ılio de uma tabela (lookup table). Al´em disso, no caso de equaliza¸c˜ao, n˜ao ´e necess´ario calcular o vetor de coeficientes da combina¸c˜ao, ou seja,

w(n) = η(n + 1)w1(n) + [1 − η(n + 1)]w2(n), (1.34)

j´a que para essa aplica¸c˜ao, o interesse est´a na estimativa obtida com a sa´ıda global combi- nada, i.e., y(n).

Os benef´ıcios de se utilizar a fun¸c˜ao ϕ[·] para o c´alculo de η(n) s˜ao dois. Primeiramente, ela serve para manter o parˆametro de mistura η(n) no intervalo [ 0, 1 ]. Em segundo lugar,

Tabela 1.4: Sum´ario da combina¸c˜ao convexa de dois filtros LMS. Inicializa¸c˜ao: w1(−1) = 0, w2(−1) = 0, α(−1) = α+, p(−1) = 1 Para n = 0, 1, 2, . . . , calcule η(n) = ϕ[α(n − 1)] = sgm[α(n − 1)] − sgm[−α +] sgm[α+] − sgm[−α+] y1(n) = uT(n)w1(n − 1) y2(n) = uT(n)w2(n − 1)

y(n) = η(n)y1(n) + [1 − η(n)]y2(n)

e1(n) = d(n) − y1(n) e2(n) = d(n) − y2(n) e(n) = d(n) − y(n) ϕ′ [α(n − 1)] = sgm[α(n − 1)]{1 − sgm[α(n − 1)]}sgm[α+] − sgm[−α+] p(n) = λpp(n − 1) + (1 − λp)|y1(n) − y2(n)|2 α(n) = α(n − 1) + µα p(n)Re{e(n)[y1(n) − y2(n)] ∗ }ϕ′ [α(n − 1)] Se |α(n)| > α+ α(n) ← α+sign[α(n)] Fim w1(n) = w1(n − 1) + µ1e1(n)u ∗ (n) w2(n) = w2(n − 1) + µ2e2(n)u∗(n) Fim a derivada ϕ′

[α(n − 1)] que aparece em (1.30) assume um valor pequeno quando η(n) se aproxima dos limites inferior e superior, fazendo com que a velocidade de adapta¸c˜ao e o ru´ıdo do gradiente diminuam [ARENAS-GARC´IA; FIGUEIRAS-VIDAL; SAYED, 2006; L ´AZARO- GREDILLA et al., 2010].

A combina¸c˜ao convexa tem sido utilizada para melhorar o desempenho de filtros adap- tativos e tamb´em como um esquema alternativo em diferentes aplica¸c˜oes, destacando-se:

1. melhoria do desempenho do algoritmo LMS com comprimento vari´avel [ZHANG; CHAM- BERS, 2006];

2. melhoria da capacidade de tracking de filtros adaptativos [SILVA; NASCIMENTO, 2008a];

3. cancelamento de eco ac´ustico, dereverbera¸c˜ao e separa¸c˜ao de fontes ac´usticas [ARENAS- GARC´IA; FIGUEIRAS-VIDAL, 2009;GONZALO-AYUSO et al., 2012;AZPICUETA-RUIZ et al., 2011; ZELLER et al., 2011;AZPICUETA-RUIZ, 2011];

4. equaliza¸c˜ao autodidata [ARENAS-GARC´IA; FIGUEIRAS-VIDAL, 2006;SILVA; NASCIMENTO, 2008a;CANDIDO; SILVA; NASCIMENTO, 2009];

5. equaliza¸c˜ao espa¸co-temporal [CHAVES et al., 2011];

6. cria¸c˜ao de estimadores enviesados [L ´AZARO-GREDILLA et al., 2010];

7. processamento de sinais biol´ogicos [MANDIC et al., 2008; JELFS et al., 2010; XIA et al.,

2011; LI et al., 2012]; e

8. processamento adaptativo distribu´ıdo [CATTIVELLI; SAYED, 2011; TAKAHASHI; YA- MADA; SAYED, 2010; ABDOLEE; CHAMPAGNE, 2011;FERN ´ANDES-BES et al., 2012].

Usando a combina¸c˜ao convexa como fonte de inspira¸c˜ao, outras combina¸c˜oes de algorit- mos foram propostas na literatura. Dentre essas combina¸c˜oes, destacam-se a combina¸c˜ao afim [BERSHAD; BERMUDEZ; TOURNERET, 2008;CANDIDO; SILVA; NASCIMENTO, 2010;BER- MUDEZ; BERSHAD; TOURNERET, 2011] e a combina¸c˜ao linear [KOZAT et al., 2010], descritas a seguir. A combina¸c˜ao afim de dois filtros LMS foi proposta em [BERSHAD; BERMUDEZ; TOURNERET, 2008]. Nesse artigo, o parˆametro de combina¸c˜ao ´e escolhido de forma ´otima a

fim de minimizar o MSE em regime, n˜ao ficando restrito ao intervalo [ 0, 1 ]. Dessa forma, a sa´ıda global ´e uma combina¸c˜ao linear das sa´ıdas dos filtros individuais e a combina¸c˜ao convexa ´e um caso particular. Por isso, a combina¸c˜ao afim de [BERSHAD; BERMUDEZ; TOURNERET, 2008] ´e uma generaliza¸c˜ao da combina¸c˜ao convexa de [ARENAS-GARC´IA; FI- GUEIRAS-VIDAL; SAYED, 2006]. O parˆametro de mistura pode assumir valores negativos, o que ocorre usualmente em regime. Os resultados de [BERSHAD; BERMUDEZ; TOURNERET,

2008] foram estendidos em [CANDIDO, 2009; CANDIDO; SILVA; NASCIMENTO, 2010], conside- rando entrada branca ou colorida e outros algoritmos na combina¸c˜ao (n˜ao apenas o LMS). Al´em disso, foi apresentada uma an´alise do transit´orio da combina¸c˜ao, levando-se em conta

a adapta¸c˜ao dos filtros componentes e tamb´em a adapta¸c˜ao do parˆametro de mistura adap- tado com o algoritmo η-LMS, proposto em [BERSHAD; BERMUDEZ; TOURNERET, 2008]. Os resultados da an´alise do transit´orio facilitaram o ajuste dos parˆametros livres do esquema e a obten¸c˜ao de dois algoritmos normalizados para atualizar o parˆametro de mistura. Nas simula¸c˜oes mostradas em [CANDIDO, 2009; CANDIDO; SILVA; NASCIMENTO, 2010], observa- se uma boa concordˆancia entre os resultados anal´ıticos e os de simula¸c˜ao. Dessa forma, os modelos te´oricos s˜ao capazes de prever situa¸c˜oes em que esses algoritmos podem alcan¸car um desempenho melhor, sendo ´util para o projetista.

Na combina¸c˜ao linear proposta em [KOZAT et al., 2010], n˜ao ´e imposta restri¸c˜ao alguma ao parˆametro de mistura, ou seja, a soma dos pesos das sa´ıdas dos filtros componentes n˜ao ´e necessariamente igual a um como nas combina¸c˜oes convexa e afim. Em [KOZAT et al., 2010], ainda s˜ao apresentados resultados de an´alises te´oricas que confirmam o desempenho melhor da combina¸c˜ao linear em rela¸c˜ao aos filtros componentes. Diante dessas diferentes combina¸c˜oes de algoritmos adaptativos, se faz necess´aria uma compara¸c˜ao sistem´atica e extensiva, levando-se em conta diferentes cen´arios de simula¸c˜ao e os resultados das an´alises te´oricas.

Documentos relacionados