• Nenhum resultado encontrado

Capítulo 2 – Filtragem Adaptativa

2.6 Algoritmo LMS

O algoritmo LMS é o algoritmo adaptativo mais básico e o mais amplamente empregado em várias aplicações envolvendo filtragem adaptativa linear (Haykin, 1996) e (Manolakis, Ingle & Kogon, 2005). Tal algoritmo consiste de uma implementação estocástica do algoritmo SD, e foi introduzido por Bernard Widrow e Marcian Hoff em 1960 juntamente com a rede neural ADALINE (ADAptive LInear NEuron). O algoritmo LMS é uma técnica simples e computacionalmente eficaz de atualização do vetor de coeficientes de um filtro adaptativo, uma vez que usa, em sua regra de adaptação, uma estimativa do MSE baseada no erro quadrático instantâneo dado por (Widrow & Hoff, 1960)

=

= [ − + ] . considerando um ruído aditivo de medição, . Devido à sua simplicidade e robustez a variações na estatística dos sinais envolvidos, o algoritmo LMS tem sido objeto de estudo de vários pesquisadores ao redor do mundo. Ao longo das últimas décadas, várias modificações e aprimoramentos deste algoritmo têm sido propostos. A seguir é apresentada a derivação do algoritmo LMS a partir do algoritmo SD.

2.6.1 Derivação do Algoritmo LMS

Considere que medidas precisas do gradiente � de (2.56) pudessem ser obtidas em cada iteração, , e que o parâmetro de passo, , pudesse ser escolhido corretamente de acordo com os autovalores de �. Neste caso, o algoritmo SD poderia ser perfeitamente usado para encontrar o vetor . Porém, na prática, não se dispõe de um conhecimento a priori de � e , o que torna impossível obter medidas exatas de �. Uma alternativa viável é o uso de um algoritmo iterativo que dispensa o conhecimento estatístico dos sinais envolvidos, tal como o algoritmo LMS. Este algoritmo é um membro importante da família dos algoritmos de gradiente estocástico. O termo “gradiente estocástico” é usado para distinguir o algoritmo LMS do algoritmo SD, uma vez que o primeiro usa um gradiente estocástico dado por (2.79) ao passo que o último usa um gradiente determinístico dado por (2.53) na busca iterativa pelos coeficientes ótimos do filtro linear. Com base nesta informação, considere o filtro adaptativo transversal de ordem mostrado na Figura 2.18. A saída deste filtro é dada por

= ∑ − +

=

= . onde os coeficientes do filtro são ajustados iterativamente de forma a minimizar erro de estimação dado por

= − + . sendo um ruído de medição.

Figura 2.18. Filtro adaptativo transversal.

Sabe-se de (2.58) que o algoritmo SD possui a seguinte regra de atualização + = − � . onde o operador é dado por

= [ … ] . e

� = E[ ]. . Substituindo o MSE dado por (2.84) por uma estimativa baseada no erro quadrático instantâneo dado por (2.79), obtém-se uma nova regra de atualização

+ = −

= − . onde

= [ … ] . . Para , com = , , … , , obtém-se

= [ − + ] = − − + . . Logo, tem-se que

= − . Agora, substituindo (2.88) em (2.85) obtém-se a regra de atualização do algoritmo LMS como sendo

+ = + . . Note que (2.89) apresenta-se como um procedimento simples de adaptação recursiva dos coeficientes do filtro adaptativo. A equação (2.89), juntamente com (2.80) e (2.81) compõem os passos a serem executados em cada iteração do processo de adaptação do algoritmo LMS. A Tabela 2.1 contém um sumário de execução deste algoritmo aplicado em um problema de identificação de uma planta .

Tabela 2.1. Sumário do algoritmo adaptativo LMS 1. Inicialização

= � e parâmetros

< < x 2. Obtenção dos dados de entrada e saída

da planta

= e do filtro adaptativo

= .

3. Cálculo do sinal de erro

= − + .

4. Atualização dos coeficientes do filtro

+ = + .

A seguir é feita uma breve análise comparativa entre os algoritmos SD e LMS.

2.6.2 Comparação entre os Algoritmos SD e LMS

Assim como o algoritmo SD, o desempenho do algoritmo LMS é altamente dependente da densidade espectral do sinal de entrada do filtro. Quando possui um espectro plano (um

ruído branco, por exemplo), o algoritmo LMS converge rapidamente. Em outras palavras, quanto mais próxima da unidade for a relação dada por (2.78), melhor será o desempenho do algoritmo LMS. Outra semelhança entre os algoritmos SD e LMS reside no parâmetro de passo. Note de (2.82) e (2.89) que o parâmetro de passo, , do algoritmo LMS é o mesmo usado pelo algoritmo SD

< <

� . sendo x o maior autovalor de � (Widrow & Stearns, 1985). Isto implica que, assim como para o algoritmo SD, para garantir a convergência e estabilidade do algoritmo LMS o parâmetro de passo, , deve ser escolhido de acordo com os limites de (2.90).

O algoritmo SD é capaz de alcançar o vetor de coeficientes ótimos, , definido pela equação de Wiener-Hopf, quanto maior for o número de iterações, . Isto se dá pelo uso de medidas exatas do gradiente do MSE. Já o algoritmo LMS, por sua vez, usa uma estimativa ruidosa de �. Consequentemente, o algoritmo LMS, após várias iterações, resulta em um MSE em regime, � ∞ , maior do que o MSE mínimo, � i , da função de desempenho do filtro de Wiener. Outra diferença básica entre os algoritmos SD e LMS reside na curva de aprendizagem de cada algoritmo. Esta curva é obtida traçando o gráfico da evolução do MSE para o algoritmo considerado em relação ao número de iterações. Nota-se de (2.72) que a curva de aprendizagem do algoritmo SD consiste de uma soma componentes exponenciais decrescentes bem definidas. Já para o algoritmo LMS, a curva de aprendizagem consiste de uma soma de exponenciais decrescentes ruidosas. A amplitude do ruído pode ser reduzida a partir da escolha de um menor valor para o parâmetro de passo, (Haykin, 1996).

A partir do algoritmo LMS surgiram outros dedicados aos mais variados processos (Paleologu, Ciochina, Benesty & Grant, 2015). O algoritmo LMS e suas derivações representam uma família padrão de aplicações envolvendo filtragem adaptativa (Jelfs, Mandic & Benesty, 2007). A seguir é apresentado um algoritmo LMS que usa um parâmetro de passo variável obtido a partir de dados do vetor de entrada. Este algoritmo proposto no final da década de 1960 e é denominado algoritmo LMS normalizado ou NLMS (Nagumo & Noda, 1967) e (Albert & Gardner Jr., 1967).