• Nenhum resultado encontrado

2 FUNDAMENTAÇÃO TEÓRICA

2.1 Filtragem Adaptativa Linear Supervisionada

O processamento adaptativo de sinais teve um grande impulso a partir do final da década de 60 através do desenvolvimento do algoritmo adaptativo Least Mean-Squares (LMS). O termo adaptativo refere-se a um sistema cuja função é ajustar iterativamente seus parâmetros internos (geralmente em tempo real) com o objetivo de cumprir determinados critérios de desempenho aceitáveis pela aplicação, que dependem do estado do sistema, assim como dos elementos que o compõem (FARHANG-BOROUJENY, 1999, p. 1).

Segundo Costa (2001, p.2, apud WIDROW e STEARNS (1985)), os sistemas adaptativos possuem todas ou algumas das seguintes características:

 adaptação automática à medida que ocorre a modificação do ambiente e/ou alterações do sistema (auto-otimização);  podem ser treinados para desenvolver uma tarefa específica de

filtragem ou decisão, ou seja, podem ser programados através de um processo de treinamento (autoprogramáveis);

 em decorrência do item anterior, não necessitam procedimentos elaborados de síntese, são basicamente autoprojetáveis;

 podem extrapolar o espaço de conhecimento e lidar com novas situações após o treinamento com um pequeno conjunto de padrões de entrada (auto-aprendizado)

 até certo ponto podem reparar a si mesmos, ou seja, podem adaptar-se em regiões próximas da ótima mesmo quando sujeitos a certos tipos de defeitos ou limitações (auto- regeneráveis);

 geralmente são mais complexos e difíceis de analisar que sistemas não-adaptativos, mas oferecem a possibilidade de um desempenho substancialmente melhor quando as características do ambiente são desconhecidas ou variantes no tempo.

Em sua essência, os filtros adaptativos são sistemas variantes no tempo e não-lineares, visto que dependem do sinal de entrada e não obedecem ao Principio da Superposição (HAYKIN, 1996, p. 3). Entretanto, um filtro adaptativo é dito linear se a sua saída é uma combinação linear das observações na entrada. Sistemas adaptativos com essa característica são mais fáceis de tratar matematicamente.

Estruturalmente, filtros lineares podem ser divididos segundo a sua resposta ao impulso em resposta finita ao impulso (FIR, do inglês Finite Impulse Response) e resposta infinita ao impulso (IIR, do inglês Infinite Impulse Response). Filtros IIR geralmente possuem uma seletividade maior em relação aos filtros FIR, e consequentemente necessitam de um número menor de coeficientes para uma mesma função de transferência, devido à localização dos pólos (ANTONIOU, 2005, p. 554). Entretanto, existe a possibilidade de ocorrência de mínimos locais na superfície de desempenho, baixa velocidade de convergência e maior possibilidade de instabilidade durante o processo de adaptação (ANTONIOU, 2005, p. 871).

Em contrapartida, os filtros FIR possuem resposta ao impulso de comprimento finito e geralmente não apresentam recursividade. São amplamente utilizados em virtude das suas características intrínsecas de estabilidade (os pólos estão na origem, portanto dentro da circunferência de raio unitário do plano Z) e facilidade de implementação. Além disso, apresentam uma menor sensibilidade aos erros de arredondamento, em virtude da ausência de recursividade, e podem ter fase linear e não mínima, e atraso de grupo constante (SHENOI, 2006, p. 267).

A definição da estrutura de realização é um dos requisitos mais importantes da etapa de especificação de um filtro seletivo ou adaptativo. Os filtros lineares podem assumir diferentes tipos de estruturas de realização a partir de uma equação de diferenças, como por exemplo as formas direta I e II. Além disso, em algumas aplicações como conformação de feixe (beamforming) e cancelamento de ruído, a saída pode ser obtida através de uma combinação linear entre diferentes sinais de excitação em paralelo, recebendo a denominação de combinador linear (FARHANG-BOROUJENY, 1999, p. 4). A Figura 1 apresenta a estrutura direta I de um filtro FIR linear, causal e invariante no tempo.

Figura 1 – Realização transversal de um filtro FIR (N = 4).

A estrutura de realização direta, também denominada transversal ou em linha de retardo (tapped-delay line), envolve a combinação de três operações básicas (HAYKIN, 1996, p. 204):

1. o armazenamento, representado pela cascata de N-1 atrasos de uma amostra de um sinal de excitação u(n);

2. o produto interno escalar entre as amostras do sinal de entrada e as da resposta ao impulso do sistema (coeficientes);

3. a operação de adição, que consiste na soma dos resultados das multiplicações definidas anteriormente para produzir a saída do filtro y(n).

Dessa forma, a estrutura de realização transversal da Figura 1 é expressa pela equação de diferenças não recursiva (pólos na origem),

1 0 ( ) ( ) N k k y n u n k w   

 (2.1)

e representada na forma vetorial pelo produto interno ( ) T( ) y nu n w (2.2) z-1 u(n) y(n) z-1 z-1 ∑ w2 ∑ w1 ∑ w3 ∑ w0 u(n-3)

sendo que y(n) é a saída do filtro, wk são os parâmetros internos que

modelam a resposta ao impulso do filtro, w = [w0 w1 … wN-1] T

é o vetor de parâmetros e o vetor de sinal de excitação de entrada u(n) consiste em uma janela das N últimas amostras do sinal de entrada, de forma que u(n) = [u(n) u(n-1) … u(n-N)]T. Esse último vetor geralmente é denominado de regressor na literatura específica.

Neste trabalho, denomina-se de estrutura FIR transversal, a estrutura de realização transversal de um filtro FIR linear e causal, conforme Figura 1, podendo ser variante ou invariante no tempo, dependendo apenas do contexto em que for aplicado (filtragem adaptativa ou seletiva, respectivamente).

A Figura 2 apresenta um problema clássico de filtragem utilizando uma estrutura transversal com coeficientes constantes no qual se deseja minimizar a diferença entre dois processos aleatórios, o sinal na saída do filtro y(n) e o desejado d(n). O erro instantâneo entre ambos pode ser expresso por

( ) ( ) ( ).

e nd ny n (2.3)

Figura 2 – Diagrama de blocos de estimação linear.

O processo de minimização pode ser realizado sobre os valores instantâneos ou em uma função destes, usualmente denominada função de custo ou superfície de desempenho. Uma alternativa bastante utilizada, em virtude das suas características de inexistência de mínimos locais e tratabilidade matemática, é o erro quadrático médio (EQM). O EQM pode ser obtido substituindo-se (2.2) em (2.3), elevando o resultado ao quadrado e tomando o seu valor esperado, resultando em:

 

2 2 2 2 2 2 ( ) ( ) 2 ( ) ( ) ( ) ( ) 2 ( ) ( ) ( ) ( ) 2 ( ) T( ) T ( ) T( ) . E e n E d n d n y n y n E d n E d n y n E y n E d n E d n n E n n         u ww u u w (2.4) Filtro Linear w + Sinal de Entrada u(n) y(n) d(n) e(n) Sinal Desejado _

Os valores esperados presentes em (2.4) são definidos pelas características estatísticas do sinal desejado e de entrada. Entretanto, médias temporais podem ser usadas para a estimação de E{d(n)uT(n)} e E{u(n)uT(n)}, desde que d(n) e u(n) sejam sinais estacionários no sentido amplo (WSS) e ergódicos. A propriedade de ergodicidade é definida para sinais aleatórios que apresentem média temporal idêntica à média do conjunto de medições, ou ensemble (FARHANG- BOROUJENY, 1999, p. 46). Assim,

 

2 2 ( ) 2 T T d du u E e n   p ww R w (2.5) em que d 2 = E{d2},

( ) T( )

uE n n R u u (2.6)

é a matriz de correlação do vetor de entrada e

( ) ( )

duE d n n

p u (2.7)

é o vetor de correlação cruzada entre o vetor de entrada e a resposta desejada.

A matriz de correlação Ru desempenha um papel expressivo na

análise de filtros lineares seletivos e adaptativos, como por exemplo, aferir a velocidade de convergência e estabilidade. Segundo Haykin (1996, p. 101), três propriedades de Ru podem ser definidas em um

processo estocástico com estacionaridade assintótica no sentido amplo:  simetria: para o caso de sinais reais, a matriz é idêntica à sua

transposta, Ru = Ru T

;

estrutura Toeplitz: todos elementos em qualquer diagonal paralela à diagonal principal possuem valores constantes;  ser positiva semi-definida: desde que sejam satisfeitos os

requisitos de estacionaridade assintótica, a matriz de correlação será positiva semi-definida, vTRuv ≥ 0. Na prática

pode ser considerada positiva definida (HAYKIN, 2002). O uso do critério de erro quadrático médio como função de custo para o projeto do filtro linear seletivo apresentado na Figura 2 requer o conhecimento a priori das estatísticas conjuntas de segunda ordem dos sinais WSS de excitação e desejado. Através de (2.5) verifica-se que E{e2(n)} é uma função quadrática dos coeficientes do filtro (HAYKIN, 1996, p. 207). Outras funções de custo podem ser utilizadas como, por exemplo, o valor absoluto ou a hit-or-miss, porém podem resultar em filtros (estimadores) mais complexos e de difícil realização. As

seguintes vantagens podem ser listadas para a utilização da superfície de desempenho segundo o EQM:

a função de custo é um paraboloide com N graus de liberdade e apresenta apenas um único mínimo global, sem ocorrência de mínimos locais, já que corresponde a uma superfície quadrática convexa devido à matriz de correlação ser considerada positiva definida (Figura 3);

o filtro resultante é ótimo se os sinais u(n) e d(n) apresentarem distribuição Gaussiana e forem ergódicos e estacionários no sentido amplo.

Figura 3 – Exemplo de função de custo paraboloide (Figura 6.4 de (MANOLAKIS; INGLE e KOGON, 2005)).

A solução para o conjunto ótimo de coeficientes segundo o critério do mínimo erro quadrático médio é denominada solução de Wiener-Hopf (HAYKIN, 1996, p. 206) em decorrência do trabalho do matemático americano Norbert Wiener (1894-1964), posteriormente reformulado para o tempo discreto por Norman Levinson (1912-1975). No ponto de mínimo dessa superfície, a função de custo atinge seu menor valor, denotado por E{e2min(n)}. O vetor de gradiente neste

ponto, que consiste na derivada parcial de primeira ordem com respeito aos coeficientes, é zero para todos os elementos do vetor,

2

min( ) .

E e n

 0 (2.8)

Aplicando-se a derivada parcial em (2.5), resulta em

 

2

 

2( ) ( ) 2 du 2 u E e n E e n       w p R w (2.9)

e inserindo as restrições de (2.8), obtém-se a equação de Wiener-Hopf para os coeficientes ótimos, dada por

. o duu

Pré-multiplicando a equação (2.10) por Ru-1, tem-se que 1 o u du   w R p (2.11)

sendo necessário que Ru seja não singular (possua inversa).

A equação (2.11) é obtida considerando o caso particular de estrutura FIR transversal. A forma geral para as equações de Wiener- Hopf é obtida através do princípio da ortogonalidade, que estabelece que o filtro é dito ótimo no sentido do erro quadrático médio, quando o vetor de coeficientes w é tal que o erro e(n) é estatisticamente ortogonal ao vetor de entrada (HAYKIN, 1996, p. 197), ou seja,

( ) ( )

0 0

k N E e n u n k

 

  (2.12)

Apesar de ótima no sentido quadrático médio, a solução de Wiener-Hopf apresenta alguns inconvenientes:

 possui custo computacional elevado para um número grande de coeficientes, o que pode inviabilizar algumas aplicações em tempo real;

 pode resultar em problemas de estabilidade, devido à inversão da matriz de correlação;

 em ambiente não-estacionário, a teoria de filtragem ótima geralmente é sub-ótima, devido à dificuldade intrínseca de conhecimento a priori das propriedades estatísticas dos sinais envolvidos no sistema.

De forma a evitar os problemas mencionados, diferentes estratégias iterativas podem ser empregadas. Entre os métodos iterativos de otimização existentes, o de gradiente de descida mais íngreme (steepest-descent) é bastante difundido por sua simplicidade, e consiste em um procedimento recursivo para encontrar o valor de mínimo de uma função de custo.

Considerando-se a estrutura FIR transversal da Figura 1 e a função de custo de (2.5), a equação de atualização dos coeficientes no instante posterior (n+1) é obtida através da seguinte relação (HAYKIN, 1996, p. 342):

2

1 ( 1) ( ) ( ) 2 n  n  E e n w w (2.13)

em que µ é o passo de ajuste do algoritmo e o valor ½ visa a simplificação posterior de uma constante associada ao gradiente E{e2(n)}. Substituindo-se a equação (2.9) em (2.13), obtém-se

( 1) ( ) ( ) ( ) . du u N u du n n n n

       w w p R w I R w p (2.14)

Nota-se que a equação (2.14) utiliza as estatísticas dos sinais de entrada, mas sem a necessidade de inversão de Ru.

Na implementação, o projetista deve indicar a condição inicial do vetor de coeficientes w(0) em um ponto qualquer da superfície. O algoritmo utiliza o resultado do gradiente deste ponto para calcular o novo vetor de coeficientes na direção da solução ótima E{e2min(n)} (e

oposta ao gradiente). Desde que sejam cumpridos os requisitos de estabilidade do passo, este procedimento é repetido até chegar à solução ótima. Nas iterações iniciais, o algoritmo efetua uma maior redução na função de erro por iteração. Entretanto, conforme os elementos do gradiente tornam-se menores, devido à proximidade em relação à solução ótima, o processo de adaptação tende a ficar consideravelmente mais lento. Se há uma grande dispersão de autovalores na matriz de correlação do sinal de entrada, então o ponto de solução tende a seguir uma trajetória em zig-zag no espaço dos parâmetros e o desempenho do algoritmo tende a se deteriorar (ANTONIOU, 2005, p. 868).

Uma alternativa para reduzir o número de iterações necessárias para que o algoritmo convirja até o ponto de mínimo é o emprego do método de Newton. A equação de atualização dos coeficientes resultante é obtida através de uma aproximação da superfície de desempenho apresentada em (2.5), resultando em (SAYED, 2003, p. 191):

 

1 1 ( 1) ( ) ( ) 1 ( ) . u du u u du n n n n

         w w R p R w w R p (2.15)

Considerando-se a utilização do passo unitário em (2.15), tem-se que apenas uma iteração é necessária para que o algoritmo chegue à solução ótima. Salienta-se que essa melhoria na velocidade de convergência apresenta a necessidade de inversão da matriz de correlação Ru, aumentando a complexidade computacional e

possibilitando problemas de instabilidade. As equações (2.14) e (2.15) podem ser vistas como modelos para gerar vários algoritmos adaptativos a partir de aproximações estocásticas de Ru e pdu.

De forma a superar a necessidade do conhecimento a priori das estatísticas dos sinais envolvidos. Os filtros adaptativos supervisionados aparecem como uma solução atrativa, realizando o aprendizado iterativo das características estatísticas dos sinais envolvidos. Classifica-se como supervisionado, o filtro adaptativo que tem acesso ao sinal desejado d(n) e utiliza-o como referência. Conforme a estrutura básica apresentada na Figura 4, o filtro adaptativo supervisionado consiste na combinação de dois processos: um processo de filtragem variante no tempo e uma estratégia de adaptação dos parâmetros do filtro.

Figura 4 – Diagrama de blocos de um filtro adaptativo supervisionado. Existem basicamente quatro classes de aplicações para filtros adaptativos supervisionados (MANOLAKIS; INGLE e KOGON, 2005, p. 17):

1. Identificação (ou modelamento) de sistema: o filtro adaptativo é usado para modelar uma planta desconhecida através de critérios específicos. Conforme a Figura 5.a, o sinal de excitação u(n) é aplicado na entrada da planta e do filtro adaptativo. O sinal de excitação de entrada é livre de ruído, enquanto o sinal desejado d(n) é corrompido por interferências descorrelacionadas com o sinal de excitação. O objetivo é ajustar os coeficientes da estrutura utilizada de forma que a saída do filtro se aproxime da resposta desejada de acordo com o critério de desempenho definido. Entre as aplicações possíveis encontram-se o cancelamento de eco, o modelamento de canal e a identificação de sistemas de controle (MANOLAKIS; INGLE e KOGON, 2005, p. 17);

Estratégia de Atualização Filtro w(n) + Sinal de Entrada u(n) y(n) d(n) e(n) Sinal Desejado Erro de Estimação _

2. Modelamento inverso: o objetivo é a obtenção do recíproco da função de transferência de uma planta desconhecida. Uma versão atrasada do sinal de entrada da planta é utilizada como resposta desejada para a filtragem adaptativa (Figura 5.b). Exemplos de aplicações que aplicam o modelamento inverso são: a equalização de canal telefônico, visando reduzir a interferência intersimbólica, e a descorrelação preditiva;

3. Predição de sinal: o objetivo desta classe é realizar previsões a respeito da evolução de um processo aleatório com base no seu conhecimento passado (Figura 5.c). Exemplos de aplicações empregadas são o adaptive differential pulse code modulation (ADPCM) e a codificação linear preditiva (LPC);

4. Cancelamento de interferência (ruído): tem como objetivo realizar o cancelamento ou redução de um ruído adicionado a um sinal de interesse (sendo a composição destes sinais denominada de sinal primário), a partir de um sinal de referência correlacionado ao ruído (Figura 5.d). Alguns autores também denominam essa classe de melhoramento de sinal (signal enhancement). Pode ser empregado no cancelamento de ruído e em antenas inteligentes (beamforming) multi-sensoriais.

Figura 5 – Classes de aplicações de filtros adaptativos supervisionados: (a) identificação de sistema; (b) modelamento inverso; (c) predição de sinal; (d) cancelamento de interferência multi-sensor.

2.1.1 Algoritmos para Filtragem Adaptativa Linear Supervisionada

Os algoritmos adaptativos para filtros lineares supervisionados possibilitam o ajuste iterativo dos parâmetros do filtro em direção à solução ótima através da minimização da estimação instantânea da superfície de desempenho. Dessa forma, sua complexidade é menor, porém sendo função da estrutura e do critério de desempenho utilizado. Os algoritmos mais difundidos são geralmente derivados a partir de dois métodos (FARHANG-BOROUJENY, 1999, p. 6) (HAYKIN, 1996, p. 9):

MÉTODO DO GRADIENTE ESTOCÁSTICO:

Uma forma geralmente empregada na derivação de algoritmos adaptativos para filtros lineares supervisionados é a modificação de métodos iterativos de otimização, como o método do gradiente de descida mais íngreme. Dessa forma, possibilitam o ajuste iterativo dos parâmetros do filtro na direção da solução ótima, através de aproximações empregadas na estimação instantânea da superfície de desempenho. O termo gradiente estocástico visa distingui-los do método de otimização pelo gradiente de descida mais íngreme (HAYKIN, 1996, p. 365). O procedimento de atualização nesse caso consiste em:

Direção de Ponderação da 1 ( ) atualização atualização n  n       w w (2.16)

em que o símbolo µ denota o passo do algoritmo e permite controlar o salto na busca pela solução ótima. O algoritmo Least Mean-Square (LMS) é o mais difundido.

MÉTODO DOS MÍNIMOS QUADRADOS:

Enquanto a solução empregada pelo método do gradiente estocástico se baseia em uma formulação estocástica para o problema de filtragem, a solução pelo método dos mínimos quadrados representa uma perspectiva determinística, através da soma dos quadrados do erro das estimativas. Algoritmos baseados nesse método convergem mais rapidamente que o LMS para um sistema invariante no tempo e sinais estacionários, e não são demasiadamente sensíveis à densidade espectral do sinal de excitação. Porém, apresentam uma maior complexidade computacional e podem tornar-se numericamente instáveis (FARHANG-BOROUJENY, 1999, p. 8). Um exemplo de algoritmo baseado nesse método é o Recursive Least-Squares (RLS), que também pode ser derivado de forma estocástica.

2.1.1.1 Algoritmos LMS e NLMS

Em decorrência da ampla gama de aplicações dos algoritmos LMS e NLMS e de seu uso como padrão na comparação de desempenho com outros filtros adaptativos, apresenta-se a seguir uma discussão sobre ambos, permitindo introduzir o NLMS na análise do APA.

O algoritmo LMS foi desenvolvido por Widrow e Hoff em 1959 na Universidade de Stanford, sendo o mais difundido algoritmo adaptativo devido ao seu baixo custo computacional. Pertence à classe de algoritmos baseados no método do gradiente estocástico.

Figura 6 – Diagrama de blocos de um problema de identificação de sistema. Dado o diagrama de blocos do problema de identificação de sistema apresentado na Figura 6, o sinal desejado d(n) é representado pelo produto interno da resposta ao impulso do sistema desconhecido wo = [w0 o w1 o ... wN-1 o

]T (de tal forma que w(n) = wo é ótimo no sentido de Wiener) com o regressor de entrada u(n) = [u(n) u(n-1) u(n-N+1) ]T, adicionado por um distúrbio r(n), de tal forma que

( ) T( ) o ( ).

d nu n wr n (2.17)

Este distúrbio é representado por um processo aleatório do tipo ruído branco, de média zero e variância σr

2

, independente do sinal de entrada. O sinal y(n) corresponde à saída de um filtro FIR transversal variante no tempo expresso por

( ) T( ) ( )

y nu n w n (2.18)

em que w(n) = [ w0(n) w1(n) wN-1(n) ] T

é o vetor de coeficientes, representando a resposta ao impulso do filtro. A estrutura do filtro linear

Sistema Desconhecido wo Filtro Adaptativo w(n) + ] Sinal de Entrada u(n) y(n) r(n) + d(n) e(n) Ruído _ _

é similar à apresentada na Figura 1, porém com coeficientes variantes no tempo. Como já descrito anteriormente, o erro instantâneo de estimação do processo de filtragem é obtido através da diferença entre o sinal de saída do filtro adaptativo e o sinal desejado,

( ) ( ) ( ).

e nd ny n (2.19)

Dessa forma, a função de custo segundo o critério do erro quadrático médio para o sistema da Figura 6 é obtida substituindo-se (2.17) e (2.18) em (2.19), elevando-se ao quadrado e tomando-se o valor esperado de ambos os lados da expressão, resultando em:

2

2 2

( ) r T( ) ( ) o .

E e n  E u nw nw (2.20)

O algoritmo LMS realiza a adaptação dos coeficientes através de uma estimativa do gradiente da superfície de desempenho de (2.20). Nesse sentido, ao invés do erro quadrático médio, é utilizado o erro instantâneo,

2

2

( ) ( )

E e n e n

   . (2.21)

e aplicando-se o gradiente no erro instantâneo de (2.19), resulta em

2 ( ) ( ) 2 ( ) 2 ( ) ( ) ( ) e n e n e n e n n n      w u (2.22)

Substituindo-se (2.22) em (2.13), tem-se a seguinte equação de atualização dos coeficientes:

(n 1) ( )n  ( ) ( ).n e n

w w u (2.23)

Dessa forma, o LMS pode ser visto como uma aproximação do algoritmo de descida mais íngreme, usando apenas os sinais de entrada disponíveis no sistema a cada iteração. Uma limitação conhecida do LMS é que variações na potência de u(n) levam a variações significativas no ajuste dos coeficientes, podendo acarretar em instabilidade. A amenização desse problema é provida pelo algoritmo NLMS.

Em Sayed (2003, p. 225), o algoritmo LMS normalizado (NLMS) é apresentado como uma aproximação instantânea do método de Newton. Utilizando-se as seguintes aproximações:

( ) T( ) un n R u u (2.24) ( ) ( ) dun d n p u (2.25)

em (2.15), e aplicando-se um fator de regularização ε para evitar alguma instabilidade na inversão da matriz u(n)uT(n), tem-se que

1

( 1) ( ) ( ) T( ) ( ) ( ).

N

n  n

 

n nn e n

w w I u u u (2.26)

A recursão dos coeficientes requer a inversão de [εIN+u(n)u T

(n)]. Porém, como essa matriz é uma modificação de posto um de um múltiplo de uma matriz identidade, sua inversa tem uma estrutura similar (SAYED, 2003, p. 225). Aplicando-se o lema de inversão de matrizes expresso por

1 1 1 1 1 1 1      A BCD A A B C DA B DA (2.27) tem-se que 2 1 1 1 ( ) ( ) ( ) ( ) 1 ( ) ( ) T T N n n N T n n n n              I u uI u u u u (2.28)

em que a expressão no lado direito de (2.28) é uma modificação de posto um de ε-1

IN . Multiplicando ambos os lados por u(n), resulta em

1 ( ) ( ) ( ) ( ) ( ) ( ) T N T n n n n n n

      I u uu u u u (2.29)

e assim, a recursão para os coeficientes do algoritmo NLMS é dada por ( ) ( 1) ( ) ( ). ( ) ( ) T n n n e n n n

    u w w u u (2.30)

Dessa forma, a normalização de u(n) é efetuada através do denominador do algoritmo NLMS. Uma abordagem alternativa para sua derivação através de otimização local pelo método dos mínimos quadrados é apresentada posteriormente, na Seção 2.3, consistindo em uma análise introdutória para o algoritmo de projeções afins.

Documentos relacionados