• Nenhum resultado encontrado

Filtro de Kalman – O estado do sistema e a sua saída são processos lineares, discretos,

Capítulo 3. Construção do Filtro de Kalman Aplicado em Sistemas Lineares, Discretos,

3.3. Filtro de Kalman – O estado do sistema e a sua saída são processos lineares, discretos,

O filtro de Kalman pode ser descrito como um algoritmo para estimar a média condicional e a covariância condicional da distribuição de probabilidade do estado de um sistema multivariável, linear, discreto, estocástico e variante no tempo.

A média condicional é a estimativa não tendenciosa do estado do sistema e ela se propaga em forma de realimentação deste sistema.

A covariância condicional é uma medida da dispersão estatística dos valores da estimativa não- tendenciosa do estado do sistema, em torno da sua média condicional. A implementação deste algoritmo minimiza o risco associado com a função quadrática de estimação do erro da equação (2.19).

Consideremos o sistema representado pelas equações (2.82) e (2.83) do Capitulo 2, as quais são transcritas a seguir:

x(k+1) = A(k) x(k) + B(k) u(k) + E(k) (k)

y (k) = C(k) x(k) + D(k) u(k) + F(k) (k)

Consideremos que exista uma função que relacione o vetor de entradas u(k) e o vetor de saídas

y(k), para os intervalos de tempo (k).

Considerando a Definição 1 sobre -álgebra na seção 2.2 do Capítulo 2, então podemos afirmar que o vetor u(k) é mensurável em .

Pela equação de y (k) acima temos que o vetor u(k) é uma retroalimentação linear da saída do sistema de modo que (31):

u(k) = L(k) y(k) = L(k) [C(k) x(k) + D(k) u(k) + F(k) (k)] (3.6)

sendo que L(k) .

Desta forma vemos pela equação (3.6) que o estado do sistema x(k) e a sua saída y(k) são processos estocásticos e lineares com distribuição Gaussiana, e também processos estocasticos e lineares de Markov, conforme exposto no Capítulo 2, seção 2.7.5.

108

A seguir serão apresentadas algumas propriedades do Filtro de Kalman através de Lemas, os quais são necessários e suficientes para a construção do algoritmo chamado Filtro de Kalman.

3.3.1. Distribuição Discreta de Probabilidade Gaussiana Multivariável

Para considerarmos uma distribuição de probabilidade Gaussiana multivariável e o problema da variância mínima do estado estimado de um sistema estocástico, precisamos definir os vetores aleatórios x(k) e y(k) com distribuição Gaussiana conjunta das variáveis aleatórias x e y. A média dos elementos de cada vetor é dada pela equação (2.42.b), reproduzida a seguir:

(k) = E [x(k)] (k) = E [y(k)]

e a matriz de covariâncias cruzadas destes vetores aleatórios foi dada pela equação (2.43), reproduzida a seguir: [( )]=[ ] [ ]

sendo que é considerada matriz definida positiva e não- singular. Para o caso de ( ) ser matriz singular o resultado obtido é válido quando substituímos a matriz pela sua matriz pseudo-inversa . A função discreta de densidade de probabilidade conjunta dos vetores aleatórios x(k) e y(k) pode ser representada pela equação (2.49), na qual substituímos e conforme a equação (2.43), resultando na equação (3.7) a seguir,

p[ , = exp{

+

}} (3.7)

sendo,

(k) o intervalo de tempo conforme a figura 1.4 no Capítulo 1.

109

é a matriz de covariâncias do vetor aleatório y(k) em função do intervalo de tempo (k). p[ , é a função discreta de densidade de probabilidade conjunta e variante no tempo para os vetores aleatórios x(k) e y(k).

Lema 1. (31) Seja a função discreta de densidade de probabilidade Gaussiana p[ ,

dada pela equação (3.7). Então a distribuição de probabilidade condicional de , sendo dado ), é também Gaussiana com média igual a,

E [x( ) | y( ] =

+

.[ (3.8)

e a matriz de covariâncias entre x( ) e y( é igual a, E [{x(k) – E[x(k) |y(k)]} =

=

(3.9)

Também o vetor {x(k) – E [x(k) | y(k)]} é independente de x(k) e a condição de ortogonalidade a seguir é válida: {x(k) – E [x(k) | y(k)]} y(k)

Prova: Iniciamos fazendo o cálculo da função discreta de densidade de probabilidade conjunta

Para isto definimos as matrizes a seguir:(70)

[ ] [ ] = – sendo,

110

a função discreta de covariância cruzada dos processos ) =

a função discreta de covariância em forma matricial do processo )

, e são partições da matriz de covariâncias cruzadas inversa acima.

A matriz inversa da matriz de covariâncias cruzadas dada pela equação (2.71), é particionada e as partições são dadas a seguir:

= – = + . .

Definimos a forma quadrática dada pela equação (3.10) a seguir:

M[x (k), y(k)]= [

] (3.10)

Portanto a forma quadrática M[x(k), y(k)] definida pela equação (3.10), que é similar à equação (2.44), pode ser reescrita na forma a seguir:

M[x(k), y(k)] = + + . + + + + . M[x(k), y(k)] = . . . +

111

+ [ ]

Portanto, a função discreta de densidade de probabilidade conjunta p[ , é dada pela equação (3.11) a seguir, p[ , = . . [ ] (3.11) sendo, =

é a matriz de correlação temporal entre os vetores x(k) e y(k)

Pelo exposto a equação (3.11) é similar à equação (3.7).

Pela equação (2.35) o cálculo da função massa de probabilidade marginal ou função discreta de probabilidade marginal para o vetor discreto y(k) é feito ao realizarmos a somatória das funções discretas de probabilidade do outro vetor discreto x(k) dada pela equação (3.12):

= [ ]

(3.12)

Pelo conceito de função massa de probabilidade condicional conjunta ou função discreta de densidade de probabilidade condicional conjunta explicito na equação (2.36), ao dividirmos a equação (3.11) pela (3.12) obtemos a função discreta densidade de probabilidade condicional dada pela equação (3.13):

=

(3.13)

Por isso, pela equação (3.13) concluímos que as equações (3.8) e (2.26) se sustentam e são válidas.

112

A partir da equação (3.11) concluímos que = e são vetores independentes entre si. cqd

Lema 2. (31) Sejam e vetores aleatórios discretos e suas distribuições discretas de densidade de probabilidade Gaussianas conjuntas. Então, a estimativa de com variância mínima é ̂ , a qual está baseada em sendo dada pela média condicional,

̂ = E [x(k) | y(k)] = (3.14)

Prova. A estimativa ̂ com variância mínima é uma função f [ que minimiza a equação E [‖ ‖ ]. Pela equação (2.47) temos que,

f [ = a y(k) + b

Então temos que,

E [‖ ‖ ] = E [‖ – ‖ ] =

= E ‖ ‖

+ 2

– +

‖ ‖

Uma vez que [ – ] seja mensurável em e já que E [x(k) | y(k)] = conforme a equação (2.47), então o segundo termo da expressão acima pode ser escrito como:

= { [ – ]]} = = {

] –

Isto evidencia que os vetores deste produto escalar são ortogonais entre si. Portanto, temos a equação a seguir,

113

E [‖ ‖ ]

=

E ‖ ‖

+

‖ ‖

E ‖ ‖

sendo que a igualdade acima é válida somente se = Neste caso,

‖ ‖ = 0

e, portanto ̂ = =

Assim sendo, a estimativa ̂ com variância mínima é dada pela média condicional a seguir:

= E [x(k) | y(k)] (3.15) cqd

Portanto, notamos que a esperança condicional é uma função linear em y(k), de modo que a estimativa ̂ com variância mínima é obtida pela projeção ortogonal do vetor x(k) sobre o espaço linear gerado por y(k). A esperança condicional como uma função linear em y(k) foi definida na seção 2.6.1. utilizando um vetor aleatório de observações y(k).

3.3.2. Estimação Ótima do Estado do Sistema pela Projeção Ortogonal

A estimação de estado do sistema multivariável, linear, discreto, estocástico e variante no tempo está associada ao filtro de Kalman. O sistema será representado aqui pelas equações (2.82) e (2.83) definidas na seção 2.8.2, as quais são reapresentadas a seguir:

x(k+1) = (k) x(k) + B(k) u(k) + E(k) (k)

y (k) = C(k) x(k) + D(k) u(k) + F(k) (k)

Vimos na seção 3.2 que os processos de ruídos (k) e (k) estão correlacionados com o estado estimado do sistema ̂ (k). Assim sendo, os vetores de ruídos do sistema e de medição dados pelas equações (2.85) a (2.88) podem ser representados pelas matrizes de covariâncias conforme a equação (3.16.a) a seguir: (71)(72)

114

E{ [

]} (3.16.a)

A esperança de uma matriz com elementos variantes no tempo é igual à matriz das esperanças de cada elemento. Desta forma podemos escrever,

E{ [ ]} [

]

Substituindo as equações (2.86) e (2.88) nos elementos respectivos da matriz à direita da igualdade acima vem:

E{[ ]} = [

– – ]

O primeiro termo (3.16.a) é a esperança aplicada a matriz de funções de correlação dos processos de ruídos do sistema, de medição e as correlações cruzadas destes processos. O segundo termo contém as matrizes de covariâncias dos processos de ruídos do sistema, de medição e as covariâncias cruzadas descritas a seguir.

A matriz de covariâncias do ruído do sistema é considerada definida positiva e a matriz de covariâncias de ruídos de medição é considerada definida positiva também e foram definidas pelas equações (2.86) e (2.88).

A matriz de covariâncias cruzadas do ruído do sistema sobre a medição é é considerada nula, sendo definida pela equação a seguir:

= – = 0 (3.16.b)

A matriz de covariâncias cruzadas do ruído de medição sobre o sistema é é considerada nula, sendo definida pela equação a seguir:

115

= – = 0 (3.16.c)

Portanto, as matrizes de covariâncias de ruídos do sistema e de medição podem ser representadas pela equação matricial (3.16.d) a seguir:

E{ [ ]}= [ – – ] = = [ ] – (3.16.d)

sendo que é considerada matriz definida positiva, tal que .

A sequência de estados do sistema x(k) é um processo multivariável, linear, discreto e estocástico Markoviano, pois como vimos pela equação (2.73), o futuro do processo no intervalo (k + 1), dado o presente, depende somente do resultado que o precede imediatamente no intervalo de tempo (k). Então o modelo matemático do sistema representado pelas equações (2.82) a (2.88) tem agora o formato modificado para incluir a matriz de covariâncias cruzadas dos processos de ruídos de medição e do sistema, pelas equações (3.17) a seguir:

x(k+1) = (k) x(k) + B(k) u(k) + E(k) (k) (3.17.a)

y (k) = C(k) x(k) + D(k) u(k) + F(k) (k) (3.17.b)

= [

] – (3.17.c)

A figura 3.1 a seguir ilustra o diagrama de blocos das equações de estado do sistema com entradas e saídas, ruídos, sendo o operador deslocamento para trás de um intervalo de tempo

(k) aplicado ao vetor de estado. Notar que a malha de realimentação do vetor do estado (k) é através da matriz (k), que o vetor de entradas u(k) afeta o vetor de saída y(k) e

116

consequentemente a evolução do vetor x(k), a qual será incorporada no Filtro de Kalman neste capítulo. (k) D(k) F(k) (k) E(k) u(k) B(k) + x(k+1) x(k) C(k) + y(k) + (k)

Figura 3.1 – Diagrama de blocos das equações de estado e de medidas de um sistema multivariável, linear, discreto, estocástico e variante no tempo com entradas e saídas, e ruídos.

Pelo Lema 2 visualizamos que a estimativa de com variância mínima é dada pela média condicional ̂ = E [x(k) |y(k)], a qual está baseada em

Como os vetores x(k) e y(k) são processos aleatórios com distribuição Gaussiana e a esperança condicional é uma função linear de y(k) de acordo com o Lema 2, então a estimativa ótima coincide com a estimativa linear de variância mínima de x(k) baseada nas observações na saída do sistema.

Lema 3. (31) A estimativa de variância mínima ̂ é dada pela projeção ortogonal de

x( ) sobre y(k), tal que,

117

A otimalidade de ̂ é que o erro de estimação ̃ é ortogonal a y(k), tal que,

̃ = x( ) – ̂ y(k) (3.18.b)

Além disso, a estimativa de variância mínima é não-viesada ou não-tendenciosa.

Prova. O conceito de projeção ortogonal foi apresentado no Capítulo 2, na seção 2.6.1 Princípio

da Ortogonalidade, o qual significa que nestas condições a diferença entre o vetor x( ) e a sua estimativa ̂ tem o valor mínimo quando projetado ortogonalmente sobre y(k). Como o vetor ̃ é ortogonal ao vetor y(k), então temos o produto escalar abaixo,

E [ ̃ = ̃ ] = 0 (3.19)

sendo que ̃ ] é a função de correlação cruzada entre o vetor de erro ̃ e o

vetor de medidas na saída , conforme a definição dada pela equação (2.69). Como o vetor

y(k) tem valor constante em intervalo de tempo (k) e considerando o Lema 2, então o erro

mínimo é ortogonal à y(k) e a estimativa de variância mínima é não-viesada. cqd

3.3.3. Processo de Inovações com Distribuição Gaussiana

Os valores obtidos das medições na saída do sistema no intervalo de tempo (k) estão contidos no vetor y(k), conforme vimos no Capítulo 1. Considerando que {y(k)} é uma sequência de vetores aleatórios gaussianos definidos em intervalos de tempo (k), tal que (k) ocorre após conforme a figura 1.4, o processo de inovação {In (k)} consiste em uma parte de {y(k)} que contém informação nova. Conhecendo-se o valor y( ) podemos estimar y( ) através da esperança condicional por E [y( ) | ]. é a família de eventos aleatórios conforme a figura 2.1, que contém os resultados das medições obtidas no intervalo de tempo anterior a A informação nova contida em y( ) é dada por,

118

Conhecendo-se o valor y( ) podemos estimar agora y( ) através da esperança condicional por E [y( ) | ( )]. A informação nova contida em y( ) é dada por:

In ( ) = y ( ) E[y ( ) | ( )]

De um modo geral temos que o processo de inovação {In(k)} para as medidas contidas em y(k) é a diferença entre os vetores y(k) e E [y(k) | ] tal que,

In (k) = y (k) E [y (k) | (3.20)

sendo que,

é a família que contém os valores y( ), y( ), y( ), ...

In ( ) = y ( ) E [y ( )]

Inovação zero significa que não há diferença entre as medidas realizadas na saída do sistema no intervalo de tempo (k) e as medidas associadas à predição no intervalo de tempo (k + 1). As inovações introduzem as informações mais recentes obtidas na saída y(k) do sistema, que são utilizadas para atualizar a estimação do seu estado ̂ a qual foi calculada no intervalo de tempo anterior. Pela propriedade 1 na seção 2.7.6 do Capítulo 2, podemos afirmar que o vetor de inovações é um processo estocástico e também tem distribuição Gaussiana, sendo sua função de densidade de probabilidade expressa pela equação (3.21) a seguir:

(k) = ( – ) (3.21) sendo,

(k) a função discreta de densidade de probabilidade Gaussiana das inovações para o intervalo

de tempo (k).

In (k) o vetor das inovações, tal que In

119

(k) a matriz de covariâncias das inovações , a qual é matriz definida positiva.

Esta matriz evidencia que não é possível fazer a predição de parte do vetor y(k), particularmente no que se refere ao passado. Esta variância está associada a um erro inevitável, pois a saída do sistema não pode ser predita com exatidão, mesmo que o sistema seja plenamente conhecido.

(73)(74)

3.3.4. Algoritmos de Predição e Filtragem Ótimas

A predição do estado de um sistema multivariável, linear, discreto, estocástico e variante no tempo é um problema difícil de ser resolvido, pois envolve perturbações aleatórias como os processos de ruídos. A estimativa do estado futuro do sistema é estimativa de predição de um passo a frente no tempo discreto (k), e isto envolve o processo de inovações.

Lema 4. (31) O processo estocástico de inovação representado pelo vetor In(k) , é um processo estocástico Gaussiano com média zero e matriz de covariâncias dada por,

E [In ( ) ( )] = [ ( ) + ]. (3.22)

sendo ( ) a matriz de covariâncias definida por,

( ) = ̂(k |k ].[ ̂ (3.23)

é a função delta de Kronecker para processos discretos no tempo, que assume o valor unitário no intervalo de tempo (k) = e o valor zero nos demais intervalos (k) ( .

Prova. A função delta de Kronecher foi definida na seção 2.8.2. no Capítulo 2. Como y(k) é um processo estocástico com distribuição Gaussiana, a esperança condicional | ] é um processo estocástico com distribuição Gaussiana também, portanto

In (k) é um processo estocástico com distribuição Gaussiana.

A partir da equação (3.20) temos que se | ] = 0, então ] = 0. Como

é uma função linear de , ,..., , então a inovação será mensurável em

120

A partir da propriedade da esperança condicional e pela definição da equação (2.69), obtemos a matriz de correlação temporal para o processo de inovação:

= E [In ( ) ( )] = E [[y(k) – | ] – =

= E [y(k) – E [y(k) – | ] ] +

+ |

O produto escalar de cada termo da equação acima é nulo, e então = 0. Portanto e

são ortogonais entre si e não correlacionados para os intervalos de tempo (k) ). Isto implica que a equação (3.22) é não-nula para (k) = ( quando o valor de assume o

valor unitário.

A partir das equações (3.17.b) e (3.20) temos:

(k) = C(k) x(k) + D(k) u(k) + F(k) (k) – E [[C(k) x(k) + D(k) u(k) + F(k) (k)] | ]

= C(k) x(k) + D(k) u(k) + F(k) (k) – ] E[D(k) u(k)] E[F(k) (k)]

= C(k) [x(k) – ] {D(k) – E[D(k)]}u(k) + F(k) (k)

(k) = C(k)[x(k) – ̂ + F(k) (k) = C(k) ̃ + F(k) (k) (3.24)

Então, utilizando o resultado acima de (k) na equação (3.22) temos: (75)

E [ ( ) ] = E[[C(k)[x(k) – ̂ + F(k) (k)] [ – ̂ ] ]

= E[C(k)[x(k) – ̂ [ – ̂ ] (k) + C(k)[x(k) – ̂ +

121

Como (k) não está correlacionado com x(k) e x ( – ) , então o segundo e o terceiro termos do lado direito da igualdade da equação (3.25) são nulos. Assim sendo, temos:

E[ ( ) ] = E[C(k)[x(k) – ̂ [ – ̂ ] (k) +E[F(k) (k)] ] =

E[ ( ) ] = E[C(k) ̃ ̃ (k)] + = C(k) (k) + (3.26) No primeiro termo à direita da igualdade na equação acima está a matriz de covariâncias do estado do sistema ( ). O segundo termo da equação acima é a matriz de covariâncias do processo de ruídos de medição na saída do sistema sendo,

= E[F(k) (k)] ] = F(k) (k) = F(k)

Portanto, a equação (3.22) é valida a partir das definições de ( ) e cqd

3.3.4.1. Algoritmo de Predição de um Passo à frente utilizando a Projeção

Ortogonal – Ganho do Filtro de Kalman

A predição ótima foi definida pela equação (3.18.a). A partir da definição de (k) pela equação (3.20) e do vetor y(k) pela equação (3.17.b), o qual tem valor constante para cada intervalo (k) conforme vimos no Lema 3, o processo de inovação pode ser reescrito pela equação a seguir:

(k) = y(k) E[y(k) | y(k )] (3.27.a) Desta maneira temos,

y(k) = y(k ) (k)

sendo que simboliza a soma ortogonal destes dois vetores. O vetor de medidas y(k) é igual à soma ortogonal do vetor de medidas y(k ) com o vetor (k). Portanto, segue que:

122

̂ [(k +1) | k] = E [x(k +1) | y(k)] = E [x(k +1) | y(k ) (k)]

̂ [(k +1) | k] = E [x(k +1) | y(k )] + E [x(k +1) | (k)] (3.27.b)

Substituindo a equação (2.82) no primeiro termo da equação (3.27.b) tem-se,

E [x(k +1) | y(k )] = E{[ k) x(k) + B(k) u(k) + E(k) (k)] | y(k )} (3.28)

O segundo termo do lado direito de (3.27.b) pode ser escrito como,

E [x(k +1) | (k)] = (k) (k) (3.29)

sendo,

E [x(k +1) | (k)] a esperança condicional do estado do sistema um passo à frente, portanto no intervalo de tempo (k +1), sendo dado (k).

(k) é a matriz do Ganho de Kalman a ser determinada tal que (k)

Notamos pela equação (3.29) que o vetor de inovações (k) é fundamental para o cálculo do estado do sistema um passo à frente, estimação de estado futuro ̂(k +1) ou predição do estado futuro do sistema.

A condição de otimalidade para (k) é que [x(k +1) (k) (k)] (k) (31). Isto é,

E [[x(k +1) (k) (k)].[ ] = 0

E [x(k +1) ] E [ (k) (k) ] = 0

E [x(k +1) ] E [ (k) (k) ] = (k) E[ (k) ]

Multiplicando-se a equação anterior pela direita por resulta a equação (3.30) para o ganho do filtro de Kalman no intervalo de tempo (k),

123

(k) = E [x(k +1). . (3.30)

O filtro de Kalman discreto faz a predição do valor do estado para o intervalo de tempo (k +1) através do modelo matemático do sistema e atualiza o valor do estado do sistema com a medição na sua saída y(k) no intervalo (k). Esta predição é ponderada pela diferença entre valor medido no intervalo de tempo (k) e valor medido predito para o intervalo seguinte (k+1). Essa diferença ou inovação multiplicada pelo ganho do filtro de Kalman (equação 3.29) fornece a correção da estimativa do estado atual do sistema. Assim a inovação do filtro de Kalman é utilizada para aprimorar a estimativa do vetor de estado do sistema.

O Ganho do Filtro de Kalman indica o quanto a inovação deve ser usada para corrigir a estimação de estado ̂ no intervalo de tempo (k) e obter a nova predição de estado ̂ no intervalo seguinte (k +1).

Para analisarmos cada termo da multiplicação que compõe a equação (3.30) vamos considerar inicialmente o primeiro termo utilizando a definição de da equação (3.24):

E[x(k +1) ] = E[[ (k)x(k) + B(k)u(k) + E(k) (k)] – ̂ ]

= E[[ k)x(k) + B(k)u(k) + E(k) (k)][ – ̂ + ]]

E [x(k +1) ] = E [ (k) x(k) – ̂ ] + E [ (k) x(k) + + E [B(k) u(k) – ̂ ]] + E [B(k) u(k) + + E [[E(k) (k)] – ̂ ] + E[[E(k) (k)] (3.31) Como os processos de ruídos do sistema (k) e de medição (k) foram definidos como ruídos brancos pelas equações (3.1.a) e (3.1.b) respectivamente, então na equação (3.31) os termos com a esperança da multiplicação destes termos com outras matrizes e vetores discretos são nulos. Assim sendo, temos:

124 + E[[E(k) (k)] = = E [ (k) ̂ ̃ ̃ ] + E [B(k) u(k) ̃ ] + + E[[E(k) (k)] = = E [ (k)[ ̂ ̃ + ̃ ̃ ] + E [B(k)u(k) ̃ ] + + E[[E(k) (k)]

Como o vetor estimado do estado do sistema e o vetor de erro do estado são ortogonais entre si, então a esperança deste produto escalar é nula. Assim sendo, para o primeiro termo da multiplicação na equação (3.30) obtemos como resultado a seguir,

E [x(k +1) ] = E [ (k) ̃ ̃ ] + E [B(k)u(k) ̃ ] + + E[[E(k) (k)]

E[x(k +1) ] = (k) + B(k)u(k) E[ ̃

Pela equação (3.16.b) temos que = 0, sendo a matriz de covariâncias cruzadas dos ruídos do sistema e de medição. Então, obtemos a equação (3.32) a seguir:

E[x(k +1) ] = (k) + B(k)u(k) E[ ̃ (3.32)

sendo que,

̃ é o vetor de erro na estimação do estado do sistema calculado pela média dos mínimos erros quadrados, conforme definido na equação (2.58),

̃ ̃ a matriz de covariâncias de erro de estimação do estado do sistema definida pela equação (2.84) e provada no Lema 4.

125

Vamos analisar agora o segundo termo da equação (3.30) utilizando a equação (3.22) do

Lema 4 e considerar que é matriz definida positiva.

Então temos,

E[ ] = [ ( ) + ]. 0

=

Substituindo os dois resultados (análises do primeiro e segundo termos da multiplicação) na equação (3.30), obtemos para o ganho do filtro de Kalman no intervalo de tempo (k) a equação (3.33) a seguir,

(k) = { (k) + B(k)u(k) E[ ̃ .

.

Como E [ ̃ = 0 então temos(ver Lema 5 a seguir):

(k) = [ k) (3.33)

sendo que o ganho do filtro de Kalman para um sistema multivariável finito, linear, discreto, estocástico e variante no tempo é a matriz (k), tal que (k) .

Portanto, o processo de inovação influencia: o ganho do filtro de Kalman (k), a estimação de estado ̂(k), a estimativa de erro de estimação ̃ e a matriz de covariâncias de erros de estimação ( Os resultados desta influência sobre estes dois vetores e a matriz é a filtragem. A estimativa filtrada do estado será representada pelo vetor ̂(k | k) e a matriz de covariâncias de erros filtrada por ( serão utilizados no Lema 6.

Lema 5. (31) A estimativa da predição de um passo à frente satisfaz a equação

126

sendo ̂(0) = E[x(0)] = e a matriz aleatória de covariâncias de erros de predição do estado é dada por,

( = [ (k) – (k)C(k)] ( – + ( +

( – ̃ (k) ̃ (3.35)

sendo ( = E[x(0) ].

Também a estimativa da predição ̂(k é não-tendenciosa, pois,

E[x(k + 1) – ̂(k )] = 0, k = 0, 1, 2, ... (3.36)

Prova. A equação (3.34) é obtida a partir das equações (3.27.b), (3.28) e (3.29). Somando as

equações (3.28) e (3.29) e considerando o processo de ruído branco do sistema, tem-se que a média deste processo é nula. Assim sendo, temos:

̂(k ) = E [ (k) x(k) + B(k) u(k)] + (k) In(k)

̂(k ) = (k) E[x(k)] + B(k) u(k) + (k) [C(k) ̂ F(k) ]

̂(k ) = (k) ̂ + B(k)u(k) + (k).[C(k) ̃ – F(k) ]

A partir das equações de x(k + 1) e (3.34) segue que o erro de predição satisfaz a equação a seguir,

̃ = x(k + 1) – ̂(k ) = (k) x(k) + B(k) u(k) + E(k) (k) +

– (k) ̂(k) – (k) [C(k) ̃ F(k) ] =

127

̃ = [ (k) – (k)C(k)] ̃ + E(k) (k) – (k) F(k) (k) (3.37)

Aplicando a esperança matemática aos dois lados da equação (3.37) temos:

E [ ̃ ] = E {[ (k) – (k)C(k)] ̃ } + E[E(k) (k)] – E [ (k) F(k) (k)]

Como os processos de ruídos do sistema e de medição são brancos, então E[ (k)] = 0 e E[ (k)] = 0. Assim sendo, temos a equação (3.38) a seguir,

E [ ̃ ] = E [[ (k) – (k)C(k)] ̃ ] = E [ (k) – (k)C(k)] E[ ̃ ] (3.38)

Pelas condições iniciais ̂(0) = , temos que,

E [ ̃ ] = E [x(0) – ̂ ] = E [x(0)] – E [ ̂ ] = 0

Para os intervalos de tempo (k) = 0, 1, 2, ..., na equação (3.38) temos:

(k) = 0 : E [ ̃ ] = E [ (0) – (0)C(0)] E[ ̃ ] = 0

(k) = 1 : E [ ̃ ] = E [ (1) – (1)C(1)] E[ ̃ ] = 0

(k) : E [ ̃ ] = 0

Portanto E [ ̃ ] = E[x(k + 1) – ̂(k )] = 0 e assim tem-se a prova da equação (3.36). Como E[x(k + 1) – ̂(k )] = 0, então segue que E[x(k + 1)] = E[ ̂(k )].

A partir da equação (3.38) e considerando os processos de ruídos (k) e (k) como independentes de ̃ temos que,

128 E [ ̃ ̃ ] = E [{[ (k) – (k)C(k)] ̃ + E(k) (k) – (k)F(k) (k)}. .{ – ̃ – ] = = E [{[ (k) – (k)C(k)] ̃ + E(k) (k) – (k)F(k) (k)}. .{ ̃ – ̃ + – }] = ( = [ (k) – (k) C(k)] ( – + ( + ( – ̃ (k) – ̃ (3.39) cqd

Considerações sobre a equação (3.39):

 A matriz de covariâncias de erro da estimação de estado um passo a frente é dada por: ( = E [ ̃ ̃ ], a qual é definida positiva e (k + 1) .

 A matriz de covariâncias de erro da estimação de estado no intervalo de tempo ( ) é dada por: ( = E [ ̃ ̃ ], a qual é definida positiva e (k)

 A matriz de covariâncias do processo de ruídos do sistema no intervalo de tempo ( ) é dada por: ( = E [E(k) (k) ] = E(k) E[ (k) (k)] (k)=E(k) ( (k), a qual é definida positiva e (k)

 A matriz de covariâncias do processo de ruídos de medição no intervalo de tempo ( ) é dada por: ( =E [F(k) (k) ]=F(k) E[ (k) (k)] (k)=F(k) ( (k) a qual é definida positiva e (k)

 A matriz de covariâncias de erros de estimação do estado do sistema, devido à influência do processo de ruídos de medição no vetor de inovações In(k) no intervalo de tempo ( ) é dada por: ̃ (k) = E [[ – ] ̃ ] a qual é matriz definida positiva e ̃ (k)

 O ganho do filtro de Kalman representa a ponderação da informação sobre a matriz

̃ (k) contida na inovação In(k).

Dadas a predição de um passo ̂(k) = ̂(k | k 1) e a nova observação y(k) medida na saída do sistema, podemos estimar a nova predição de um passo a frente ̂(k + 1) = ̂(k +1 | k) a partir da

129

equação (3.34). Nesta equação o ganho do filtro de Kalman representa a ponderação da informação sobre o vetor de estado x(k + 1) contida na inovação In(k).

3.3.4.2. Algoritmo de Filtragem Ótima de Kalman

Lema 6. (31) A estimativa de predição de um passo ̂(k), a estimativa filtrada ̂(k | k), o ganho de Kalman filtrado (k | k) e a matriz de covariâncias de erros filtrada ( são dados respectivamente por, ̂(k | k) = ̂ (k) + In(k) (3.40) (k | k) = ( (3.41) ( = ( ( ( (3.42)

Prova. Por definição a estimativa filtrada é dada pela equação a seguir:

̂(k | k) = E[x(k) | y(k)] = E[x(k) | y(k ) In(k)] = E[x(k) | y(k )] + E[x(k) | In(k)]

̂(k | k) = ̂ (k) + E[x(k) | In(k)]

Como x(k) e In(k) são independentes entre si, temos que o segundo termo da equação acima pode ser reescrito como:

E [x(k) | In(k)] = E [x(k) .

Substituindo a equação (3.24) obtida no Lema 4 na equação acima vem:

E [x(k) | In(k)] = E [x(k) ̃ ].

130

E [x(k) | In(k)] =E [ x(k) ̃ + ]].

. ̃ ̃ .

Lembrando que x(k) = ̂(k) + ̃ e substituindo x(k) na equação acima, após fazermos as multiplicações temos: E [x(k) | In(k)] =E [( ̂(k) + ̃ ̃ + ]]. . ̃ ̃ . E [x(k) | In(k)] =E [ ̂(k) ̃ ̃ ̃ + ̂(k) + ̃ ]. ̃ ̃ ̃ ̃

Como ̂(k) e ̃ (k) são ortogonais entre si, então o valor esperado do produto escalar é nulo. Também temos o processo de ruídos brancos , cuja média é nula. Colocando estas considerações na equação acima vem:

E [x(k) | In(k)] = ( =

Portanto, resulta para o ganho filtrado do Filtro de Kalman a equação a seguir:

(k | k) = ( (3.43)

Isto prova as equações (3.40) e (3.41). Temos que o erro de estimação filtrado é dado pela equação a seguir,

̃ (k | k) = ̃ (k) In (k)

131

̃ (k | k) = ̃ (k) ( In (k)

Fazendo-se a multiplicação à direita nos dois lados da igualdade da equação anterior pelo vetor de erro ̃ e aplicando a esperança matemática aos dois lados da igualdade temos:

̃ (k | k) ̃ = ̃ (k) ̃ ( In(k) ̃

E [ ̃(k|k) ̃ ] = E[ ̃(k) ̃ ] – E[ ( In(k)̃ ]

Sabendo que E [ ̃ ] = ( temos como resultado a equação (3.44) a seguir:

( = ( (