• Nenhum resultado encontrado

Vetores aleatórios discretos com distribuição Gaussiana conjunta

Capítulo 2. Fundamentos Teóricos do Filtro de Kalman aplicado em Sistemas Lineares,

2.6. Vetores aleatórios discretos com distribuição Gaussiana conjunta

Muitos fenômenos aleatórios na natureza têm distribuição Gaussiana, tais como a variação de temperatura, variação da umidade relativa do ar, intensidade de correntes de ventos, índice de poluição atmosférica, consumo de energia elétrica de um país, dentre outros exemplos. Cada um destes fenômenos pode ser representado por variáveis aleatórias , ... , as quais têm distribuição Gaussiana conjunta se a função densidade de probabilidade delas for definida pela equação (2.42.a),

(x) = ( ) =

(2.42.a)

sendo x e vetores-coluna com valores de variáveis aleatórias e valores de médias de cada

variável aleatória no intervalo de tempo (k), respectivamente dados pela equação (2.42.b):

x = x (k) = [ ] , (k)= [ ] = [ ] (2.42.b)

é a matriz de covariâncias cruzadas definida pela equação (2.43) abaixo,

= [

] (2.43) sendo que,

| é o determinante da matriz de covariâncias.

A equação (2.42) mostra que a função densidade de probabilidade do vetor aleatório x(k) com distribuição Gaussiana é especificada completamente pelas médias que são componentes do vetor (k) , pelas variâncias e covariâncias de pares das variáveis aleatórias que são componentes da matriz Este resultado será utilizado na demonstração do Princípio da Ortogonalidade na seção a seguir.

65

2.6.1. Estimação Ótima de Variáveis Aleatórias Discretas Conjuntas –

Princípio da Ortogonalidade

Em um sistema cujo vetor aleatório de estado x(k) é multidimensional, a estimação deste vetor é feita considerando as variáveis aleatórias [ em conjunto.

O diagrama de blocos na Figura 2.2 a seguir representa um estimador de estado de um sistema variante no tempo. As medições disponíveis na saída do sistema estão contidas no vetor y(k), enquanto que a estimativa ̂(k) do vetor de estado x(k) será a saída do estimador, que é neste trabalho é o filtro de Kalman (11).

Estatística Erros do sistema Erros do sensor a priori

u(k)

Modelo matemático x(k) Modelo matemático y(k) Filtro ̂(k)

do sistema variante do sensor na saída de

no tempo do sistema Kalman

Estado do Observações

Entrada Sistema na saída do sistema

Figura 2.2 – Diagrama de blocos de um estimador de estado de sistema linear e variante no tempo

A estimação de erro e(k) é definida como a diferença entre o valor verdadeiro da variável aleatória x(k) e a sua estimativa ̂(k). A estimação do erro pode ser feita através de uma função quadrática, a qual tem a forma da equação (2.44) a seguir:

̂ M [ ̂ ] = M e(k) (2.44)

sendo M a matriz de ponderação, considerada como definida positiva e simétrica de ordem n, e n é a ordem do sistema.

66

Um estimador ótimo da função quadrática acima é definido como uma estimativa do vetor aleatório ̂(k), que minimiza o valor esperado do erro, com probabilidade condicionada ao vetor de observações y(k) na saída do sistema.

Seja y(k) o valor observado no intervalo (k) . Desejamos estimar o vetor aleatório

x(k) no intervalo futuro (k) = , tal que ocorre após o intervalo . Então, podemos escrever a equação a seguir:

̂ ( = E x( | y(k), (k) >

sendo que a relação entre ̂(k) e y(k).é uma função determinística, e os sinais no início e “ > “ no fim da equação referem-se simbologia para representar a média temporal.

A função dada pela equação (2.44) é discreta e tem diferenças finitas nas variáveis ̂ ̂ ... , ̂ (k). Esta função tem o seu valor mínimo quando as suas diferenças finitas em relação às variáveis ̂ forem aproximadamente iguais à zero. Assim sendo, obtemos a equação (2.45) abaixo:

[ ̂ ̂ ] [ ̂ ̂ ]

̂ ̂ 0 (2.45)

O desenvolvimento do processo de discretização para obter a equação (2.45) pode ser visto no Apêndice 2.3. Substituímos o sinal de aproximação pelo sinal de igualdade em cada linha da equação (2.45), a qual pode ser igualada a zero e assim obtemos a equação (2.46):

̂(k) = E< x(k) | y(k) > (2.46)

Esta estimativa é não-tendenciosa, pois mostra que o valor esperado do vetor de estado do sistema é igual ao seu valor estimado. Isto demonstra que a estimativa ótima ̂(k) minimiza a média da função quadrática (2.44) e o valor mínimo é igual à esperança condicional do vetor aleatório x(k), quando o vetor y(k) é dado conforme a equação (2.46). Consideramos também que o vetor de estado do sistema x(k) e o vetor de medições na saída do sistema y(k) são

67

aleatórios e tem distribuição Gaussiana conjunta. A função temporal que os relaciona é considerada determinística e linear do tipo da equação (2.47),

̂(k) = E< x(k) | y(k) > = a y(k) + b (2.47)

sendo a e b constantes. Para simplificar a demonstração do Princípio da Ortogonalidade, vamos considerar os vetores x(k) e y(k) como escalares respectivamente x e y, e a matriz M com dimensão 1 x 1. As constantes a e b minimizam o erro quadrático médio quando satisfazem à condição da equação (2.48),

e = E < > = E < (x

̂) = E <

> =

= ∑ ∑

p(x, y) (2.48)

A função densidade de probabilidade p(x,y) Gaussiana contínua com duas variáveis está representada na equação (2.49) a seguir: (33)

p( , ) = exp{ + ]} (2.49)

sendo,

a média e a variância das distribuição da variável aleatória x a média e a variância das distribuição da variável aleatória y.

Como as variáveis discretas estudadas aqui têm distribuição Gaussiana, então esta função contínua da equação (2.49) será aproximada por uma função discreta chamada Kernel Gaussiano discreto, que é uma amostragem da distribuição Gaussiana contínua. Uma proposta matemática discreta para esta distribuição é apresentada pela equação (2.50) a seguir,

p[ , )] = (

68 [ ] =

,

[ ] =

(2.51) m = x , n = x (2.52) [ ] =

,

[ ] =

(2.53) = y , = y (2.54) sendo,

(k) o intervalo de tempo conforme a figura 1.4

variância da variável x em função do intervalo de tempo (k). variância da variável y em função do intervalo de tempo (k).

[ ] e [ ] são funções que formam o conjunto de soluções da equação modificada de Bessel de primeira classe de ordem n para a variável aleatória discreta x.

[ ] e [ ] são funções que formam o conjunto de soluções da equação modificada de Bessel de primeira classe de ordem n para a variável aleatória discreta y.

p[ , )] é a função densidade de probabilidade variante no tempo discreto (k) para as variáveis aleatórias discretas x e y , conforme as figuras 2.3, 2.4 e 2.5 a seguir.

Esta distribuição Gaussiana no espaço discreto é análoga à distribuição Gaussiana no espaço contínuo para as variáveis aleatórias x e y. (49)(50)(51)

Utilizando um aplicativo computacional na equação (2.50) e considerando equações (2.51) a (2.54), obtemos as funções de distribuição de probabilidade Gaussiana para as variáveis aleatórias discretas x e y , nos tempos contínuo e discreto. Na figura 2.3 a seguir está ilustrada a similaridade das funções Gaussianas contínua e discreta para a variável aleatória x(k) em um intervalo de tempo (k). Para cada intervalo de tempo (k) há uma função densidade de probabilidade semelhante à figura 2.3 para a variável aleatória x(k), de modo que para todos os intervalos de tempo (k) há um conjunto de funções densidade de probabilidade para a variável

69

aleatória x(k) ao longo do tempo. Assim sendo, a função densidade de probabilidade para a variável aleatória x(k) é variante no tempo.

Figura 2.3 – Ilustração da similaridade entre as funções de densidade de probabilidade Gaussianas contínua e discreta da variável aleatória x, com = 10 e = 10.

Na figura 2.4 a seguir está ilustrada a similaridade das funções Gaussianas contínua e discreta para a variável aleatória discreta y(k) para um intervalo de tempo (k). Para cada intervalo de tempo (k) há uma função densidade de probabilidade semelhante à figura 2.4 para a variável aleatória y(k), de modo que para todos os intervalos de tempo (k) há um conjunto de funções densidade de probabilidade para a variável aleatória y(k) ao longo do tempo. Assim sendo, a função densidade de probabilidade para a variável aleatória y(k) é variante no tempo.

70

Figura 2.4 – Ilustração da similaridade entre as funções de densidade de probabilidade Gaussianas contínua e discreta da variável aleatória y, com = 10 e = 10.

A ilustração na figura 2.5 a seguir, mostra a similaridade entre as funções de densidade de probabilidade Gaussianas para as variáveis aleatórias x(k) e y(k), que têm distribuição conjunta de probabilidade para um intervalo de tempo (k). Para cada intervalo de tempo discreto há uma função densidade de probabilidade conjunta semelhante à figura 2.5, para as variáveis aleatórias x(k) e y(k). Assim

sendo, para todos os intervalos de tempo (k) há um conjunto de funções densidade de probabilidade conjunta para as variáveis aleatória x(k) e y(k) ao longo do tempo. Assim sendo, a função densidade de probabilidade conjunta para as variáveis aleatórias x(k) e y(k) é variante no tempo (52).

71

Figura 2.5 – Ilustração das similaridades entre as funções de densidade de probabilidade Gaussianas contínua e discreta das variáveis aleatórias x(k) e y(k), sendo = 10 e

= 10, = 10 e = 10.

Após a demonstração da similaridade entre as funções de densidade de probabilidade Gaussianas Contínua e discreta das variáveis aleatórias x e y, fazemos a substituição da equação (2.50) na equação (2.48) resultando em:

72

e = ∑

p[ , )]

Se as médias das variáveis aleatórias x(k) e y(k), que são respectivamente e forem iguais a zero, então a constante a que minimiza o erro quadrático médio e = E <

> é dada pela equação (2.55) a seguir,

= 0 (2.55) = – – = – ( ) = 0

Cancelando no numerador com vem:

E < 2(

) y > = 0

Calculando o limite da equação acima temos a equação (2.56) a seguir

(

) E < 2(

) y > (2.56)

tal que {

̂ ̂

Portanto, resulta a equação (2.57) abaixo,

73

A equação (2.57) mostra o produto escalar dos vetores (

) e y é igual a zero. Isto significa que o vetor (

é ortogonal ao vetor de medidas y, ou seja, estes vetores não são correlacionados. Assim o valor mínimo do erro quadrático médio é dado pela equação (2.58),

= E < [

] y > = ̃ (2.58)

Pelo resultado obtido concluímos que o estimador ótimo do erro quadrático médio corresponde ao estimador linear ótimo. O princípio da ortogonalidade citado anteriormente é utilizado para calcular a média condicional, que minimiza o erro quadrático médio. É importante lembrar que este método dos mínimos quadrados é aplicável quando as medições na saída do sistema estão disponíveis e contidas no vetor y(k).

Generalizando estes resultados para sistemas multivariáveis temos o vetor de estado x(k) e o seu respectivo vetor de média temporal o vetor de medidas y(k) na saída do sistema e o seu respectivo vetor de médias (k), a matriz de covariâncias cruzadas dos vetores x(k) e

y(k), e o vetor erro mínimo quadrático médio (k), que devem ser substituídos nas equações (2.50) a (2.58) respectivamente.

Para um sistema multivariável, linear, discreto e variante no tempo, ao considerarmos um intervalo de tempo pequeno conforme ilustrado na figura 1.4, podemos fazer uma aproximação dizendo que os vetores e matrizes aleatórias têm seus elementos constantes em todos intervalos (k). Em cada intervalo de tempo (k) os vetores e matrizes aleatórias terão outros valores, porém serão considerados constantes naquele intervalo de tempo (k).

Consequentemente, para cada intervalo de tempo (k) teremos uma figura semelhante à figura 2.2 a seguir, a qual ilustra a interpretação geométrica do princípio da ortogonalidade.

2.6.2. Interpretação Geométrica do Princípio da Ortogonalidade

Esta interpretação geométrica é aplicável quando as variáveis aleatórias x e y são escalares, e também quando temos vetores aleatórios x e y, cujos elementos são variáveis aleatórias. Consideremos vetores aleatórios x e y no espaço vetorial. O produto interno de x e y é igual ao segundo momento E[x.y]. Os vetores x (estado do sistema), y (medidas na saída do sistema),

74

ay = ̂ (estimativa do vetor de estado) e o vetor (x – ay) = ̃ sendo o erro entre o vetor de estado do sistema e o vetor da estimativa do vetor de estado, estão mostrados na figura 2.6 a seguir. O erro médio quadrático e = E <

> é a média dos quadrados do comprimento do vetor (x – ay) = ̃. Este erro é mínimo se ̃ for perpendicular a ̂. Isto significa que

e = E[ ̃ ] e que o valor esperado do produto escalar ̃. ̂ é igual a zero no espaço Euclidiano, ou seja, E<[ ̃ . ̂ ] > = 0.

Figura 2.6 – Interpretação geométrica do princípio da ortogonalidade para os vetores aleatórios x(k) e y(k) para um valor de (k).

Vemos na figura 2.6 que o erro mínimo de estimação ̃ é ortogonal ao valor estimado ̂. Considerando e como variáveis aleatórias que são elementos dos vetores x e y

respectivamente, há ortogonalidade entre cada par respectivo de variáveis aleatórias ( – a ) = ̃ e

a = ̂, ou seja, há ortogonalidade entre cada par ̃ . ̂ . Assim a ortogonalidade existe para todos

os elementos respectivos dos vetores x e y. Portanto, a figura 2.2 acima é aplicável quando as variáveis aleatórias x e y são escalares e também quando consideramos os vetores aleatórios x e y, cujos elementos são variáveis aleatórias. Como ̂ é calculado em função das observações y na saída do sistema, então ̂ também é um vetor aleatório. Se o erro na medição for zero, então a estimativa do vetor de estado ̂ coincide com o estado x. Assim sendo, a estimação do estado do sistema variante no tempo ̂, pelo método dos mínimos quadrados, é equivalente à projeção do vetor y de observações nas saídas sobre o espaço gerado pelas colunas da matriz C, a qual é a matriz de sensibilidade de medição nas saídas do sistema, conforme o Capítulo 1, seção 1.3.2. Para cada intervalo de tempo (k) teremos uma figura semelhante à figura 2.2, e ao longo do

x(k) (x – ay) = ̃(k) ay = ̂ (k) y(k)

75

tempo teremos um conjunto de figuras ilustrando a evolução dos vetores x, de estimativa do estado ̂ e do erro de estimação estado ̃ para o sistema multivariável, linear, discreto e variante no tempo. O princípio da ortogonalidade será utilizado no capítulo 3 para a construção do Filtro de Kalman. Até aqui apresentamos os conceitos de variáveis aleatórias, vetores aleatórios e distribuições de probabilidade de vetores aleatórios no espaço de probabilidade de Komolgorov, bem como o princípio da ortogonalidade. Dentre estes conceitos estão os fundamentos para a definição de processos estocásticos e suas propriedades estatísticas, que veremos a seguir.