• Nenhum resultado encontrado

Capítulo 2. Fundamentos Teóricos do Filtro de Kalman aplicado em Sistemas Lineares,

2.2. Teoria da Probabilidade – Fundamento 1

A teoria da probabilidade apresenta a ideia de que algumas proposições têm alta probabilidade de serem verdadeiras. Mas, o que significa probabilidade na vida real? Esta é uma questão filosófica que permanece até nossos dias.

O filósofo e matemático Inglês John Venn (Kingston,1834 – Cambridge, 1923) dedicou-se ao estudo da teoria da probabilidade no século 19 e apresentou uma resposta a esta pergunta, conforme segue.

Muitos fenômenos na natureza têm comportamento imprevisível e aleatório podendo ser observados e medidos através de experimentos aleatórios. Um experimento aleatório é aquele no qual as medidas ou resultados possíveis obtidos variam de modo imprevisível, quando o experimento é repetido sob as mesmas condições. Os resultados do experimento são números agrupados em conjuntos chamados de eventos. O conjunto de todos os possíveis eventos de um experimento aleatório é o espaço amostral.

Quando um experimento de um fenômeno físico apresenta resultados com determinada regularidade obtida através de longas sequencias de repetições, estes resultados possibilitam-nos construir um modelo matemático e fazer predições sobre o comportamento futuro deste sistema. Esta propriedade do sistema é chamada de regularidade estatística.

43

Considerando que um experimento é repetido n vezes em condições idênticas e que o número de vezes que um mesmo resultado ocorre seja (n), então a frequência relativa do resultado k é calculada pela equação (2.1) a seguir:

(n) = (2.1)

Quando ocorre a regularidade estatística podemos afirmar neste caso que as variações de (n) são cada vez menores em torno de um valor constante, à medida que n aumenta, ou seja,

=

= (2.2)

sendo a probabilidade de ocorrer o resultado k.

Probabilidades são números atribuídos aos eventos, que indicam quão prováveis de ocorrerem eles são quando um experimento é realizado. A equação (2.2) mostra a definição freqüentista de probabilidade apresentada por John Venn em 1822.

Karl Pearson (Londres,1857- Coldharbour, 1936), matemático e estatístico Inglês, acreditava que as distribuições de probabilidade só eram observáveis ao se coletarem muitos dados.

Ronald Aylmer Fisher (Londres, 1890 – Adelaide, 1962), estatístico, biólogo e geneticista Inglês, afirmou que probabilidade era definida em um conjunto finito chamado de espaço de eventos, onde todos os eventos são equiprováveis. Para ele probabilidade é o conjunto de todas as possíveis indicações aleatórias que possam ter sido feitas.

Andrei Nikolaevich Kolmogorov (Tambov,1903 – Moscou,1987), foi matemático russo brilhante que dedicou parte de sua vida trabalhando para responder a mesma pergunta. Ele produziu uma teoria matemática da probabilidade, de tal modo que os teoremas e métodos de probabilidade são autoconsistentes. O modelo matemático proposto por ele para a teoria probabilística é que este deve ser identificado com algum aspecto da vida real. Em 1933 ele apresentou conceitos básicos a partir dos quais estruturou a sua definição de probabilidade. Estes conceitos são os seguintes:

Experimento aleatório: é um teste científico, que pode ser repetido em condições idênticas,

sendo destinado à observação e ao registro dos resultados de um fenômeno físico, os quais não são previsíveis antecipadamente. O experimento é simbolizado por E.

44

Espaço amostral: é o conjunto de todos os resultados possíveis de um experimento aleatório, sendo simbolizado por .

Evento: é um subconjunto do espaço amostral que contém a família dos resultados possíveis do experimento aleatório , que pode ser menor ou igual ao espaço amostral. O evento ocorre se o resultado do experimento é um elemento de Uma família de eventos é simbolizada por .

Sigma-álgebra: Uma variável aleatória representa um atributo numérico do estado de um

processo físico. As propriedades estatísticas de uma variável aleatória dependem das probabilidades dos eventos, formando o que é chamada de sigma-álgebra ou -álgebra do espaço amostral . Qualquer coleção de eventos que esteja incluída no espaço amostral

referido, sejam conjuntos vazios, união de conjuntos e complementos de conjuntos com todos os seus elementos é chamada de -álgebra do espaço amostral. Cada coleção de eventos do espaço amostral é chamada de álgebra devido à álgebra Booleana, com relação às operações com estes subconjuntos, sejam uniões, intersecções e complementos, que correspondem às operações lógicas Booleanas and, or e not respectivamente. A palavra sigma refere-se ao símbolo de somatória , o qual é utilizado para a definição de propriedades aditivas destas probabilidades envolvidas. Usualmente utiliza-se o símbolo minúsculo para abreviar a expressão sigma- álgebra por -álgebra.

As definições a seguir tem o objetivo de esclarecer essas propriedades a serem utilizadas no capítulo 3: (32)

Definição 1: Uma coleção de subconjuntos de um espaço amostral E é chamada de álgebra, se é uma álgebra fechada para uniões contáveis , para , i Isto implica que ⋃ . Os elementos dos subconjuntos são mensuráveis e chamados de eventos. Considerando a união de subconjuntos tem-se a operação chamada de adição.

Definição 2: Seja ,..., uma coleção de álgebras, sendo cada uma álgebra de As álgebras ,..., são chamadas independentes se para qualquer ,..., os eventos ,..., são independentes.

Definição 3: Um conjunto de eventos, variáveis aleatórias ou álgebras é chamado independente, se qualquer subconjunto finito deste for independente.

45

Os Axiomas da Teoria da Probabilidade apresentados por Kolmogorov são os seguintes: 1. Há um espaço amostral e uma -álgebra associados a todos possíveis resultados de um experimento aleatório.

2. Há um valor positivo chamado de probabilidade P, o qual é atribuído à ocorrência de cada evento associado a uma -álgebra.

3. A probabilidade total do espaço amostral é igual a um, sendo dada pela função P definida na família .

4. A medida de probabilidade na família deve satisfazer as condições:

P( ) = 0, sendo o conjunto vazio

 0 P(A) P( ) =1

 Para todos os eventos mutuamente exclusivos a probabilidade da união destes é igual à soma de suas probabilidades, P (⋃ ) = ∑ .

O espaço que reúne e sintetiza estes axiomas é chamado de espaço de probabilidade, o qual é formado pelo trio: espaço amostral , família de eventos e a função de probabilidade P. A figura 2.1 a seguir ilustra este espaço de probabilidade. (32)(33)(34)(35)(36)

46 sendo que,

, e são eventos no espaço de probabilidade de Komolgorov e são resultados do evento ,

e são resultados do evento

Há uma -álgebra associada aos eventos e na família , que é a reunião. e são resultados do evento

e são resultados do evento .

Há uma -álgebra associada aos eventos e na família que é a interseção. é resultado do evento na família

é uma família de eventos aleatórios A.

Como o evento é isolado, então não há uma -álgebra associada a outro evento. é o espaço amostral que contém todas as famílias de eventos, }.

Andrei Kolmogorov apresentou um significado matemático de probabilidade: “Probabilidade é a medição de conjuntos em um espaço de probabilidade”.

2.2.1. Sistemas Estocásticos – Fundamento 2

Um sistema dinâmico com determinada incerteza ao longo do tempo é chamado de sistema estocástico. Um processo é a evolução de um sistema dinâmico ao longo do tempo. Então, um processo estocástico é a evolução de um sistema estocástico ao longo do tempo. A teoria de processos estocásticos define um conjunto de propriedades das funções temporais que representam o sistema estocástico, as quais devem ser satisfeitas ao longo do tempo. Esta teoria possibilitará calcular predições do valor futuro do estado do sistema estocástico utilizando valores medidos na saída do sistema no momento. O modelamento matemático de sistemas estocásticos a ser desenvolvido aqui terá como referência básica o espaço de probabilidade e será desenvolvido na seção 2.8 deste capítulo, onde a incerteza mencionada será especificada precisamente no sentido matemático. Como veremos a seguir os fundamentos dos sistemas estocásticos são os sistemas dinâmicos e a teoria de probabilidade.

2.2.1.1. Sistemas Dinâmicos – Fundamento 3

Um sistema dinâmico no contexto da filtragem de Kalman é um sistema físico em tempo contínuo t que se tornou sinônimo de um sistema de equações diferenciais ordinárias, as quais

47

descrevem o comportamento do estado deste sistema físico ao longo do tempo. Este modelo matemático é utilizado para a obtenção de sua solução, a qual especifica a dependência funcional das variáveis de estado nos seus valores iniciais e as entradas do sistema físico. Esta solução também define a dependência funcional das medidas obtidas na saída do sistema físico, com as entradas e os parâmetros do modelo matemático.

A representação em uma dimensão finita de um problema de predição futura é a base da abordagem chamada espaço de estado para a representação de equações diferenciais e suas soluções. As variáveis dependentes nas equações diferenciais citadas acima são as variáveis de estado do sistema dinâmico e estas variáveis representam todas as características importantes do sistema dinâmico em qualquer intervalo de tempo (k).

Quando o sistema físico dinâmico for definido em intervalos de tempo (k), como é o nosso caso, então teremos a versão discreta de um sistema que são as equações a diferenças finitas. Estas descreverão o comportamento do estado do sistema físico ao longo do tempo discreto. De forma análoga ao exposto acima, obteremos a sua solução que especificará dependências funcionais em tempo discreto. Outras considerações que desejamos destacar é que os sistemas físicos dinâmicos que serão analisados neste trabalho são lineares e discretos e têm parâmetros variantes no tempo, que serão representados por funções temporais. As entradas u(k) destes sistemas são consideradas funções do tempo, bem como as relações entre estas e o estado do sistema x(k) também são funções temporais lineares. As relações entre o estado do sistema e as suas saídas

y(t) são também funções temporais lineares. Portanto, os sistemas a serem analisados aqui são

variantes no tempo e os detalhes sobre a descrição matemática destes foram apresentados nas seções 1.2 e 1.3 do Capítulo 1.

2.2.2. Estimação Ótima da Média dos Mínimos Erros Quadrados –

Fundamento 4

A caracterização deste método depende do método dos mínimos erros quadrados a ser apresentado a seguir, da teoria da probabilidade apresentada acima e de definições envolvendo variáveis aleatórias, vetores aleatórios e distribuições de probabilidade de vetores aleatórios. As variáveis aleatórias, vetores aleatórios e distribuições de probabilidade de vetores aleatórios terão como referência básica o espaço de probabilidade de Kolmogorov e serão definidos nas

48

seções 2.3 a 2.7; e a estimação da média dos mínimos erros quadrados será definida na seção 2.7.4. neste capítulo.

2.2.2.1. Estimação Ótima dos Mínimos Erros Quadrados – Fundamento 5

Este método pode ser bem compreendido a partir da história resumida da teoria da estimação ótima. Galileo Galilei afirmou ser inevitável a ocorrência de erros de medição em suas observações astronômicas nos séculos 16 e 17. A suspeita da descoberta de um novo planeta em nosso sistema solar pelo astrônomo Giuseppe Piazzi, levou este assunto aos círculos intelectuais no início do século 19, e o problema atraiu a atenção do matemático Carl Friedrich Gauss. Este ocupara-se com a determinação deste problema focalizando a sua atenção na estimativa da órbita deste novo planeta para o mês de dezembro de 1801, e enviou os cálculos para seu colega Giuseppe Piazzi. Este astrônomo então conseguiu ver o astro no último dia daquele ano. Gauss não publicou o seu trabalho sobre o método da determinação da órbita até 1809, o qual foi chamado de método dos mínimos quadrados. O astro foi identificado e chamado de asteróide Ceres. Na ocasião o método dos mínimos quadrados foi estudado e publicado independentemente por Andrien-Marie Legendre na França e por Johann Heinrich Lambert na Suíça. Outros cientistas trabalharam no desenvolvimento da Teoria da estimação ótima durante o século 20, e dentre eles estão Norbert Wiener, Andrei Kolmogorov e Rudolf Kalman

(11).

O método dos mínimos quadrados vem sendo utilizado para a estimação de parâmetros desconhecidos de sistemas, que variam no tempo em muitas aplicações. Gauss descobriu que se ele escrevesse um sistema de equações lineares do tipo y(t) = C(t) x(t) em formato matricial como a equação (2.3) a seguir (37), [ ] = [ ] [ ] (2.3)

ele poderia calcular o valor da estimativa ̂(k) que minimiza o erro estimado de medição y(k), o qual é [C(k) ̂ – y(k)] sem considerar o vetor de entradas u(k) e os ruídos de medição. Em

49

outras palavras, ele poderia caracterizar este erro em termos da norma Euclidiana do vetor de erro, como podemos ver na equação (2.4) a seguir,

[ ̂ = C(k) ̂ – y(k) (2.4)

ou em termos do quadrado da norma deste vetor,

̂ = ̂ – (2.5)

Fazendo o cálculo da norma na equação (2.5) e aplicando-o ao sistema de equações (2.1) temos que, para i = 1 e j =1, 2, ... , n obtemos a equação a seguir:

̂ – + ( ̂ – + ... + ( ̂ – = primeira linha de (C ̂ – y)

Para i = 2 e j =1, 2, ... , n temos:

̂ – + ̂ – + ... + ̂ – = segunda linha de (C ̂ – y)

Para i = q e j =1, 2, ... , n resulta

̂ – + ̂ – + ... + ( ̂ – ) = q-ésima linha de (C ̂ – y)

Somando as equações das q linhas acima resulta para o erro quadrático a equação (2.6) a seguir,

( ̂ = ̂ – = ∑ ∑ ̂ – (2.6)

Se a função acima tiver diferenças finitas nas variáveis ̂ ̂ ... , ̂ , então ela terá o seu valor mínimo quando as suas diferenças finitas em relação às variáveis ̂ forem aproximadamente

50

iguais a zero. Consequentemente há n equações na forma da equação discreta (2.7) a seguir, cujo resultado foi desenvolvido no Apêndice 2.1 pela equação (A.2.1.4):

[ ̂ ] [ ̂ ]

̂ ̂ 0 (2.7)

Esta equação tem como resultado da minimização a equação (2.8) a seguir, a qual foi obtida no Apêndice 2.1 pela equação (A.2.1.7): (38)

[ ̂ ] [ ̂ ]

̂ ̂ 2 ∑ ∑ ̂ –

0 (2.8)

A função dada pela equação (2.8) é discreta e tem diferenças finitas nas variáveis ̂ ̂ ... , ̂ (k). Esta função tem o seu valor mínimo quando as suas diferenças finitas em relação às variáveis ̂ forem aproximadamente iguais à zero. Por isto substituímos o sinal de aproximação pelo sinal de igualdade em cada linha da equação (2.8), a qual pode ser igualada a zero. Assim obtemos a equação (2.9) abaixo,

2 [∑ ̂ – )] + ∑ ̂ – + +

+ ∑ ̂ – ] = 0 (2.9)

Na equação (2.8) a expressão ∑ ̂ – é a i-ésima linha de C(k) ̂ A equação (2.9) é equivalente ao produto escalar de cada coluna da matriz C(k) com a i-ésima ̂ – .

A equação (2.9) pode ser escrita na forma matricial da equação (2.10) a seguir,

2 [ ̂ ̂ (2.10)

ou,

51

A equação (2.11) é chamada de equação normal para a solução do problema dos mínimos quadrados, sendo a matriz da equação normal. Esta equação matricial tem o número de equações igual a n, que é igual ao seu número de incógnitas ̂ . Como C(k) não é sempre uma matriz quadrada, a solução da equação normal é obtida multiplicando-se os dois lados da igualdade da equação (2.11) por à esquerda, e o resultado é dado pela equação (2.12) variante no tempo a seguir,

̂ = (2.12)

sendo que o produto matricial é a matriz gramiano de observabilidade conforme definida pelas equações (1.18) a (1.22), e y(k) é o vetor que contém as medidas na saída do sistema definido na equação (1.9.b) no Capitulo 1.

A matriz gramiano é uma caracterização algébrica da unicidade da solução da equação normal acima. Quando o determinante de G (k) é diferente de zero a solução para o vetor ̂ é única, a qual é a evidência de que os seus vetores coluna são linearmente independentes. Neste caso a solução ̂ é a estimativa de x(k) sendo chamada de solução dos mínimos quadrados do problema linear inverso.

Nesta seção foi apresentada até aqui a estimação utilizando a solução dos mínimos erros quadrados do problema linear inverso, considerando que todas as medidas são igualmente confiáveis.

Quando algumas medidas obtidas são mais confiáveis do que outras, então será necessário desenvolvemos uma solução dos mínimos quadrados ponderados conforme segue.

Vamos supor que em determinado dia foram realizadas medições de temperatura em um local pré-determinado de uma cidade. Nas primeiras doze horas do dia foi utilizado um medidor com maior precisão com baixo ruído, todavia durante as doze horas seguintes foi utilizado outro medidor de temperaturas com menor precisão e ruído maior. Considera-se que os

leituristas dos medidores têm a mesma experiência e são confiáveis. Assim sendo, há maior confiança no conjunto de medidas obtidas nas primeiras 12 horas, do que nas outras medidas. Serão consideradas todas as medidas obtidas, embora elas tenham diferentes confiabilidades, as quais serão ponderadas na estimação a seguir.

52 seguir, [ ] = [ ] [ ] + [ ] (2.13) sendo,

x(k) o vetor de incógnitas tal que x(k)

y(k) o vetor de medidas com ruídos tal que y(k)

o vetor de ruídos existentes na medição tal que

C(k) a matriz de ligação entre o vetor de medidas e o vetor de incógnitas, tal que C(k)

Assumimos que o ruído existente em cada medição é Gaussiano, independente, tem respectivamente média zero e variância iguais a

E [ ] = 0

E [ ] = , i = 1, 2, ... , q

Consequentemente, a matriz de covariâncias das medidas com ruídos é definida por,

= E [ ] =

[

]

(2.14.a)

sendo que esta matriz é simétrica e .

O erro devido à presença de ruído na medição pode ser calculado pela equação (2.14.b) abaixo,

(k) = y(k) – C(k) ̂(k) (2.14.b)

53 [ ] = [ ] – [ ] [ ̂ ̂ ̂ ] (2.14.c)

sendo que ̂ (k) é o vetor de valores estimados do vetor x(k).

O objetivo da estimação ótima é a minimização dos erros quadrados ponderados em relação à variável x, cujos valores são desconhecidos considerando a variância de cada medida. Isto é feito com a minimização da soma dos erros quadrados ponderados divididos pela respectiva variância, a qual é dada pela função de erros quadrados ponderados a seguir (39)(40)(41)(42):

J = + + ... + = (2.15)

Substituindo a equação matricial (2.14.b) na equação (2.15), temos a equação matricial (2.16) a seguir:

J = – ̂ y – C ̂)

J = y – ̂ y C ̂ + ̂ C ̂ (2.16)

Considerando que os sistemas discretos em estudo são variantes no tempo e tenhamos ̂(k), C(k), e J(k) na equação (2.16), estaremos algumas vezes omitindo o índice discreto (k) destes vetores e destas matrizes, a fim de não sobrecarregarmos a notação nas equações durante o desenvolvimento matemático.

A função dada pela equação (2.16) é discreta e tem diferenças finitas nas variáveis ̂ ̂ ... , ̂ (k). Esta função tem o seu valor mínimo quando as suas diferenças finitas em relação às variáveis ̂ forem aproximadamente iguais à zero. A equação (2.17) a seguir foi desenvolvida no Apêndice 2.2, a partir das equações (A.2.2.2) e (A.2.2.7):

̂ ̂

̂ ̂ –

54

Substituímos o sinal de aproximação pelo sinal de igualdade em cada linha da equação (2.17), a qual pode ser igualada a zero e assim obtemos a equação (2.18) a seguir (43),

̂ (2.18)

Aplicando-se a propriedade da transposição de matrizes aos dois lados da igualdade na equação (2.18) temos:

̂

e assim temos a estimativa do vetor de estado com valores ótimos dados pela equação (2.19),

̂(k) = (2.19)

Na equação (2.19) a matriz de covariâncias das medidas com ruídos é considerada não- singular, o que significa dizer que cada medida do vetor y(k) está influenciada pelo vetor de ruídos . A matriz inversa deve ter seu determinante diferente de zero para ser invertível, pois é necessária para o cálculo da estimação do estado do sistema ̂(k). Esta matriz inversa existe se o número de observações linearmente independentes na saída do sistema variante no tempo for igual ou maior do que o número de variáveis incógnitas do vetor ̂(k). Assim sendo, uma das vantagens do método dos mínimos quadrados é que a ordem da matriz inversa acima citada seja igual ao número de elementos no vetor ̂(k), e não igual ao número de elementos do vetor (k). Ver no Capítulo 1 a seção 1.4.1.

No contexto da filtragem de Kalman há a inclusão desta solução no problema da inversão, no qual sabemos como representar variáveis mensuráveis na saída d e um sistema variante no tempo, como funções lineares das variáveis internas deste sistema que desejamos conhecer. Estas variáveis internas não são mensuráveis diretamente. O filtro de Kalman inverte a sua relação funcional e faz a estimação das variáveis internas independentes (estado do sistema), como funções invertidas das variáveis dependentes (medidas na saída do sistema). As variáveis internas do sistema, que são independentes e desconhecidas, têm um comportamento que pode ser predito ao longo do tempo.

55

A equação (2.19) calcula a estimativa do vetor de estado do sistema multivariável, linear, discreto e variante no tempo. Todavia é necessário acrescentar a ela o efeito do vetor de entradas sobre o vetor de saídas e os ruídos do sistema com suas características estocásticas; e isto será feito até o final deste Capítulo.

A teoria da Probabilidade baseada no Espaço de Komolgorov foi apresentada de forma resumida na seção 2.2. Para aplicarmos esta teoria neste projeto iremos a seguir definir variáveis aleatórias discretas, vetores e matrizes com variáveis aleatórias discretas, e processos estocásticos, discretos e variantes no tempo.