• Nenhum resultado encontrado

Filtro de mínimos quadrados e filtro robusto para sistemas lineares com saltos Markovianos...

N/A
N/A
Protected

Academic year: 2017

Share "Filtro de mínimos quadrados e filtro robusto para sistemas lineares com saltos Markovianos..."

Copied!
117
0
0

Texto

(1)

DEPARTAMENTO DE ENGENHARIA DE TELECOMUNICA ¸

C ˜

OES

E CONTROLE

GUILHERME R. A. MOLINA BENITES

FILTRO DE M´

INIMOS QUADRADOS E FILTRO

ROBUSTO PARA SISTEMAS LINEARES COM

SALTOS MARKOVIANOS E RU´

IDOS

MULTIPLICATIVOS

(2)

GUILHERME R. A. MOLINA BENITES

FILTRO DE M´

INIMOS QUADRADOS E FILTRO

ROBUSTO PARA SISTEMAS LINEARES COM

SALTOS MARKOVIANOS E RU´

IDOS

MULTIPLICATIVOS

Tese apresentada ao Departamento de Engenharia de Telecomunica¸c˜oes e Controle da Universidade de S˜ao Paulo para obten¸c˜ao do t´ıtulo de Doutor em Engenharia El´etrica.

´

Area de Concentra¸c˜ao: Engenharia de Siste-mas

Orientador: Prof. Dr. Oswaldo Luiz do Valle Costa

(3)

FOLHA DE APROVA ¸

C ˜

AO

Filtro de M´ınimos Quadrados e Filtro Robusto para Sistemas

Lineares com Saltos Markovianos e Ru´ıdos Multiplicativos

GUILHERME R. A. MOLINA BENITES

Tese apresentada ao Departamento de Engenharia de Telecomunica¸c˜oes e Controle da Universidade de S˜ao Paulo para obten¸c˜ao do t´ıtulo de Doutor em Engenharia El´e-trica.

´

Area de Concentra¸c˜ao: Engenharia de Sistemas

Banca Examinadora constitu´ıda por:

Dr. Oswaldo Luiz do Valle Costa – Orientador Escola Polit´ecnica - Universidade de S˜ao Paulo

Dr. Ricardo Paulino Marques

Escola Polit´ecnica - Universidade de S˜ao Paulo

Dr. Roberto Moura Sales

Escola Polit´ecnica - Universidade de S˜ao Paulo

Dr. Marco Henrique Terra

Escola de Engenharia de S˜ao Carlos - Universidade de S˜ao Paulo

Dr. Wanderlei Lima de Paulo

Faculdade de Economia e Administra¸c˜ao - Universidade de S˜ao Paulo

(4)

Dedicat´

oria

Primeiramente, dedico esse trabalho a meus pais, Ilka e Luis, pelo que representam hoje para mim, mas principalmente pela dedica¸c˜ao ao longo desses mais de 30 anos, fundamental para tudo o que pude fazer at´e hoje.

Em segundo lugar, a meus amigos, que fazem de minha caminhada algo muito mais simples e agrad´avel. Em especial, `as minhas mais novas amigas, Isabela e Ana Catarina, a quem prometo me esfor¸car ao m´aximo para que encontrem um mundo melhor.

`

A Paula, minha companheira de sempre, que abriu m˜ao de tempo e aten¸c˜ao para que eu pudesse dedicar-me a esse projeto. Espero poder ser, para ela, tudo o que ela sempre foi para mim.

`

A Lilian, minha “m˜ae matem´atica”, que influenciou mais na minha vida e nas minhas escolhas do que ela mesmo pode imaginar.

Por fim, e mais importante, `aquele que tornou tudo isso poss´ıvel, que me concedeu as oportunidades de que precisei, e que sempre orientou meus passos.

“J´a n˜ao sonho; hoje fa¸co, com meu bra¸co o meu viver”.

Milton Nascimento, em Travessia

(5)

Meu primeiro e principal agradecimento vai para o meu orientador, Prof. Dr. Oswaldo Luiz do Valle Costa, por toda a paciˆencia nos ´ultimos 4 anos. Agrade¸co tudo o que me ensinou, n˜ao s´o em termos te´oricos, mas em termos de postura e de profissionalismo.

Agrade¸co `a Escola Polit´ecnica da USP (EP - USP) e a seus professores que, de uma forma ou de outra, participaram dessa caminhada e apoiaram a realiza¸c˜ao desse trabalho.

Agrade¸co aos colegas de classe, desde o IME at´e aqui, que estiveram sempre prontos a discutir, a ajudar e a apoiar. Todos eles fazem parte desse projeto.

(6)

Resumo

Esse trabalho contempla o estudo sobre o estimador de m´ınimos quadrados obtido para sistemas lineares discretos sujeitos a ru´ıdos aditivos e a ru´ıdos multiplicativos em seus parˆametros. Sup˜oe-se, adicionalmente, que os parˆametros do sistema est˜ao sujeitos a saltos Markovianos, e que a cadeia de Markov n˜ao ´e conhecida. A solu¸c˜ao do problema, sob essas hip´oteses, ´e uma inova¸c˜ao apresentada nesse trabalho. Sob as mesmas hip´oteses, o caso estacion´ario tamb´em foi contemplado, e o trabalho apresenta uma demonstra¸c˜ao para a convergˆencia da matriz de covariˆancia dos erros do estimador a um valor estacion´ario, supondo-se estabilidade do sistema e ergodicidade da cadeia de Markov associada. Mostra-se, tamb´em, que existe uma ´unica solu¸c˜ao positiva semi-definida para a equa¸c˜ao de Riccati estacion´aria e, ainda mais, que tal solu¸c˜ao ´e o limite da matriz de covariˆancia dos erros. A partir da introdu¸c˜ao de uma hip´otese adicional - de que os parˆametros do sistema est˜ao sujeitos a incertezas na forma de politopos convexos - constr´oi-se um filtro linear dinˆamico em que as itera¸c˜oes possuem estabilidade na m´edia quadr´atica e que minimiza o limitante superior para o valor esperado do erro quadr´atico. Uma formula¸c˜ao do tipo LMI (Linear Matrix Inequalities) ´e proposta para a solu¸c˜ao do problema.

(7)

This thesis deals with the linear filtering problem for discrete-time Markov jump linear systems with both additive and multiplicative noises. It is assumed that the values of the Markov chain are not available. This is the first time that a solution to the problem with these parameters is presented. By using some usual geometric arguments it is obtained a Kalman type filter conveniently implementable in a recurrence form. The stationary case is also studied and a proof for the convergence of the associated Lyapunov and Riccati like equations is presented. By adding an additional hypotesis - that the parameters of the systems are subject to convex polytopic uncertainties - it was designed a dynamic linear filter such that the closed loop system is mean square stable and minimizes an upper bound for the stationary expected value of the square error. A Linear Matrix Inequalities (LMI) formulation is proposed to solve the problem.

(8)

Sum´

ario

1 Introdu¸c˜ao 1

2 Revis˜ao Bibliogr´afica 5

3 Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 12

3.1 Nota¸c˜oes e Defini¸c˜oes Iniciais . . . 12

3.2 Teoria de Filtragem . . . 14

3.2.1 A id´eia de filtragem . . . 14

3.2.2 A geometria da estima¸c˜ao linear . . . 15

3.2.3 O Filtro de Kalman . . . 18

3.2.4 Solu¸c˜ao Estacion´aria . . . 20

4 Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 23 4.1 Formula¸c˜ao do Problema . . . 24

4.2 Resultados Auxiliares . . . 28

5 Obten¸c˜ao do ELMQ 32 6 Solu¸c˜ao Estacion´aria 41 7 Modelo Robusto 50 7.1 Problema Considerado . . . 50

7.2 Formula¸c˜ao LMI para o Problema Robusto . . . 66

(9)

8.2 Exemplo 2: Aplica¸c˜ao ao Mercado Financeiro . . . 79

8.2.1 Processo de Wiener e o Movimento Browniano . . . 79

8.2.2 Modelo de Filtro baseado em Movimento Browniano . . . 80

8.2.3 Introdu¸c˜ao de Saltos Markovianos . . . 81

8.2.4 Introdu¸c˜ao de Ru´ıdos Multiplicativos . . . 83

8.2.5 Modelo com Ru´ıdos Aditivos e Multiplicativos e Saltos Markovianos 84 8.2.6 Compara¸c˜ao entre modelos . . . 85

8.3 Exemplo 3: Modelo Robusto . . . 95

9 Conclus˜oes 99

Referˆencias Bibliogr´aficas 101

(10)

Lista de Figuras

8.1 Compara¸c˜ao entre o filtro de Kalman padr˜ao (linha s´olida) e o ELMQ (linha

estrelada) . . . 78

8.2 Pre¸co Futuro do N´ıquel . . . 86

8.3 Estimativa, pelo Filtro de Kalman, do pre¸co `a vista do N´ıquel . . . 88

8.4 Estimativa, pelo ELMQ, do pre¸co `a vista do N´ıquel . . . 90

8.5 Pre¸co mensalspot do N´ıquel . . . 91

8.6 Comparativo entre pre¸cos mensais `a vista do N´ıquel . . . 92

8.7 Diferen¸cas entre valores previstos e valores observados . . . 92

8.8 Comparativo entre os dois modelos, com perturba¸c˜ao na volatilidade . . . 94

8.9 Evolu¸c˜ao temporal das entradas da matriz de ganho do filtro . . . 95

8.10 Compara¸c˜ao entre ELMQ e Filtros LMI. . . 98

(11)

8.1 Conjunto de parˆametros considerados nas simula¸c˜oes . . . 77

8.2 Parˆametros para simula¸c˜ao do modelo com ru´ıdos e saltos . . . 89

8.3 Conjunto de parˆametros usados nas simula¸c˜oes. . . 96

8.4 Conjunto de parˆametros utilizados nos LMIs. . . 97

(12)

Cap´ıtulo 1

Introdu¸

ao

A pesquisa relacionada `a moderna teoria de filtragem vem ganhando destaque em diversos campos do conhecimento, fato que a torna cada vez mais relevante. Como al-guns exemplos, podemos citar aplica¸c˜oes diversas em engenharia, em telecomunica¸c˜oes e em teoria de finan¸cas. A simples observa¸c˜ao das ´areas em que a teoria de filtra-gem encontra aplica¸c˜oes j´a d´a a dimens˜ao da importˆancia do assunto para a pesquisa realizada atualmente.

Desde a sistematiza¸c˜ao da modelagem por R. Kalman, no in´ıcio dos anos 60, os problemas se tornaram cada vez mais complexos, a partir da adi¸c˜ao de hip´oteses cada vez menos restritivas ao comportamento das vari´aveis em quest˜ao. Atualmente, a literatura existente sobre o tema ´e imensa, como se poder´a observar no Cap´ıtulo 2, que tratar´a da revis˜ao bibliogr´afica.

A realiza¸c˜ao desse trabalho se baseou na literatura existente at´e o momento, e na adi¸c˜ao de algumas hip´oteses sobre o comportamento das vari´aveis envolvidas, a saber: a introdu¸c˜ao dos ru´ıdos multiplicativos e aditivos ao sistema, al´em da influˆencia de saltos Markovianos em seus parˆametros, pressupondo-se o desconhecimento da cadeia de Markov relacionada.

(13)

Destaca-se que o autor n˜ao tem conhecimento sobre trabalhos anteriores que tenham considerado, de maneira simultˆanea, efeitos t˜ao diversos no comportamento das vari´a-veis como os que aqui s˜ao considerados. O Cap´ıtulo 2 apresenta diversos trabalhos em que esses efeitos s˜ao considerados de maneira isolada, mas n˜ao aponta nenhum trabalho em que esses efeitos s˜ao abordados conjuntamente, e sem o conhecimento do parˆametro da cadeia de Markov.

Al´em disso, cabe destacar que a abordagem do problema robusto tamb´em foi con-siderada. Nesse caso, adotamos a hip´otese de que os parˆametros do modelo est˜ao sujeitos a incertezas na forma de politopos convexos, e propusemos uma abordagem do tipo LMI (Linear Matrix Inequalities) para a solu¸c˜ao do problema.

Entendemos que a considera¸c˜ao de todas as hip´oteses j´a enumeradas e tamb´em a abordagem da forma robusta do problema representam um avan¸co importante nos estudos sobre filtragem de sistemas lineares, sobretudo pela amplitude dos temas que foram abordados.

Para ilustrar as aplica¸c˜oes desse trabalho, escolhemos alguns casos que podem vir a ter interesse pr´atico:

1. Uma compara¸c˜ao entre o modelo obtido e o modelo tradicional de filtragem, a partir da aplica¸c˜ao de ambos a um problema escalar simples, de cunho unicamente te´orico;

2. Uma compara¸c˜ao entre o poder preditivo de um filtro de Kalman tradicional e a modelagem a partir da teoria aqui apresentada. Essa compara¸c˜ao foi feita a partir dos pre¸cos de N´ıquel, commodity largamente negociada que apresenta alta volatilidade e esteve sujeita, recentemente, a mudan¸cas no perfil de seus pre¸cos; 3. Finalmente, uma compara¸c˜ao entre o filtro obtido e a modelagem obtida a partir

(14)

1. Introdu¸c˜ao 3

O texto est´a organizado da seguinte forma: o Cap´ıtulo 2 apresenta uma revis˜ao bibliogr´afica sobre o tema, considerando os artigos que precederam o trabalho atual, e muitos que serviram de base para o que apresentamos aqui. A apresenta¸c˜ao busca tornar clara a contribui¸c˜ao de cada artigo, mas tamb´em ressaltar as diferen¸cas da modelagem proposta por cada um deles em rela¸c˜ao ao modelo mais geral aqui proposto.

As nota¸c˜oes utilizadas ao longo do texto, algumas hip´oteses e defini¸c˜oes, bem como a base da teoria de filtragem e seus principais resultados s˜ao apresentados no Cap´ıtulo 3. O intuito desse cap´ıtulo, al´em de apresentar a teoria b´asica sobre o tema, ´e uniformizar o entendimento sobre o que ser´a apresentado adiante. Esse cap´ıtulo n˜ao apresenta nenhum resultado novo sobre a teoria - apenas detalha alguns pontos importantes j´a amplamente conhecidos.

A apresenta¸c˜ao do sistema linear sujeito a ru´ıdos aditivos, a ru´ıdos multiplicativos e a saltos Markovianos, al´em do estabelecimento das principais hip´oteses, s˜ao temas do Cap´ıtulo 4. Esse cap´ıtulo tamb´em apresenta alguns resultados auxiliares que ser˜ao utilizados nos cap´ıtulos seguintes.

O filtro obtido para a solu¸c˜ao desse problema ´e apresentado no Cap´ıtulo 5, em conjunto com as demonstra¸c˜oes sobre as propriedades desejadas de tal filtro.

O Cap´ıtulo 6 apresenta a solu¸c˜ao estacion´aria para o problema proposto, e tamb´em a deriva¸c˜ao do filtro e da convergˆencia da equa¸c˜ao de Riccati associada a ele. Em conjunto com o Cap´ıtulo 5, esse cap´ıtulo contempla os principais resultados da abordagem que utiliza a constru¸c˜ao de um filtro linear de m´ınimos quadrados para o estudo dos sistema considerado no Cap´ıtulo 4.

(15)
(16)

Cap´ıtulo 2

Revis˜

ao Bibliogr´

afica

Como se pode ler em [21], a id´eia de representar processos estoc´asticos a partir de inova¸c˜oes ou de componentes ortogonais remonta a Wold, em seu livro [52], de 1938. Os maiores desenvolvimentos dessa teoria ocorreram com os artigos de Wiener e Masani (veja [50] e [51]), publicados no final da d´ecada de 1950.

Os problemas de previs˜ao foram estudados, simultaneamente, por Wiener (veja [49]) e Kolmogorov (veja [42]), e ambos consideraram apenas processos estacion´arios. A abordagem que utilizamos nesse trabalho, que considera a evolu¸c˜ao desses sistemas no tempo, foi iniciada por Kalman e Bucy, nos trabalhos [39] e [40].

Recentemente, os sistemas lineares sujeitos `a incidˆencia de ru´ıdos multiplicativos vˆem recebendo grande aten¸c˜ao, sobretudo em fun¸c˜ao do fato de que essa formula¸c˜ao encontra muitas aplica¸c˜oes em engenharia e em finan¸cas - dois campos largamente explorados nos ´ultimos anos.

Alguns exemplos de tais sistemas podem ser encontrados em fiss˜ao nuclear e trans-ferˆencia de calor, esta¸c˜oes de energia nuclear, aeron´autica, plantas qu´ımicas, sistemas de rede sem fio, modelagem de popula¸c˜oes e imunologia e otimiza¸c˜ao de portf´olios, por exemplo. Para ilustrar essas aplica¸c˜oes, sugerimos a leitura de [4], [5], [10],[23], [24],

(17)

[29], [16], [20], [31], [25], [26], [27], [33] e das referˆencias citadas por esses trabalhos so-bre problemas de controle H2 e H∞, filtragem ´otima, estabilidade robusta e condi¸c˜oes

de estabiliza¸c˜ao etc.

Pode-se afirmar, da mesma forma, que o problema de filtragem dessa classe de sis-temas vem despertando grande interesse, sob diferentes hip´oteses e crit´erios de perfo-mance. A seguir, discutimos alguns trabalhos que abordam o problema sob diferentes pontos de vista, expondo sua abordagem e suas principais inova¸c˜oes em rela¸c˜ao aos trabalhos anteriores.

Os problemas originalmente estudados contemplavam apenas a existˆencia de ru´ıdos aditivos nos sistemas lineares considerados. Al´em disso, as matrizes que afetam a seq¨uˆencia de estado eram, na maior parte das vezes, apenas variantes no tempo. Dessa forma, a utiliza¸c˜ao de hip´oteses adicionais requer, sempre, altera¸c˜oes significativas nos filtros obtidos.

Os trabalhos descritos a seguir consideram a inclus˜ao de ru´ıdos multiplicativos no sistema linear original. Embora generalizem os sistemas mais tradicionais, em nenhum momento esses trabalhos consideram a existˆencia de saltos markovianos nos parˆametros do sistema.

A introdu¸c˜ao de ru´ıdos multiplicativos ´e a principal inova¸c˜ao do artigo [9]. Esse trabalho, entretanto, considera que a influˆencia desses ru´ıdos afeta somente a vari´avel observada. Para a obten¸c˜ao do filtro para esse problema, uma estrutura recursiva ´e obtida a partir da combina¸c˜ao da estimativa anterior com uma inova¸c˜ao recursiva, o que leva a um modelo que considera a combina¸c˜ao linear dos dados mais recentes com as estimativas obtidas anteriormente.

(18)

mo-2. Revis˜ao Bibliogr´afica 7

delagem a partir de argumentos geom´etricos, o que o aproxima bastante da modelagem que utilizamos em nosso trabalho.

No artigo [7], mais uma vez considera-se a existˆencia de ru´ıdos multiplicativos. Aqui, no entanto, tais ru´ıdos afetam somente a vari´avel de estado. Al´em disso, a teoria desenvolvida se aplica a sistemas lineares com ru´ıdos n˜ao-estacion´arios e n˜ao-gaussianos - o que a diferencia da modelagem que estudamos. Os autores foram capazes de definir um filtro para tais sistemas que ´e ´otimo em uma determinada classe de transforma¸c˜oes polinomiais.

Por sua vez, no artigo [54], os autores consideram um sistema discreto, variante no tempo, com ru´ıdos tanto aditivos quanto multiplicativos. A abordagem aqui consiste em obter um filtro linear robusto que garanta a existˆencia de um majorante ´otimo para a variˆancia do erro da estimativa da vari´avel de estado, para todas as poss´ıveis incertezas admitidas. As condi¸c˜oes suficientes para que a obten¸c˜ao de tal filtro seja poss´ıvel s˜ao derivadas em termos de duas equa¸c˜oes a diferen¸cas de Riccati. Cabe observar que a modelagem proposta por esse artigo se aproxima, em certa medida, da modelagem que aqui propomos. Entretanto, a existˆencia de saltos Markovianos n˜ao ´e contemplada.

Os problemas de filtragem e de controle para sistemas sujeitos a ru´ıdos multiplica-tivos sob o crit´erio H∞ foram estudados no artigo [34].

Uma outra possibilidade de generaliza¸c˜ao para os sistemas lineares tradicionais ´e a introdu¸c˜ao de saltos Markovianos em seus parˆametros. A seguir, detalhamos alguns dos trabalhos que abordaram esse tipo de generaliza¸c˜ao.

(19)

No caso n˜ao-gaussiano, podemos citar os artigos [56] e [30] - que, de certa forma, uti-liza a id´eia exposta em [7] para desenvolver uma abordagem polinomial sub-´otima com o objetivo de encontrar o melhor estimador para sistemas sujeitos a saltos Markovianos e afetados por ru´ıdos aditivos n˜ao necessariamente gaussianos.

Como a obten¸c˜ao de estimadores ´otimos requer mem´oria e poder de computa¸c˜ao exponencialmente crescentes com o tempo, ´e necess´ario que se utilizem algoritmos sub-´otimos. Nos artigos citados no par´agrafo anterior, os autores utilizaram estimadores sub-´otimos n˜ao-lineares, o que requer atualiza¸c˜oes on-line.

No artigo [15], obteve-se um estimador linear de m´ınimos quadrados para sistemas lineares com saltos Markovianos baseado na estimativa de x(k)1{θ(k)=i}, em vez de

estimar diretamente a vari´avel de estado x(k). Aqui, a fun¸c˜ao 1{·} indica a medida

de Dirac. A principal vantagem dessa formula¸c˜ao ´e que ela permite a obten¸c˜ao de um filtro linear, variante no tempo, f´acil de implementar e no qual todos os c´alculos (isto ´e, os ganhos do filtro) podem ser realizados de maneira off-line. Al´em disso, tal modelagem permite que a seq¨uˆencia de controle eventualmente presente no sistema linear seja tratada de maneira conjunta com a vari´avel de estado.

No artigo [44], estuda-se um filtro robusto para sistemas lineares em que os parˆame-tros est˜ao sujeitos a saltos Markovianos. Novamente, esse trabalho considera apenas a existˆencia de ru´ıdos aditivos. Al´em disso, sup˜oe-se que o parˆametro de Markov est´a dispon´ıvel para o filtro.

Os filtros lineares estacion´ario e robusto baseados na equa¸c˜ao alg´ebrica de Riccati aumentada foram apresentados nos artigos [13] e [14], levando a um filtro linear invari-ante a tempo discreto. Um problema bastinvari-ante similar foi abordado em [29]. Entretanto, esse artigo usa uma abordagem baseada em desigualdades de matrizes lineares (LMI).

(20)

2. Revis˜ao Bibliogr´afica 9

´e explorar a literatura que considera ambas as generaliza¸c˜oes - saltos Markovianos e ru´ıdos multiplicativos - ao mesmo tempo.

Um filtro do tipo de Kalman para sistemas lineares sujeitos a ru´ıdos multiplicativos tanto na vari´avel de estado como na vari´avel observada, e tamb´em a saltos Markovia-nos, foi apresentado em [47]. Nesse caso, assume-se que o parˆametro de Markov est´a dispon´ıvel para o filtro, e tamb´em que a dinˆamica do vetor de estado e os ru´ıdos na vari´avel observada s˜ao independentes entre si. A partir dessas hip´oteses, foi poss´ıvel obter um filtro na forma estacion´aria, baseado na solu¸c˜ao de equa¸c˜oes alg´ebricas de Riccati associadas.

Ao longo desse texto, apresentaremos a obten¸c˜ao de um estimador linear de m´ınimos quadrados para sistemas a tempo discreto, sujeitos a ru´ıdos multiplicativos tanto na vari´avel de estado quanto na vari´avel observada, e tamb´em a saltos Markovianos em seus parˆametros. Assumiremos que o parˆametro da cadeia de Markov ´e desconhecido.

At´e onde se sabe, essa ´e a primeira vez que o problema de filtragem linear sob essas condi¸c˜oes ´e considerado na literatura. De fato, como pudemos ver a partir dos exemplos aqui citados, alguns trabalhos anteriores consideraram o problema de filtragem (sob diferentes crit´erios e hip´oteses) para sistemas sujeitos somente a saltos Markovianos ou somente a ru´ıdos multiplicativos.

Ainda que o artigo [47] tenha considerado o mesmo problema com hip´oteses bas-tante semelhantes, h´a que se observar que, nesse caso, assumiu-se que o parˆametro de Markov era conhecido, e tamb´em que os ru´ıdos na equa¸c˜ao de estado e na medida eram independentes entre si.

(21)

vari´aveis, mas ainda mais restritivas do que aquelas consideradas nesse trabalho.

Atrav´es da utiliza¸c˜ao de argumentos geom´etricos, e estimando, assim como no artigo [15], x(k)1{θ(k)=i} em vez de estimar x(k) diretamente, esse trabalho apresenta como

obter um filtro convenientemente implement´avel em forma recursiva a partir de duas equa¸c˜oes matriciais - uma do tipo de Lyapunov, e outra do tipo de Riccati.

A convergˆencia dessas itera¸c˜oes `as equa¸c˜oes de Lyapunov e de Riccati associadas tamb´em ´e estudada, o que permite a generaliza¸c˜ao dos resultados obtidos em [15] e em [14], que consideravam somente sistemas com saltos Markovianos. No caso de sistemas em que n˜ao h´a nem saltos Markovianos nem ru´ıdos multiplicativos, os resultados aqui apresentados recaem naqueles obtidos pelo filtro de Kalman para sistemas lineares (veja a Observa¸c˜ao 2).

Alguns dos resultados do problema de filtragem para o modelo mais geral obtidos nessa tese, e que ser˜ao descritos em detalhes ao longo dos pr´oximos cap´ıtulos, foram publicados em [10].

Filtros lineares robustos e estacion´arios foram considerados em [13] e em [14]. Nesses casos, a solu¸c˜ao do problema levou a filtros lineares a tempo discreto invariantes no tempo. ´E importante mencionar que esses artigos serviram de base para a modelagem apresentada no Cap´ıtulo 7 desse trabalho.

Uma abordagem do tipo LMI foi considerada em [29], para o caso em que h´a incer-tezas nas matrizes do sistema. Em [37], a abordagem do tipo LMI foi utilizada no caso em que as incertezas est˜ao na matriz de transi¸c˜ao de probabilidades.

O problema de filtragem H∞ com o filtro independente do modo de opera¸c˜ao, isto

(22)

2. Revis˜ao Bibliogr´afica 11

(23)

Nota¸

oes, Defini¸

oes e Teoria de

Filtragem

Esse cap´ıtulo apresenta nota¸c˜oes e defini¸c˜oes que ser˜ao utilizadas ao longo de todo o trabalho. Com o intuito de introduzir e uniformizar a teoria utilizada para o desen-volvimento dos resultados aqui apresentados, a Se¸c˜ao 3.2 detalhar´a os princ´ıpios da Teoria de Filtragem.

3.1

Nota¸

oes e Defini¸

oes Iniciais

Ao longo desse trabalho, o espa¸co euclidiano real n-dimensional ser´a denotado por

Rn. SeXeYs˜ao espa¸cos de Banach,B(X,Y) denotar´a o espa¸co de Banach de todos os operadores lineares limitados de Xem Y, com a norma induzida representada por k.k. Por simplicidade, usaremos B(X) := B(X,X). Se T ∈ B(X), denotamos por rσ(T) o

raio espectral de T.

O s´ımbolo ′ denotar´a a transposta de uma matriz ou vetor, e para uma matriz

(24)

3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 13

semi-definida (positiva definida).

Definimos, tamb´em:

Hn,m =Q= (Q1, . . . , QN); Qi ∈B(Rn,Rm), i= 1, . . . , N ,

Hn =Hn,n e

Hn+ =Q= (Q1, . . . , QN)∈Hn; Qi ≥0, i= 1, . . . , N .

Para Q = (Q1, . . . , QN) ∈ Hn+, V = (V1, . . . , VN) ∈ Hn+ dizemos que Q ≥ V se,

para cada i= 1, . . . , N, temos que Qi ≥Vi.

ParaD = (D1, . . . , DN)∈Hn,m, definimos diag(Dj)∈B(RN n,RN m) como a matriz

diagonal formada porDj na diagonal, e zero nas outras posi¸c˜oes, e definimos o operador

Dg :Hn,m →B(RN n,RN m) por Dg(D) = diag(Dj).

Definimos, tamb´em, dg[Dj] ∈ Rℓm×ℓn, que representa a matriz diagonal formada

por ℓ c´opias da (mesma) matriz Dj na diagonal e zero em todas as demais posi¸c˜oes.

Para um inteiro positivoM, definimos o conjunto:

M:={ξ= (ξ1, . . . , ξM); 0 ξj 1, j = 1, . . . , M,

M

X

j=1

ξj = 1}. (3.1)

Para um conjunto de M matrizes Aj de mesma dimens˜ao, eξ ∈ M, definimos: Aξ:=

M

X

j=1

ξjAj. (3.2)

(25)

3.2

Teoria de Filtragem

Essa se¸c˜ao ser´a dedicada a apresentar a teoria b´asica sobre o problema de filtragem tradicional. Os principais objetivos, aqui, s˜ao:

1. Fornecer a base te´orica para os desenvolvimentos que ser˜ao realizados ao longo do trabalho;

2. Permitir a identifica¸c˜ao das limita¸c˜oes do modelo tradicional, bem como das inova¸c˜oes propostas pelo modelo aqui apresentado;

3. Apresentar as utiliza¸c˜oes de tal modelagem, permitindo que tracemos um paralelo entre as aplica¸c˜oes tradicionais da teoria de filtragem e as aplica¸c˜oes do modelo proposto que possam vir a ser realizadas.

A principal referˆencia utilizada para a elabora¸c˜ao dessa se¸c˜ao ´e o livro [21]. Entre-tanto, a literatura que aborda esse teoria ´e bastante vasta, e muitos outros trabalhos servem de referˆencia para esse mesmo assunto.

3.2.1

A id´

eia de filtragem

O processo conhecido como filtragem tem origem no estudo de modelos estoc´aticos, em que vari´aveis n˜ao observ´aveis diretamente contribuem de maneira relevante com o output do modelo. Um exemplo geral de tais modelos pode ser (veja [21], se¸c˜ao 2.4):

x(k+ 1) =Ax(k) +Bu(k) +Cw(k),

y(k) =Hx(k) +Gw(k). (3.3)

(26)

out-3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 15

puts do modelo. Dessa forma, ´e f´acil ver que os outputs s˜ao diretamente afetados pelas vari´aveis {x(k)}. Por´em, tais vari´aveis n˜ao s˜ao observ´aveis.

´

E natural, portanto, procurar pelos melhores estimadores dessas vari´aveis, dado o que se conhece at´e o momento - no caso, o conjunto{y(1), y(2),· · · , y(k)}. O problema definido pela busca de tais estimativas ´e denominado filtragem.

Assim como colocado por [21], existem pelo menos trˆes situa¸c˜oes em que esse pro-blema ganha extrema relevˆancia:

1. O caso em que a filtragem ´e um fim em si mesmo, como por exemplo nas situa¸c˜oes em que a vari´avel de estado x(k) representa uma medida importante em um sistema que precisamos conhecer da melhor forma poss´ıvel, mesmo que ela n˜ao seja mensur´avel diretamente;

2. No caso de sistemas em que a vari´avel de controle u(k) assume a forma u(k) = u(k, x(k)). Sob certas hip´oteses, a vari´avel x(k) pode ser substitu´ıda por sua

melhor estimativa ˆx(k), gerada a partir de filtragem;

3. No caso em que se deseja substituir o modelo estado-espa¸co por um modelo externo equivalente.

3.2.2

A geometria da estima¸

ao linear

Nessa se¸c˜ao, descreveremos a interpreta¸c˜ao geom´etrica da estima¸c˜ao linear de uma vari´avel aleat´oria. Para tanto, vamos definir, para qualquer seq¨uˆencia de vetores alea-t´orios de segunda ordem {r(k)}, o vetor aleat´orio “centrado”rc(k) por:

(27)

O melhor estimador afim de r(k), dados {y(0), . . . , y(t)}, ser´a chamado de r(kb |t). Definimos, tamb´em:

e

r(k|t) =r(k)br(k|t).

Da mesma forma,brc(k|t) ´e o melhor estimador linear derc(k) dados{yc(0), . . . , yc(t)}

e erc(k|t) =rc(k)brc(k|t). ´E conhecido (ver [21], p´ag. 109) que

b

r(k|t) =brc(k|t) +E(r(k)) (3.4) e, em particular, erc(k|t) = er(k|t). Vamos denotar por L(yk) o subespa¸co gerado por:

(y)k=

      y(0) ... y(k)      ,

(veja [21]), isto ´e, uma vari´avel aleat´oria r L(yk) ser = Pk

i=0α(i)′y(i), para α(i) ∈

Rm, i= 0, . . . , k.

Se os vetores aleat´orios r e s assumem valores em Rn, o produto interno < .;. > ´e definido por:

< r;s >=E(s′r)

e, ent˜ao, dizemos que r e s s˜ao ortogonais se < r;s >= E(s′r) = 0. Para t k, o

melhor estimador linear

b

rc(k|t) =

      b rc

1(k|t)

...

b

rc n(k|t)

      do vetor

rc(k) =

(28)

3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 17

´e a proje¸c˜ao derc(k) sobre o subespa¸coL((yc)t), que satisfaz as seguintes propriedades

(veja [21], p´ags. 108 a 111):

1. rbjc(k|t)L((yc)t), j = 1, . . . , n;

2. rej(k|t) ´e ortogonal a L((yc)t), j = 1, . . . , n;

3. se cov((y)t) ´e n˜ao-singular, ent˜ao

b

rc(k|t) =E(rc(k)(yc)t′) cov((y)t)−1(yc)t, (3.5)

b

rc(k|k) =brc(k|k1) +E(brc(k)y(ke |k1)′)×E(y(ke |k1)y(ke |k1)′)−1

×(yc(k)ybc(k|k1)). (3.6)

O seguinte resultado ser´a ´util na demonstra¸c˜ao do Teorema 3.

PROPOSI ¸C ˜AO 1 Suponha que cov(yt−1)>0. Ent˜ao:

cov(yt)>0cov(ey(t|t1)) >0.

Demonstra¸c˜ao. Para alguma matriz A, temos que ybc(t|t1) = A(yc)t−1 e yc(t) =

e

y(t|t1) +A(yc)t−1. Ent˜ao, pela ortogonalidade entre (yc)t−1 e ey(t|t1), temos que,

para quaisquer vetores a e b de dimens˜ao apropriada,

a′ b

cov(yt)

 

a

b

 

(29)

3.2.3

O Filtro de Kalman

Essa se¸c˜ao ser´a dedicada `a apresenta¸c˜ao do Filtro de Kalman, que ´e base para a teoria aqui desenvolvida, e de alguns resultados relevantes dentro desse contexto.

O Filtro de Kalman ´e um algoritmo recursivo utilizado para a estima¸c˜ao da vari´avel de estado x(k) de um sistema linear, dadas as observa¸c˜oes {y(0), . . . , y(k 1)}. As equa¸c˜oes que descrevem o sistema s˜ao:

x(k+ 1) =A(k)x(k) +B(k)u(k) +C(k)w(k),

y(k) =H(k)x(k) +G(k)w(k). (3.7)

Observe que o sistema 3.7 difere do sistema 3.3 somente em fun¸c˜ao de seus parˆame-tros serem variantes no tempo. Vamos assumir que:

a) o ru´ıdo aditivo {w(k)} ´e dado por uma seq¨uˆencia de vetores aleat´orios de m´edia nula, independentes, e com matriz de covariˆancia igual `a matriz identidade; b) {w(k)}´e independente de x0;

c) a condi¸c˜ao inicialx0 ´e um vetor aleat´orio n-dimensional com E(x0) =µ0 e Q0 =

E(x0x′0).

Nesse sistema linear, os coeficientes matriciais podem ser variantes no tempo, como indica a dependˆencia de k. Assumiremos, tamb´em, que:

G(k)G(k)′ >0. (3.8)

(30)

3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 19

lineares de observa¸c˜oes possuem ru´ıdos.

De fato, suponhamos que 3.8 n˜ao seja verdadeira. Ent˜ao, existeλtal queλ′G(k) = 0.

Logo, a partir da segunda equa¸c˜ao de 3.7, temos que

λ′y(k) = λ′H(k)x(k)

e, portanto, algumas combina¸c˜oes lineares das componentes dex(k) podem ser medidas exatamente.

O teorema seguinte descreve o estimador linear para o sistema acima:

TEOREMA 1 Considere o sistema representado por (3.7). Ent˜ao, para k = 0,1, . . ., o estimador x(kb |k1) satisfaz:

b

x(k+ 1|k) = A(k)x(kb |k1) +B(k)u(k) +K(k)[y(k)H(k)bx(k|k1)],

b

x(0| −1) =µ(0). (3.9)

A matriz “ganho do filtro”K(k)´e dada por:

K(k) = [A(k)P(k)H(k)′+C(k)G(k)′][H(k)P(k)H(k)′+G(k)G(k)′]−1 (3.10)

A matriz P(k) = E[(x(k)x(ke |k1))(x(k)z(ke |k1)′]0´e a matriz de covariˆancia

dos erros e satisfaz a equa¸c˜ao recursiva de Riccati:

P(k+ 1) =A(k)P(k)A(k)′ +C(k)C(k)′[A(k)P(k)H(k)′+C(k)G(k)′]

×[H(k)P(k)H(k)′+G(k)G(k)′]−1[A(k)P(k)H(k)′ +C(k)G(k)′]′

P(0) =Q0. (3.11)

(31)

3.2.4

Solu¸

ao Estacion´

aria

A partir de agora, vamos considerar o caso em que o sistema 3.7 ´e invariante no tempo, isto ´e, os coeficientes matriciais do sistema n˜ao apresentam dependˆencia temporal de k. Nesse caso, o sistema 3.7 assume a forma:

x(k+ 1) =Ax(k) +Bu(k) +Cw(k),

y(k) =Hx(k) +Gw(k). (3.12)

Se, al´em disso, considerarmos que u(k) = 0, para todo k, podemos enunciar a seguinte:

PROPOSI ¸C ˜AO 2 Em 3.12, P(k) satisfaz:

P(k+ 1) =AP(k)A′+CC′,

P(0) =Q0. (3.13)

Se A ´e est´avel, ent˜aoP(k)P quando k → ∞, onde P ´e a ´unica solu¸c˜ao da equa¸c˜ao de Lyapunov

P =AP A′+CC′ (3.14)

Al´em disso, se P =Q0, ent˜ao P(k) = P,∀k ≥0.

(32)

3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 21

Voltando ao caso do sistema 3.12, o Teorema 1 nos sugere considerar a equa¸c˜ao alg´ebrica de Riccati:

P =AP A′+CC′[AP H′ +CG][HP H+GG]−1[AP H+CG](3.15)

Essa equa¸c˜ao representa, de certa forma, umtrade-off entre dois efeitos opostos: por um lado, o observador possui mais informa¸c˜oes sobre x(k), uma vez que mais dados v˜ao sendo acumulados. Por outro, a posi¸c˜ao de x(k) pode tornar-se menos certa, uma vez que a vari´avel est´a se movendo a partir de seu ponto inicial.

A quest˜ao que se segue, inspirada pela Proposi¸c˜ao 2, ´e: quando a equa¸c˜ao alg´ebrica de Riccati possui uma solu¸c˜ao? Al´em disso, essa solu¸c˜ao ´e ´unica entre as solu¸c˜oes positivas semi-definidas? A resposta a essas quest˜oes est´a relacionada a dois conceitos que ser˜ao enunciados a seguir. Antes disso, consideremos as matrizes:

˘

A=ACG′(GG′)−1H,

˘

C =C[I G′(GG′)−1G].

Defini¸c˜ao 1 A matrizA´e dita est´avelse todos os seus autovalores est˜ao contidos no

disco unit´ario aberto {ζ :|ζ|<1} do plano complexo.

Defini¸c˜ao 2 O par de matrizes (H, A) ´e dito detect´avel se existe uma matriz M de dimens˜oes convenientes tal que a matriz AM H ´e est´avel.

Defini¸c˜ao 3 O par de matrizes ( ˘A,C)˘ ´e dito estabiliz´avel se existe uma matriz N de dimens˜oes convenientes tal que a matriz A˘CN˘ ´e est´avel.

(33)

TEOREMA 2 Considerando-se o sistema 3.12 e as defini¸c˜oes acima, podemos

afir-mar que:

1. Se o par (H, A) ´e detect´avel, ent˜ao existe pelo menos uma solu¸c˜ao P 0 para a equa¸c˜ao alg´ebrica de Riccati 3.15;

2. Se, al´em disso, o par ( ˘A,C)˘ ´e estabiliz´avel, ent˜ao a solu¸c˜ao P ´e ´unica entre as solu¸c˜oes positivas semi-definidas, e P(k) P quando k → ∞, independente-mente da condi¸c˜ao inicial P(0) 0. Nesse caso, a matriz A KH ´e est´avel, onde K ´e a matriz “ganho do filtro” correspondente a P, isto ´e,

K = [AP H′+CG][HP H+GG]−1.

(34)

Cap´ıtulo 4

Sistema Linear com Ru´ıdos

Multiplicativos e Saltos

Markovianos

Esse cap´ıtulo apresentar´a a formula¸c˜ao do problema que vamos considerar a partir de agora, e tamb´em alguns resultados auxiliares que ser˜ao ´uteis nas demonstra¸c˜oes de alguns dos resultados do trabalho.

(35)

4.1

Formula¸

ao do Problema

Consideremos o seguinte sistema linear a tempo discreto com saltos Markovianos e ru´ıdos multiplicativos, em um espa¸co de probabilidade (Ω,P,F):

x(k+ 1) =A¯θ(k)(k) +

εx

X

s=1 e

Aθ(k),s(k)wxs(k)

x(k) +C(k)w(k),

y(k) = H¯θ(k)(k) +

εy

X

s=1 e

Hθ(k),s(k)wsy(k)

x(k) +Gθ(k)(k)w(k),

x(0) = x0. (4.1)

Nesse sistema, a vari´avel de estado ´e dada pelo vetor n-dimensionalx(k), enquanto que a vari´avel observada ´e dada por y(k). Assim como nos sistemas anteriores, o ru´ıdo aditivo ´e dado por w(k).

Como principais diferenciais do sistema, temos: a cadeia de Markov ´e dada por θ(k), o ru´ıdo multiplicativo de estado ´e dado por wsx(k), e o ru´ıdo multiplicativo da observa¸c˜ao, por wys(k).

Deseja-se obter o estimador linear de m´ınimos quadrados (ELMQ) parax(k), dadas as observa¸c˜oes {y(0), . . . , y(k)} - assumimos, aqui, que θ(k) n˜ao est´a dispon´ıvel. Al´em disso, vamos assumir que:

i) o ru´ıdo aditivo {w(k)} ´e dado por uma seq¨uˆencia de vetores aleat´orios de m´edia nula, independentes, e com matriz de covariˆancia igual `a matriz identidade; ii) os ru´ıdos multiplicativos {wxs(k); 1 s εx} e {wys(k); 1 s εy} s˜ao

seq¨uˆen-cias de vari´aveis aleat´orias independentes com m´edia nula e variˆancia unit´aria, e E(wx

i(k)wjx(k)) = 0, E(w y i(k)w

y

j(k)) = 0, para todo k e i6=j;

iii) a correla¸c˜ao linear entre wxs1(k) e wys2(k) ´e dada por E(wx s1(k)w

y

(36)

4. Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 25

iv) {wxs(k);s = 1, . . . εx} e {wy

s(k);s = 1, . . . εy} s˜ao independentes de {w(k)} e x0,

assim como {w(k)} ´e independente dex0;

v) a cadeia de Markov {θ(k)} toma valores em {1, . . . , N} e possui como matriz de transi¸c˜ao PM = [pij]. Definimos πj(k) := P(θ(k) =j);

vi) a cadeia de Markov{θ(k)}´e independente de{wxs(k);s = 1, . . . εx}, de{wy

s(k);s=

1, . . . εy}, de {w(k)} e de x

0;

vii) a condi¸c˜ao inicialx0 ´e um vetor aleat´orio n-dimensional com E(x0) =µ0 e Q0 =

E(x0x′0).

Consideremos as seguintes matrizes aumentadas:

¯ A(k) :=      

p11A¯1(k) · · · pN1A¯N(k)

... . .. ... p1NA¯1(k) · · · pN NA¯N(k)

     , e

As(k) :=

     

p11Ae1,s(k) · · · pN1AeN,s(k)

... . .. ... p1NAe1,s(k) · · · pN NAeN,s(k)

     , ¯ H(k) :=

H1(k)· · ·HN(k)

,

e

Hs(k) :=

e

H1,s(k)· · ·HeN,s(k)

,

G(k) :=

G1(k)π1(k)1/2· · ·GN(k)πN(k)1/2

, C(k) :=      

π1(k)1/2p11C1(k) · · · πN(k)1/2pN1CN(k)

... . .. ...

π1(k)1/2p1NC1(k) · · · πN(k)1/2pN NCN(k)

      . (4.2)

(37)

para Υ= (Υ1, . . . ,ΥN)∈Hn,

B1(k,Υ) := diag

hXN

i=1

pijA¯i(k)ΥiA¯i(k)′

i

−A(k)(diag(Υ¯ i)) ¯A(k)′, (4.3)

B2(k,Υ) := diag

hXN

i=1

pij εx

X

s=1 e

Ai,s(k)ΥiAei,s(k)′

i

, (4.4)

B(k,Υ) :=B1(k,Υ) +B2(k,Υ). (4.5)

Observa¸c˜ao 1 Note que, como demonstrado em [14], se ΥHn+, ent˜ao B1(Υ)≥0.

´

E f´acil ver que, nesse caso, temos tamb´em B2(Υ) ≥ 0 e ent˜ao B(Υ) ≥ 0 sempre que

ΥHn+. De fato, se ΥHn+, por defini¸c˜aoΥ´e, pelo menos, positiva semi-definida. Logo, o segundo somat´orio de B2(Υ) ´e sempre maior ou igual a zero. Como pij ≥ 0,

segue que B2(Υ)≥0. Al´em disso, se B1(Υ)≥0 e B2(Υ)≥0, ´e claro que B(Υ)≥0.

Apresentamos, agora, as matrizes de segundo momento associadas `a vari´avel de estado em (4.1). Para tanto, definimos:

z(k, i) =x(k)1{θ(k)=i}, i= 1, . . . , N,

z(k) =

     

z(k,1) ... z(k, N)

    

,

Qi(k) =E(z(k, i)z(k, i)′) =E(x(k)x(k)′1{θ(k)=i}),

Z(k) = diag[Qi(k)]∈RN n×N n,

e o operador T(k, .) B(Hn) como segue: para Υ = (Υ1, . . . ,ΥN) ∈ Hn, T(k,Υ) =

(T1(k,Υ), . . . ,TN(k,Υ)) ´e dado, para j = 1, . . . , N, por

Tj(k,Υ) = N

X

i=1

pij

¯

Ai(k)ΥiA¯i(k)′ + εx

X

s=1 e

Ai,s(k)ΥiAei,s(k)′

(38)

4. Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 27

Defina D(k) = (D1(k), . . . , DN(k))∈Hn+ por:

Dj(k) = N

X

i=1

pijπi(k)Ci(k)Ci(k)′.

SejamQ(k) = (Q1(k), . . . , QN(k)) eQ(k) = Dg(Q(k)) = diag(Qi(k)) =E(z(k)z(k)′).

Seguindo o mesmo racioc´ınio apresentado na Proposi¸c˜ao 3.35 de [18], a equa¸c˜ao recur-siva de Lyapunov para as matrizes de segundo momento Qi(k) ´e dada por:

Q(k+ 1) =T(k,Q(k)) +D(k), Qi(0) =πi(0)Q0. (4.7)

Sejam, agora,

µ(0) =E(z(0)) =

     

µ0π1(0)

... µ0πN(0)

     

,

P(0) =E((z(0)µ(0))(z(0)µ(0)′)) =Q(0)µ(0)µ(0)′.

Para garantir a existˆencia da inversa de algumas matrizes, o que ser´a necess´ario na prova do Teorema 3, assumiremos as seguintes hip´oteses:

(A1) ¯H(0)P(0) ¯H(0)′+Pεy

s=1Hes(0)Q(0)Hes(0)′ +G(0)G(0)′ >0;

(A2) Pεsy=1Hes(k)Q(k)Hes(k)′+G(k)G(k)′ >0 fork = 1,2, . . ..

´

E f´acil checar que, se temos as hip´oteses usuais para problema de filtragem de Kalman - em nosso caso, Gi(k)Gi(k)′ > 0 para cada k = 0,1,2, . . . e i = 1, . . . , N

-ent˜ao as Asser¸c˜oes (A1) e (A2) s˜ao v´alidas.

(39)

posi-tivas semi-definidas, basta supormos que G(k)G(k)′ > 0, o que realmente ocorre se

Gi(k)Gi(k)′ > 0, para cada k = 0,1,2, . . . e i = 1, . . . , N, para que o resultado seja

observado.

4.2

Resultados Auxiliares

Nessa se¸c˜ao, ser˜ao apresentados alguns resultados auxiliares, que s˜ao necess´arios para a demonstra¸c˜ao do Teorema 4, que ser´a apresentado no Cap´ıtulo 6.

PROPOSI ¸C ˜AO 3 Existem matrizes C e G tais que:

CC′ =B(Q) +Dg(D) = B1(Q) +diag

XN i=1 pij εx X s=1 e

Ai,sQiAe′i,s+πiCiCi′

, (4.8)

CG′ =

εx X s=1 εy X ℓ=1

ρs,ℓAesQHeℓ′+CG′, (4.9)

GG′ =

εy

X

ℓ=1 e

HℓQHeℓ′ +GG′. (4.10)

Demonstra¸c˜ao. Sejam:

Π11= diag

XN i=1 pij εx X s=1 e

Ai,sQiAe′i,s+πiCiCi′

,

Π12=

εx X s=1 εy X ℓ=1

ρs,ℓAesQHeℓ′+CG′,

Π22=

εy

X

ℓ=1 e

HℓQHeℓ′ +GG′,

(40)

4. Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 29

com

ˆ Cj =

Cθ(0) 1

π1θ/(0)2

Pεx

s=1Aeθ(0),swxs(0)Q

1/2

θ(0)

1{θ(0)=j} e

ˆ G=

Gθ(0) Pε

y

ℓ=1 π11/2

θ(0) e

Hθ(0),ℓwℓy(0)Q

1/2

θ(0)

.

Colocando Eπ(.) como o operador valor esperado quando P(θ(0) = i) = πi, temos

que

0

   ˆ C ˆ G    ˆ

C′ Gˆ′ = Π :=

 

Π11 Π12

Π′

12 Π22

 

.

Escrevemos 0 Γ = Π1/2, com Γ :=  

Γ11 Γ12

Γ′

12 Γ22  

 e C :=

Γ11 Γ12 B1(Q)1/2

,

G :=

Γ′

12 Γ22 0

. Ent˜ao, (4.8)-(4.10) seguem de Γ2 = Π.

PROPOSI ¸C ˜AO 4 Q0(k)k−→→∞Q e, para cada k= 0,1,2, . . .,

Q(k+κ)Q0(k)≥Q0(k−1)≥0. (4.11)

Demonstra¸c˜ao. Da Proposi¸c˜ao 2.9 do livro [18], temos que Q0(k) k−→→∞ Q. Vamos mostrar (4.11) por indu¸c˜ao em k. Se k = 0, o resultado ´e imediato, uma vez que Q(κ) 0 = Q0(0) e Q0(1) ≥ 0 = Q0(0). Suponhamos que (4.11) ´e v´alido para k.

Ent˜ao, de (6.7) e (4.11), temos que

Qj(k+ 1 +κ) = N X i=1 pij ¯

AiQi(k+κ) ¯A′i+ εx

X

s=1 e

Ai,sQiAe′i,s+πi(k+κ)CiCi′

≥ N X i=1 pij ¯

AiQ0,i(k) ¯A′i+ εx

X

s=1 e

Ai,sQ0,iAei,s′ +αi(k)CiCi′

=Q0,j(k+ 1)

≥ N X i=1 pij ¯

AiQ0,i(k−1) ¯A′i+ εx

X

s=1 e

Ai,sQ0,i(k−1)Aei,s′ +αi(k−1)CiCi′

(41)

o que completa o argumento de indu¸c˜ao em (4.11).

As pr´oximas proposi¸c˜oes utilizam as defini¸c˜oes de Φ e de Ψ que podem ser encon-tradas em (6.5) e em (6.6), respectivamente.

PROPOSI ¸C ˜AO 5 Considereα= (α1, . . . , αN)eβ = (β1, . . . , βN)tais queαi ≥βi ≥

0, para i= 1, . . . , N. Ent˜ao, Φ(V, α)Φ(V, β)0.

Demonstra¸c˜ao. Por defini¸c˜ao, Φ(V, α) ´e uma matriz sim´etrica. Considere um vetor arbitr´ario x de dimens˜oes apropriadas com

x=       x1 ... xN     

, (4.12)

e fa¸ca y = V′x. Colocando Ei(.) o operador valor esperado quando P(θ(0) = i) = 1,

temos, ap´os algumas manipula¸c˜oes alg´ebricas, que

x′Φ(V, α)x=

N X i=1 αi XN j=1

pijx′jCi′Cixj−

XN

j=1

pijxj

CiG′iy−y′GiCi′

XN

j=1

pijxj

+y′GiG′iy

=

N

X

i=1

αiEi

kCi′xθ(1)−G′iyk2

N

X

i=1

βiEi

kCi′xθ(1)−G′iyk2

=x′Φ(V, β)x0,

o que mostra que Φ(V, α)Φ(V, β)0.

PROPOSI ¸C ˜AO 6 Para quaisquer U Hn+ e V de dimens˜oes apropriadas, temos

que Ψ(V,U)0.

(42)

4. Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 31

resultado segue ap´os algumas manipula¸c˜oes alg´ebricas, levando a:

x′Ψ(V,U)x=

N

X

i=1

XN

j=1

pijx′j

εx

X

s=1 e

Ai,sUiAe′i,s

xj − εx X s=1 εy X ℓ=1 ρs,ℓ XN j=1

pijx′j

e

Ai,sUiHei,ℓ′ y+

y′Hei,ℓUiAe′i,s

XN

j=1

pijxj

+

εy

X

ℓ=1

y′Hei,ℓUiHei,ℓ′ y

= N X i=1 Ei εx X s=1 e

Ai,swxs(0)xθ(1)−

εy

X

ℓ=1 e

Hi,ℓwy(0)y

Ui × εx X s=1 e

Ai,swsx(0)xθ(1)−

εy

X

ℓ=1 e

Hi,ℓwy(0)y

(43)

Obten¸

ao do ELMQ

Esse cap´ıtulo ser´a dedicado `a apresenta¸c˜ao do Estimador Linear de M´ınimos Qua-drados, ELMQ, para o sistema abordado no cap´ıtulo anterior. Assim como ocorre em [21], o filtro ser´a derivado a partir de argumentos geom´etricos.

Vamos considerar o sistema original (4.1). O ELMQ para esse sistema ser´a obtido a partir do seguinte teorema:

TEOREMA 3 Considere o sistema representado por (4.1). Ent˜ao, para k = 0,1, . . ., o ELMQ bx(k|k) ´e dado por:

b

x(k|k) =

N

X

i=1 b

z(k, i|k) (5.1)

onde bz(k|k) satisfaz a equa¸c˜ao recursiva

b

z(k|k) = bz(k|k1) +P(k) ¯H(k)′M(k)−1(y(k)H(k)¯ bz(k|k1)), (5.2)

b

z(k+ 1|k) = ¯A(k)z(kb |k1) +V(k)(y(k)H(k)¯ bz(k|k1)), (5.3)

b

z(0| −1) =µ(0). (5.4)

(44)

5. Obten¸c˜ao do ELMQ 33

e as matrizes M(k)>0 e V(k) s˜ao dadas por:

M(k) = ¯H(k)P(k) ¯H(k)′+

εy

X

ℓ=1 e

Hℓ(k)Q(k)Heℓ(k)′+G(k)G(k)′, (5.5)

V(k) =A(k)P¯ (k) ¯H(k)′+

εx X s=1 εy X ℓ=1

ρs,ℓAes(k)Q(k)Heℓ(k)′+C(k)G(k)′

M(k)−1. (5.6)

As matrizesP(k) =E(ez(k|k1)ez(k|k1)′)0 satisfazem a equa¸c˜ao recursiva de

Riccati:

P(k+ 1) = ¯A(k)P(k) ¯A(k)′ +B(k,Q(k)) + Dg(D(k))

¯

A(k)P(k) ¯H(k)′+

εx X s=1 εy X ℓ=1

ρs,ℓAes(k)Q(k)Heℓ(k)′+C(k)G(k)′

¯

H(k)P(k) ¯H(k)′+

εy

X

ℓ=1 e

Hℓ(k)Q(k)Heℓ(k)′+G(k)G(k)′

−1

¯

A(k)P(k) ¯H(k)′+

εx X s=1 εy X ℓ=1

ρs,ℓAes(k)Q(k)Heℓ(k)′+C(k)G(k)′

. (5.7)

Demonstra¸c˜ao. Fazendoµ(k) =E(z(k)), segue que µ(k+ 1) = ¯A(k)µ(k). Vamos definir:

ϕij(k) = 1{θ(k+1)=j}−pij,

ℓ(k) = εx X s=1 ( N X i=1 e

Ai,sz(k, i))wxs(k),

c(k) =

N

X

i=1

(45)

e

Υ1(k) =       PN

i=1A¯izi(k)ϕi1(k)

...

PN

i=1A¯izi(k)ϕiN(k)     

, (5.8)

Υ2(k) =

     

ℓ(k)1{θ(k+1)=1}

...

ℓ(k)1{θ(k+1)=N}

    

, (5.9)

Υ3(k) =

     

c(k)1{θ(k+1)=1}

...

c(k)1{θ(k+1)=N}

      . (5.10)

De (4.1), temos que:

zc(k+ 1) = ¯A(k)zc(k) + Υ1(k) + Υ2(k) + Υ3(k), (5.11) yc(k) = ¯H(k)zc(k) +

εy

X

s=1 e

Hs(k)ξsy(k) +Gθ(k)(k)w(k). (5.12)

onde ξsy(k) =wys(k)z(k). SejamL((yc)t) o subespa¸co gerado pelo vetor aleat´orio

(yc)t =

     

yc(0) ... yc(t)

     ,

e Pt a proje¸c˜ao ortogonal sobre L((yc)t). No que segue, aplicamos indu¸c˜ao em k para

mostrar que, das Asser¸c˜oes (A1) e (A2), cov((yc)k) > 0. De (5.12) com k = 0, ´e f´acil ver que cov(yc(0)) = ¯H(0)P(0) ¯H(0)+Pεy

s=1Hes(0)Q(0)Hes(0)′ +G(0)G(0)′ > 0,

da Asser¸c˜ao (A1). Suponha que cov((yc)k−1

(46)

5. Obten¸c˜ao do ELMQ 35

aleat´orico com m´edia nula z,

Pk−1(z) =E(z(yc)k−1′) cov((y)k−1)−1(yc)k−1. (5.13)

De (5.13) e da hip´otese de independˆencia feita na Se¸c˜ao 4, segue que

Pk−1(ξsy(k)) =E((wsy(k)z(k))(yc)k−1′) cov((y)k−1)−1(yc)k−1

=E(wys(k))E(z(k)(yc)k−1′) cov((y)k−1)−1(yc)k−1 = 0. (5.14)

Analogamente,

Pk−1(Gθ(k)(k)w(k)) =

N

X

i=1

E(1{θ(k)=i}Gi(k)w(k)(yc)k−1′) cov((y)k−1)−1(yc)k−1

=

N

X

i=1

Gi(k)E(w(k))E(1{θ(k)=i}(yc)k−1′) cov((y)k−1)−1(yc)k−1 = 0.

(5.15)

De (5.12), (5.14) e (5.15) ´e imediato ver que

b

yc(k|k1) =Pk−1(yc(k)) = ¯H(k)zbc(k|k1). (5.16)

Lembrando quey(ke |k1) = yc(k)ybc(k|k1) e queez(k|k1) =zc(k)bzc(k|k1), segue de (5.12) e de (5.16) que

e

y(k|k1) = ¯H(k)z(ke |k1) +

εy

X

s=1 e

Hs(k)ξsy(k) +Gθ(k)(k)w(k). (5.17)

(47)

inde-pendˆencia feita na se¸c˜ao 4, que

cov(y(ke |k1)) = ¯H(k)P(k) ¯H(k)′ +

εy

X

s=1 e

Hs(k)Q(k)Hes(k)′+G(k)G(k)′

=M(k)

εy

X

s=1 e

Hs(k)Q(k)Hes(k)′+G(k)G(k)′ >0 (5.18)

da Asser¸c˜ao (A2). Da Proposi¸c˜ao 1, temos que cov((y)k) >0. Como, da hip´otese de independˆencia feita na se¸c˜ao 4, temos

E(zc(k)ξsy(k)′) =E(wys(k))E(zc(k)z(k)′) = 0, (5.19) E(zc(k)(Gθ(k)(k)w(k))′) =

N

X

i=1

E(zc(k)(Gi(k)w(k))′1{θ(k)=i})

=

N

X

i=1

E(1{θ(k)=i}zc(k))E(w(k))′Gi(k)′ = 0 (5.20)

segue de (5.17), (5.19), (5.20), zc(k) = bzc(k|k 1) +ez(k|k 1) e da ortogonalidade entre bzc(k|k1) e z(ke |k1), que

E(zc(k)ey(k|k1)′) = E(zc(k)ez(k|k1)′) ¯H(k)′

=E((zbc(k|k1) +ez(k|k1))z(ke |k1)′) ¯H(k)′

=E(zbc(k|k1))z(ke |k1)′H(k)¯ ′+E(z(ke |k1))z(ke |k1)′H(k)¯ ′

=P(k) ¯H(k)′. (5.21)

De (3.6), (5.16), (5.18) e (5.21), temos que

b

zc(k|k) = bzc(k|k1) +P(k) ¯H(k)′M(k)−1(yc(k)H(k)¯ zbc(k|k1)). (5.22)

(48)

5. Obten¸c˜ao do ELMQ 37

obtemos (5.2). Vamos derivar, agora, (5.3). De (5.11), segue que

b

zc(k+ 1|k) = ¯A(k)bzc(k|k) +Pk(Υ1(k)) +Pk(Υ2(k)) +Pk(Υ3(k)). (5.23)

De (3.5), temos que Pk1(k)) = E(Υ1(k)(yc)k′) cov((y)k

)−1(yc)k

. Vamos denotar por Fk o σ-campo gerado pela vari´avel aleat´oria e pelos vetores θ(k), z(k) e (yc)k.

Temos que:

Pk

N

X

i=1

¯

Aizi(k)ϕij(k)

=

N

X

i=1

E( ¯Ai(k)zi(k)ϕij(k)(yc)k′) cov((y)k)−1(yc)k

=

N

X

i=1

E(E( ¯Ai(k)zi(k)ϕij(k)(yc)k′|Fk)) cov((y)k)−1(yc)k

=

N

X

i=1

E( ¯Ai(k)zi(k)E(ϕij(k)|Fk)1{θ(k)=i}(yc)k′) cov((y)k)−1(yc)k

= 0,

pois E(ϕij(k)|Fk)1{θ(k)=i} = (P(θ(k+ 1) = j|Fk)−pij)1{θ(k)=i} = 0. Isso mostra que

Pk1(k)) = 0. De (3.6), temos, para κ= 2,3,

Pk(Υκ(k)) =Pk−1(Υκ(k)) +E(Υκ(k)ey(k|k1)′)M(k)−1ey(k|k1).

Pela hip´otese de independˆencia feita na se¸c˜ao 4 e por (3.5), temos que

Pk−1(ℓ(k)1{θ(k+1)=j}) =

εx

X

s=1

XN

i=1 e

Ai,s(k)E(z(k, i)wxs(k)(yc) k−1′1

{θ(k+1)=j})

×cov((y)k−1)−1(yc)k−1 =

εx

X

s=1

XN

i=1 e

Ai,s(k)E(wxs(k))E(z(k, i)(yc) k−1′1

{θ(k+1)=j})

(49)

e, de (5.17), que

E(1{θ(k+1)=j}z(k, i)wsx(k)y(ke |k−1)′) = E

1{θ(k+1)=j}z(k, i)wsx(k)

¯

H(k)z(ke |k1)+

εy

X

ℓ=1 e

Hℓ(k)wyℓ(k)z(k) +Gθ(k)(k)w(k)

=E(wsx(k))E

1{θ(k+1)=j}z(k, i)

¯

H(k)z(ke |k1) +Gθ(k)(k)w(k)

′ + εy X ℓ=1 E(wx s(k)w y ℓ(k))E

1{θ(k+1)=j}z(k, i)z(k)′Heℓ(k)′

=

εy

X

ℓ=1

ρs,ℓQi(k)Hei,ℓ(k)′πi(k)pij

de modo que

E(ℓ(k)1{θ(k+1)=j}ey(k|k−1)′) =

εx X s=1 ( N X i=1 e

Ai,s(k)E(1{θ(k+1)=j}z(k, i)wsx(k)ey(k|k−1)′)

=

N

X

i=1

πi(k)pij εx X s=1 εy X ℓ=1

ρs,ℓAei,s(k)Qi(k)Hei,ℓ(k)′,

e ent˜ao

Pk(Υ2(k)) =

εx X s=1 εy X ℓ=1

ρs,ℓAes(k)Q(k)Heℓ(k)′

M(k)−1ey(k|k1).

Racioc´ınio semelhante mostra que Pk3(k)) = C(k)G(k)M(k)−1ey(k|k1). De

(5.22), (5.23) e dos resultados acima, temos que

b

zc(k+ 1|k) = ¯A(k)bzc(k|k) +V(k)y(ke |k1)

(50)

5. Obten¸c˜ao do ELMQ 39

Finalmente, de (5.3), (5.8), (5.9), (5.10),(5.11) e (5.12), temos que

e

z(k+ 1|k) = ( ¯A(k)V(k) ¯H(k))z(ke |k1) + Υ1(k) + Υ2(k) + Υ3(k)

−V(k)

εy

X

ℓ=1 e

Hs(k)wsy(k)z(k)−V(k)Gθ(k)(k)w(k). (5.24)

Sejam Υ0(k) = ( ¯A(k)V(k) ¯H(k))ez(k|k1), Υ4(k) =V(k)Pεy

ℓ=1Hes(k)wys(k)z(k),

Υ5(k) =V(k)G

θ(k)(k)w(k), de forma que, de (5.24), ez(k+ 1|k) = P5κ=0Υκ(k).

Da hip´otese de independˆencia feita na se¸c˜ao 4, temos que:

E(Υ0(k)Υκ(k)′) = 0, κ= 1,2,3,4,5, E(Υ1(k)Υκ(k)′) = 0, κ= 2,3,4,5,

E(Υ2(k)Υκ(k)′) = 0, κ= 3,5, E(Υ3(k)Υ4(k)′) = 0,

E(Υ4(k)Υ5(k)′) = 0.

Mais ainda, temos que:

E(Υ2(k)Υ4(k)′) =

εx

X

s=1

εy

X

ℓ=1

ρs,ℓ(Aes(k)Q(k)Heℓ(k)′V(k)′,

E(Υ3(k)Υ5(k)′) =C(k)G(k)′V(k)′,

E(Υ0(k)Υ0(k)) = ( ¯A(k)V(k) ¯H(k))P(k)( ¯A(k)V(k) ¯H(k)),

E(Υ1(k)Υ1(k)′) = diagh

N

X

i=1

pijA¯i(k)Qi(k) ¯Ai(k)′

i

−A(k)diag(Q¯ i(k)) ¯A(k)′ =B1(k,Q(k)),

E(Υ2(k)Υ2(k)) = diagh

N

X

i=1

pij εx

X

s=1 e

Ai,s(k)Qi(k)Aei,s(k)′

i

(51)

E(Υ3(k)Υ3(k)) = diag[

N

X

i=1

pijπi(k)Ci(k)Ci(k)′] = Dg(D(k)),

E(Υ4(k)Υ4(k)′) = V(k)

εy

X

ℓ=1 e

Hℓ(k)Q(k)Heℓ(k)′

V(k)′,

E(Υ5(k)Υ5(k)′) = V(k)G(k)G(k)′V(k)′.

Agrupando todos esses resultados, segue que:

P(k+ 1) = ( ¯A(k)V(k) ¯H(k))P(k)( ¯A(k)V(k) ¯H(k))′+B1(k,Q(k)) +B2(k,Q(k))

+ Dg(D(k))C(k)G(k)′V(k)′ V(k)G(k)C(k)′ +V(k)G(k)G(k)′V(k)′ +V(k)

εy

X

ℓ=1 e

Hℓ(k)Q(k)Heℓ(k)′

V(k)′

εx

X

s=1

εy

X

ℓ=1

ρs,ℓ(Aes(k)Q(k)Heℓ(k)′V(k)′+V(k)Heℓ(k)Q(k)As(k)). (5.25)

e, ap´os algumas manipula¸c˜oes alg´ebricas, obtemos (5.7).

Observa¸c˜ao 2 Note que, no caso em que n˜ao h´a saltos (N = 1) nem ru´ıdos mul-tiplicativos, temos que B(k,Q(k)) = 0. Com isso, todos os termos com Aei,s e Hei,s

desaparecem, de forma que a equa¸c˜ao (5.7) torna-se a equa¸c˜ao recursiva de Riccati

usual (veja [21], p´ag. 118) e o filtro derivado no Teorema 3 se reduz ao Filtro de

(52)

Cap´ıtulo 6

Solu¸

ao Estacion´

aria

Nesse cap´ıtulo, obteremos a solu¸c˜ao para o sistema proposto no caso em que n˜ao h´a dependˆencia temporal das matrizes envolvidas, isto ´e, consideraremos que todas as matrizes em (4.1) s˜ao invariantes no tempo. Em particular, podemos suprimir a dependˆencia em k dos operadores B1, B2, B e T definidos respectivamente em (4.3),

(4.4), (4.5) e (4.6).

O objetivo principal desse cap´ıtulo ´e mostrar que, sob a hip´otese de estabilidade na m´edia quadr´atica (EMQ) do sistema (4.1) (veja Defini¸c˜ao 4), existe uma solu¸c˜ao estacion´aria Q0 e P 0 para as equa¸c˜oes de Lyapunov e de Riccati relacionadas a (4.7) e a (5.7), respectivamente, e, ainda mais, que Q(k) eP(k) dadas por (4.7) e (5.7) convergem a Q e P, independentemente de quais sejam as condi¸c˜oes iniciais Q(0) 0 e P(0)0.

A partir de agora, assumiremos a seguinte hip´otese adicional:

(A3) A cadeia de Markov {θ(k)}´e erg´odica.

Da Asser¸c˜ao (A3), segue que existem πi > 0, i = 1, . . . , N, com PNi=1πi = 1, tais

(53)

que

lim

k→∞πi(k) =πi

exponencialmente r´apido e de maneira independente de θ(0). Vamos definir

π(k) = (π1(k), . . . , πN(k)) e π = (π1, . . . , πN).

Paraα= (α1, . . . , αN),αi ≥0, definimos D(α) := (D1(α), . . . , DN(α))∈Hn+ como

Dj(α) :=PNi=1pijαiCiCi′, e

G(α) :=

G1α11/2· · ·GNα1N/2

, C(α) :=

     

α11/2p11C1 · · · αN1/2pN1CN

... . .. ... α11/2p1NC1 · · · α1N/2pN NCN

    

,

e D :=D(π),G:=G(π), C:=C(π).

Vamos utilizar a seguinte defini¸c˜ao para a estabilidade na m´edia quadr´atica de (4.1):

Defini¸c˜ao 4 Dizemos que o sistema (4.1) possui estabilidade na m´edia quadr´atica

(EMQ) se, com w(k) = 0, temos E(kx(k)k2)0 quando k → ∞, qualquer que seja a

condi¸c˜ao inicial x0 que satisfa¸ca E(kx0k2)<∞.

O resultado seguinte deriva das Proposi¸c˜oes 2.5, 2.6 e 2.9 de [18] (veja tamb´em [26]).

PROPOSI ¸C ˜AO 7 As seguintes afirma¸c˜oes s˜ao equivalentes:

a) O sistema (4.1) possui EMQ.

b) rσ(T)<1.

(54)

6. Solu¸c˜ao Estacion´aria 43

Al´em disso, se alguma dessas afirma¸c˜oes ´e verdadeira, ent˜ao existe uma ´unica

solu-¸c˜ao Q que satisfaz

Q =T(Q) +D (6.1)

e Q(k) Q exponencialmente r´apido quando k → ∞, onde Q(k) satisfaz a equa¸c˜ao recursiva (4.7).

Segue que, se o sistema (4.1) possui EMQ, ent˜ao, da Proposi¸c˜ao 7 c), temos que, para cada j = 1, . . . , N,

0< Wj− N X i=1 pij ¯

AiWiA¯′i+ εy

X

s=0 e

Ai,sWiAe′i,s

≤Wj − N

X

i=1

pijA¯iWiA¯′i (6.2)

e do Teorema 3.9 e da Proposi¸c˜ao 3.6. de [18], temos que (6.2) implica que rσ( ¯A)<1.

No que segue, definimos para as matrizes K, Z 0, de dimens˜oes apropriadas e U Hn+,

M(Z,U, α) := ¯HZH¯′+

εy

X

ℓ=1 e

HℓDg(U)Heℓ′ +G(α)G(α)′, (6.3)

V(Z,U, α) :=AZ¯ H¯′+

εx X s=1 εy X ℓ=1

ρs,ℓAesDg(U)Heℓ′ +C(α)G(α)′

M(Z,U, α)−1, (6.4)

Φ(K, α) := Dg(D(α))C(α)G(α)′K′KG(α)C(α)′+KG(α)G(α)′K′, (6.5) Ψ(K,U) :=B2(U) +K

εy

X

ℓ=1 e

HℓDg(U)Heℓ′

K′ − εx X s=1 εy X ℓ=1

ρs,ℓ(AesDg(U)Heℓ′K′+KHeℓDg(U)Ae′s) (6.6)

e M(Z,U) := M(Z,U, π),V(Z,U) :=V(Z,U, π), Φ(K) := Φ(K, π).

Sejaκtal que inf

(55)

uma vez que πi(k) k→∞

−→ πi >0. Vamos definirαi(k) = inf

ℓ≥kπi(ℓ+κ). Ent˜ao,

πi(k+κ)≥αi(k)≥αi(k−1)>0, k= 1,2, . . . , i = 1, . . . , N (6.7)

eαi(k)k−→→∞ πi exponencialmente r´apido. Sejamα(k) = (α1(k), . . . , αN(k)), e a

sequˆen-cia Q0(k)∈Hn+ de forma que:

Q0(k+ 1) =T(Q0(k)) +D(α(k)), Q0(0) = 0. (6.8)

Pela Proposi¸c˜ao 4, Q0(k)

k→∞

−→ Q e, para cada k = 0,1,2, . . ., Q(k+κ) Q0(k) ≥

Q0(k−1). Definindo Q0(k) = Dg(Q0(k)), claramente temos Q0(k) ≤Q0(k+ 1)≤ Q.

Precisamos, agora, da seguinte asser¸c˜ao:

(A4) Pε=1y HeℓQ0(0)Heℓ′ +G(α(0))G(α(0))′ >0.

Da mesma forma, se para cadai= 1, . . . , N temosGiG′i >0, ent˜ao claramente (A4)

´e satisfeita. De (6.7), segue que

G(α(0))G(α(0))′ =

N

X

i=1

αi(0)GiG′i ≤ N

X

i=1

αi(k)GiG′i =G(α(k))G(α(k))′

N

X

i=1

πiGiG′i =GG′

e, como Q0(0)≤Q0(k)≤Q, temos de (A4) que

0<

εy

X

ℓ=1 e

HℓQ0(k)Heℓ′+G(α(k))G(α(k))′ ≤ εy

X

ℓ=1 e

HℓQHeℓ′ +GG′. (6.9)

De (6.9), segue que para qualquer Z 0 e k = 0,1, . . ., M(Z,Q0(k), α(k)) > 0 e

(56)

6. Solu¸c˜ao Estacion´aria 45

TEOREMA 4 Suponha que o sistema (4.1) possua EMQ. Considere as equa¸c˜oes

al-g´ebricas de Riccati em Z,

Z = ¯AZA¯′+B(Q) +Dg(D)AZ¯ H¯′+

εx

X

s=1

εy

X

ℓ=1

ρs,ℓAesQHeℓ′+CG′

×HZ¯ H¯′ +

εy

X

ℓ=1 e

HℓQHeℓ′ +GG′

−1

¯ AZH¯′+

εx

X

s=1

εy

X

ℓ=1

ρs,ℓAesQHeℓ′+CG′

, (6.10)

onde Q ´e a solu¸c˜ao ´unica de (6.1) e Q = Dg(Q). Ent˜ao, existe uma ´unica solu¸c˜ao positiva semi-definida P para (6.10). Al´em disso, rσ( ¯A −V(P,Q) ¯H) < 1 e, para

qualquerQ(0) 0, P(0)0, temos queQ(k)eP(k)dados por (4.7) e (5.7) satisfazem Q(k)Q e P(k)P quando k → ∞.

Demonstra¸c˜ao. De acordo com a Proposi¸c˜ao 3, ´e poss´ıvel encontrar matrizes C e G tais que (6.10) possa ser reescrita como

Z = ¯AZA¯′+CCAZ¯ H¯′+CG′HZ¯ H¯′+GG′−1AZ¯ H¯′ +CG′′. (6.11)

Como rσ( ¯A) < 1, temos, do Teorema 3.3.3 de [21], que existe uma ´unica solu¸c˜ao

positiva semi-definida P para (6.11) e, al´em disso, que a matriz

¯

A( ¯APH¯ +CG′)( ¯HPH¯′+GG′)−1H¯ = ¯AV(P,Q) ¯H

´e est´avel, o que mostra a primeira parte do teorema. Vamos, agora, mostrar a conver-gˆenciaP(k)P. DefinaV =V(P,Q),M(k) = V(P(k),Q(k)),V(k) =V(P(k),Q(k)), e a sequˆencia linear recursiva

J(k+ 1) = ( ¯AVH)J¯ (k)( ¯AVH)¯ ′+B(Q(k)) + Φ(V) +V(

εy

X

ℓ=1 e

HℓQ(k)Heℓ′)V′

εx

X

s=1

εy

X

ℓ=1

Referências

Documentos relacionados

Plantio: Março (sementes), outubro e novembro (estacas) Característica botânica: Planta subarbustiva, perene.. Os ramos são

O fato da contagem total de hemócitos no experimento com o agroquímico Talcord não ter sido diferente significativamente entre o controle e os dois tratamentos onde os

Inicialmente, destacamos os principais pontos de convergência: • O papel tático e operacional exercido pela área de TI dos Câmpus é claramente identificável, tanto nos

Antes de caminhar efetivamente ao encontro de métodos e mecanismos que nos levem a solucionar os problemas de ajustamento e inclusão dos jovens oriundos das “tribos” juvenis urbanas

After selecting the participants, we applied a standardized questionnaire which had been previously tested by the research group, and collected data on socioeconomic

Assim sendo, o presente estudo visa tratar do uso virtual da linguagem com base na rede social Facebook e no gênero digital comentário, os quais se caracterizam como

O objetivo principal deste estudo foi avaliar a efetivi- dade da Entrevista Motivacional aplicada em adolescen- tes que cometeram ato infracional, usuários de drogas encaminhados

Também pode ser o caso (tipicamente em enigmas mais difíceis) que a maneira a mais fácil verificar o valor de uma célula individual é contando no inverso — isto é, fazendo