DEPARTAMENTO DE ENGENHARIA DE TELECOMUNICA ¸
C ˜
OES
E CONTROLE
GUILHERME R. A. MOLINA BENITES
FILTRO DE M´
INIMOS QUADRADOS E FILTRO
ROBUSTO PARA SISTEMAS LINEARES COM
SALTOS MARKOVIANOS E RU´
IDOS
MULTIPLICATIVOS
GUILHERME R. A. MOLINA BENITES
FILTRO DE M´
INIMOS QUADRADOS E FILTRO
ROBUSTO PARA SISTEMAS LINEARES COM
SALTOS MARKOVIANOS E RU´
IDOS
MULTIPLICATIVOS
Tese apresentada ao Departamento de Engenharia de Telecomunica¸c˜oes e Controle da Universidade de S˜ao Paulo para obten¸c˜ao do t´ıtulo de Doutor em Engenharia El´etrica.
´
Area de Concentra¸c˜ao: Engenharia de Siste-mas
Orientador: Prof. Dr. Oswaldo Luiz do Valle Costa
FOLHA DE APROVA ¸
C ˜
AO
Filtro de M´ınimos Quadrados e Filtro Robusto para Sistemas
Lineares com Saltos Markovianos e Ru´ıdos Multiplicativos
GUILHERME R. A. MOLINA BENITES
Tese apresentada ao Departamento de Engenharia de Telecomunica¸c˜oes e Controle da Universidade de S˜ao Paulo para obten¸c˜ao do t´ıtulo de Doutor em Engenharia El´e-trica.
´
Area de Concentra¸c˜ao: Engenharia de Sistemas
Banca Examinadora constitu´ıda por:
Dr. Oswaldo Luiz do Valle Costa – Orientador Escola Polit´ecnica - Universidade de S˜ao Paulo
Dr. Ricardo Paulino Marques
Escola Polit´ecnica - Universidade de S˜ao Paulo
Dr. Roberto Moura Sales
Escola Polit´ecnica - Universidade de S˜ao Paulo
Dr. Marco Henrique Terra
Escola de Engenharia de S˜ao Carlos - Universidade de S˜ao Paulo
Dr. Wanderlei Lima de Paulo
Faculdade de Economia e Administra¸c˜ao - Universidade de S˜ao Paulo
Dedicat´
oria
Primeiramente, dedico esse trabalho a meus pais, Ilka e Luis, pelo que representam hoje para mim, mas principalmente pela dedica¸c˜ao ao longo desses mais de 30 anos, fundamental para tudo o que pude fazer at´e hoje.
Em segundo lugar, a meus amigos, que fazem de minha caminhada algo muito mais simples e agrad´avel. Em especial, `as minhas mais novas amigas, Isabela e Ana Catarina, a quem prometo me esfor¸car ao m´aximo para que encontrem um mundo melhor.
`
A Paula, minha companheira de sempre, que abriu m˜ao de tempo e aten¸c˜ao para que eu pudesse dedicar-me a esse projeto. Espero poder ser, para ela, tudo o que ela sempre foi para mim.
`
A Lilian, minha “m˜ae matem´atica”, que influenciou mais na minha vida e nas minhas escolhas do que ela mesmo pode imaginar.
Por fim, e mais importante, `aquele que tornou tudo isso poss´ıvel, que me concedeu as oportunidades de que precisei, e que sempre orientou meus passos.
“J´a n˜ao sonho; hoje fa¸co, com meu bra¸co o meu viver”.
Milton Nascimento, em Travessia
Meu primeiro e principal agradecimento vai para o meu orientador, Prof. Dr. Oswaldo Luiz do Valle Costa, por toda a paciˆencia nos ´ultimos 4 anos. Agrade¸co tudo o que me ensinou, n˜ao s´o em termos te´oricos, mas em termos de postura e de profissionalismo.
Agrade¸co `a Escola Polit´ecnica da USP (EP - USP) e a seus professores que, de uma forma ou de outra, participaram dessa caminhada e apoiaram a realiza¸c˜ao desse trabalho.
Agrade¸co aos colegas de classe, desde o IME at´e aqui, que estiveram sempre prontos a discutir, a ajudar e a apoiar. Todos eles fazem parte desse projeto.
Resumo
Esse trabalho contempla o estudo sobre o estimador de m´ınimos quadrados obtido para sistemas lineares discretos sujeitos a ru´ıdos aditivos e a ru´ıdos multiplicativos em seus parˆametros. Sup˜oe-se, adicionalmente, que os parˆametros do sistema est˜ao sujeitos a saltos Markovianos, e que a cadeia de Markov n˜ao ´e conhecida. A solu¸c˜ao do problema, sob essas hip´oteses, ´e uma inova¸c˜ao apresentada nesse trabalho. Sob as mesmas hip´oteses, o caso estacion´ario tamb´em foi contemplado, e o trabalho apresenta uma demonstra¸c˜ao para a convergˆencia da matriz de covariˆancia dos erros do estimador a um valor estacion´ario, supondo-se estabilidade do sistema e ergodicidade da cadeia de Markov associada. Mostra-se, tamb´em, que existe uma ´unica solu¸c˜ao positiva semi-definida para a equa¸c˜ao de Riccati estacion´aria e, ainda mais, que tal solu¸c˜ao ´e o limite da matriz de covariˆancia dos erros. A partir da introdu¸c˜ao de uma hip´otese adicional - de que os parˆametros do sistema est˜ao sujeitos a incertezas na forma de politopos convexos - constr´oi-se um filtro linear dinˆamico em que as itera¸c˜oes possuem estabilidade na m´edia quadr´atica e que minimiza o limitante superior para o valor esperado do erro quadr´atico. Uma formula¸c˜ao do tipo LMI (Linear Matrix Inequalities) ´e proposta para a solu¸c˜ao do problema.
This thesis deals with the linear filtering problem for discrete-time Markov jump linear systems with both additive and multiplicative noises. It is assumed that the values of the Markov chain are not available. This is the first time that a solution to the problem with these parameters is presented. By using some usual geometric arguments it is obtained a Kalman type filter conveniently implementable in a recurrence form. The stationary case is also studied and a proof for the convergence of the associated Lyapunov and Riccati like equations is presented. By adding an additional hypotesis - that the parameters of the systems are subject to convex polytopic uncertainties - it was designed a dynamic linear filter such that the closed loop system is mean square stable and minimizes an upper bound for the stationary expected value of the square error. A Linear Matrix Inequalities (LMI) formulation is proposed to solve the problem.
Sum´
ario
1 Introdu¸c˜ao 1
2 Revis˜ao Bibliogr´afica 5
3 Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 12
3.1 Nota¸c˜oes e Defini¸c˜oes Iniciais . . . 12
3.2 Teoria de Filtragem . . . 14
3.2.1 A id´eia de filtragem . . . 14
3.2.2 A geometria da estima¸c˜ao linear . . . 15
3.2.3 O Filtro de Kalman . . . 18
3.2.4 Solu¸c˜ao Estacion´aria . . . 20
4 Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 23 4.1 Formula¸c˜ao do Problema . . . 24
4.2 Resultados Auxiliares . . . 28
5 Obten¸c˜ao do ELMQ 32 6 Solu¸c˜ao Estacion´aria 41 7 Modelo Robusto 50 7.1 Problema Considerado . . . 50
7.2 Formula¸c˜ao LMI para o Problema Robusto . . . 66
8.2 Exemplo 2: Aplica¸c˜ao ao Mercado Financeiro . . . 79
8.2.1 Processo de Wiener e o Movimento Browniano . . . 79
8.2.2 Modelo de Filtro baseado em Movimento Browniano . . . 80
8.2.3 Introdu¸c˜ao de Saltos Markovianos . . . 81
8.2.4 Introdu¸c˜ao de Ru´ıdos Multiplicativos . . . 83
8.2.5 Modelo com Ru´ıdos Aditivos e Multiplicativos e Saltos Markovianos 84 8.2.6 Compara¸c˜ao entre modelos . . . 85
8.3 Exemplo 3: Modelo Robusto . . . 95
9 Conclus˜oes 99
Referˆencias Bibliogr´aficas 101
Lista de Figuras
8.1 Compara¸c˜ao entre o filtro de Kalman padr˜ao (linha s´olida) e o ELMQ (linha
estrelada) . . . 78
8.2 Pre¸co Futuro do N´ıquel . . . 86
8.3 Estimativa, pelo Filtro de Kalman, do pre¸co `a vista do N´ıquel . . . 88
8.4 Estimativa, pelo ELMQ, do pre¸co `a vista do N´ıquel . . . 90
8.5 Pre¸co mensalspot do N´ıquel . . . 91
8.6 Comparativo entre pre¸cos mensais `a vista do N´ıquel . . . 92
8.7 Diferen¸cas entre valores previstos e valores observados . . . 92
8.8 Comparativo entre os dois modelos, com perturba¸c˜ao na volatilidade . . . 94
8.9 Evolu¸c˜ao temporal das entradas da matriz de ganho do filtro . . . 95
8.10 Compara¸c˜ao entre ELMQ e Filtros LMI. . . 98
8.1 Conjunto de parˆametros considerados nas simula¸c˜oes . . . 77
8.2 Parˆametros para simula¸c˜ao do modelo com ru´ıdos e saltos . . . 89
8.3 Conjunto de parˆametros usados nas simula¸c˜oes. . . 96
8.4 Conjunto de parˆametros utilizados nos LMIs. . . 97
Cap´ıtulo 1
Introdu¸
c˜
ao
A pesquisa relacionada `a moderna teoria de filtragem vem ganhando destaque em diversos campos do conhecimento, fato que a torna cada vez mais relevante. Como al-guns exemplos, podemos citar aplica¸c˜oes diversas em engenharia, em telecomunica¸c˜oes e em teoria de finan¸cas. A simples observa¸c˜ao das ´areas em que a teoria de filtra-gem encontra aplica¸c˜oes j´a d´a a dimens˜ao da importˆancia do assunto para a pesquisa realizada atualmente.
Desde a sistematiza¸c˜ao da modelagem por R. Kalman, no in´ıcio dos anos 60, os problemas se tornaram cada vez mais complexos, a partir da adi¸c˜ao de hip´oteses cada vez menos restritivas ao comportamento das vari´aveis em quest˜ao. Atualmente, a literatura existente sobre o tema ´e imensa, como se poder´a observar no Cap´ıtulo 2, que tratar´a da revis˜ao bibliogr´afica.
A realiza¸c˜ao desse trabalho se baseou na literatura existente at´e o momento, e na adi¸c˜ao de algumas hip´oteses sobre o comportamento das vari´aveis envolvidas, a saber: a introdu¸c˜ao dos ru´ıdos multiplicativos e aditivos ao sistema, al´em da influˆencia de saltos Markovianos em seus parˆametros, pressupondo-se o desconhecimento da cadeia de Markov relacionada.
Destaca-se que o autor n˜ao tem conhecimento sobre trabalhos anteriores que tenham considerado, de maneira simultˆanea, efeitos t˜ao diversos no comportamento das vari´a-veis como os que aqui s˜ao considerados. O Cap´ıtulo 2 apresenta diversos trabalhos em que esses efeitos s˜ao considerados de maneira isolada, mas n˜ao aponta nenhum trabalho em que esses efeitos s˜ao abordados conjuntamente, e sem o conhecimento do parˆametro da cadeia de Markov.
Al´em disso, cabe destacar que a abordagem do problema robusto tamb´em foi con-siderada. Nesse caso, adotamos a hip´otese de que os parˆametros do modelo est˜ao sujeitos a incertezas na forma de politopos convexos, e propusemos uma abordagem do tipo LMI (Linear Matrix Inequalities) para a solu¸c˜ao do problema.
Entendemos que a considera¸c˜ao de todas as hip´oteses j´a enumeradas e tamb´em a abordagem da forma robusta do problema representam um avan¸co importante nos estudos sobre filtragem de sistemas lineares, sobretudo pela amplitude dos temas que foram abordados.
Para ilustrar as aplica¸c˜oes desse trabalho, escolhemos alguns casos que podem vir a ter interesse pr´atico:
1. Uma compara¸c˜ao entre o modelo obtido e o modelo tradicional de filtragem, a partir da aplica¸c˜ao de ambos a um problema escalar simples, de cunho unicamente te´orico;
2. Uma compara¸c˜ao entre o poder preditivo de um filtro de Kalman tradicional e a modelagem a partir da teoria aqui apresentada. Essa compara¸c˜ao foi feita a partir dos pre¸cos de N´ıquel, commodity largamente negociada que apresenta alta volatilidade e esteve sujeita, recentemente, a mudan¸cas no perfil de seus pre¸cos; 3. Finalmente, uma compara¸c˜ao entre o filtro obtido e a modelagem obtida a partir
1. Introdu¸c˜ao 3
O texto est´a organizado da seguinte forma: o Cap´ıtulo 2 apresenta uma revis˜ao bibliogr´afica sobre o tema, considerando os artigos que precederam o trabalho atual, e muitos que serviram de base para o que apresentamos aqui. A apresenta¸c˜ao busca tornar clara a contribui¸c˜ao de cada artigo, mas tamb´em ressaltar as diferen¸cas da modelagem proposta por cada um deles em rela¸c˜ao ao modelo mais geral aqui proposto.
As nota¸c˜oes utilizadas ao longo do texto, algumas hip´oteses e defini¸c˜oes, bem como a base da teoria de filtragem e seus principais resultados s˜ao apresentados no Cap´ıtulo 3. O intuito desse cap´ıtulo, al´em de apresentar a teoria b´asica sobre o tema, ´e uniformizar o entendimento sobre o que ser´a apresentado adiante. Esse cap´ıtulo n˜ao apresenta nenhum resultado novo sobre a teoria - apenas detalha alguns pontos importantes j´a amplamente conhecidos.
A apresenta¸c˜ao do sistema linear sujeito a ru´ıdos aditivos, a ru´ıdos multiplicativos e a saltos Markovianos, al´em do estabelecimento das principais hip´oteses, s˜ao temas do Cap´ıtulo 4. Esse cap´ıtulo tamb´em apresenta alguns resultados auxiliares que ser˜ao utilizados nos cap´ıtulos seguintes.
O filtro obtido para a solu¸c˜ao desse problema ´e apresentado no Cap´ıtulo 5, em conjunto com as demonstra¸c˜oes sobre as propriedades desejadas de tal filtro.
O Cap´ıtulo 6 apresenta a solu¸c˜ao estacion´aria para o problema proposto, e tamb´em a deriva¸c˜ao do filtro e da convergˆencia da equa¸c˜ao de Riccati associada a ele. Em conjunto com o Cap´ıtulo 5, esse cap´ıtulo contempla os principais resultados da abordagem que utiliza a constru¸c˜ao de um filtro linear de m´ınimos quadrados para o estudo dos sistema considerado no Cap´ıtulo 4.
Cap´ıtulo 2
Revis˜
ao Bibliogr´
afica
Como se pode ler em [21], a id´eia de representar processos estoc´asticos a partir de inova¸c˜oes ou de componentes ortogonais remonta a Wold, em seu livro [52], de 1938. Os maiores desenvolvimentos dessa teoria ocorreram com os artigos de Wiener e Masani (veja [50] e [51]), publicados no final da d´ecada de 1950.
Os problemas de previs˜ao foram estudados, simultaneamente, por Wiener (veja [49]) e Kolmogorov (veja [42]), e ambos consideraram apenas processos estacion´arios. A abordagem que utilizamos nesse trabalho, que considera a evolu¸c˜ao desses sistemas no tempo, foi iniciada por Kalman e Bucy, nos trabalhos [39] e [40].
Recentemente, os sistemas lineares sujeitos `a incidˆencia de ru´ıdos multiplicativos vˆem recebendo grande aten¸c˜ao, sobretudo em fun¸c˜ao do fato de que essa formula¸c˜ao encontra muitas aplica¸c˜oes em engenharia e em finan¸cas - dois campos largamente explorados nos ´ultimos anos.
Alguns exemplos de tais sistemas podem ser encontrados em fiss˜ao nuclear e trans-ferˆencia de calor, esta¸c˜oes de energia nuclear, aeron´autica, plantas qu´ımicas, sistemas de rede sem fio, modelagem de popula¸c˜oes e imunologia e otimiza¸c˜ao de portf´olios, por exemplo. Para ilustrar essas aplica¸c˜oes, sugerimos a leitura de [4], [5], [10],[23], [24],
[29], [16], [20], [31], [25], [26], [27], [33] e das referˆencias citadas por esses trabalhos so-bre problemas de controle H2 e H∞, filtragem ´otima, estabilidade robusta e condi¸c˜oes
de estabiliza¸c˜ao etc.
Pode-se afirmar, da mesma forma, que o problema de filtragem dessa classe de sis-temas vem despertando grande interesse, sob diferentes hip´oteses e crit´erios de perfo-mance. A seguir, discutimos alguns trabalhos que abordam o problema sob diferentes pontos de vista, expondo sua abordagem e suas principais inova¸c˜oes em rela¸c˜ao aos trabalhos anteriores.
Os problemas originalmente estudados contemplavam apenas a existˆencia de ru´ıdos aditivos nos sistemas lineares considerados. Al´em disso, as matrizes que afetam a seq¨uˆencia de estado eram, na maior parte das vezes, apenas variantes no tempo. Dessa forma, a utiliza¸c˜ao de hip´oteses adicionais requer, sempre, altera¸c˜oes significativas nos filtros obtidos.
Os trabalhos descritos a seguir consideram a inclus˜ao de ru´ıdos multiplicativos no sistema linear original. Embora generalizem os sistemas mais tradicionais, em nenhum momento esses trabalhos consideram a existˆencia de saltos markovianos nos parˆametros do sistema.
A introdu¸c˜ao de ru´ıdos multiplicativos ´e a principal inova¸c˜ao do artigo [9]. Esse trabalho, entretanto, considera que a influˆencia desses ru´ıdos afeta somente a vari´avel observada. Para a obten¸c˜ao do filtro para esse problema, uma estrutura recursiva ´e obtida a partir da combina¸c˜ao da estimativa anterior com uma inova¸c˜ao recursiva, o que leva a um modelo que considera a combina¸c˜ao linear dos dados mais recentes com as estimativas obtidas anteriormente.
mo-2. Revis˜ao Bibliogr´afica 7
delagem a partir de argumentos geom´etricos, o que o aproxima bastante da modelagem que utilizamos em nosso trabalho.
No artigo [7], mais uma vez considera-se a existˆencia de ru´ıdos multiplicativos. Aqui, no entanto, tais ru´ıdos afetam somente a vari´avel de estado. Al´em disso, a teoria desenvolvida se aplica a sistemas lineares com ru´ıdos n˜ao-estacion´arios e n˜ao-gaussianos - o que a diferencia da modelagem que estudamos. Os autores foram capazes de definir um filtro para tais sistemas que ´e ´otimo em uma determinada classe de transforma¸c˜oes polinomiais.
Por sua vez, no artigo [54], os autores consideram um sistema discreto, variante no tempo, com ru´ıdos tanto aditivos quanto multiplicativos. A abordagem aqui consiste em obter um filtro linear robusto que garanta a existˆencia de um majorante ´otimo para a variˆancia do erro da estimativa da vari´avel de estado, para todas as poss´ıveis incertezas admitidas. As condi¸c˜oes suficientes para que a obten¸c˜ao de tal filtro seja poss´ıvel s˜ao derivadas em termos de duas equa¸c˜oes a diferen¸cas de Riccati. Cabe observar que a modelagem proposta por esse artigo se aproxima, em certa medida, da modelagem que aqui propomos. Entretanto, a existˆencia de saltos Markovianos n˜ao ´e contemplada.
Os problemas de filtragem e de controle para sistemas sujeitos a ru´ıdos multiplica-tivos sob o crit´erio H∞ foram estudados no artigo [34].
Uma outra possibilidade de generaliza¸c˜ao para os sistemas lineares tradicionais ´e a introdu¸c˜ao de saltos Markovianos em seus parˆametros. A seguir, detalhamos alguns dos trabalhos que abordaram esse tipo de generaliza¸c˜ao.
No caso n˜ao-gaussiano, podemos citar os artigos [56] e [30] - que, de certa forma, uti-liza a id´eia exposta em [7] para desenvolver uma abordagem polinomial sub-´otima com o objetivo de encontrar o melhor estimador para sistemas sujeitos a saltos Markovianos e afetados por ru´ıdos aditivos n˜ao necessariamente gaussianos.
Como a obten¸c˜ao de estimadores ´otimos requer mem´oria e poder de computa¸c˜ao exponencialmente crescentes com o tempo, ´e necess´ario que se utilizem algoritmos sub-´otimos. Nos artigos citados no par´agrafo anterior, os autores utilizaram estimadores sub-´otimos n˜ao-lineares, o que requer atualiza¸c˜oes on-line.
No artigo [15], obteve-se um estimador linear de m´ınimos quadrados para sistemas lineares com saltos Markovianos baseado na estimativa de x(k)1{θ(k)=i}, em vez de
estimar diretamente a vari´avel de estado x(k). Aqui, a fun¸c˜ao 1{·} indica a medida
de Dirac. A principal vantagem dessa formula¸c˜ao ´e que ela permite a obten¸c˜ao de um filtro linear, variante no tempo, f´acil de implementar e no qual todos os c´alculos (isto ´e, os ganhos do filtro) podem ser realizados de maneira off-line. Al´em disso, tal modelagem permite que a seq¨uˆencia de controle eventualmente presente no sistema linear seja tratada de maneira conjunta com a vari´avel de estado.
No artigo [44], estuda-se um filtro robusto para sistemas lineares em que os parˆame-tros est˜ao sujeitos a saltos Markovianos. Novamente, esse trabalho considera apenas a existˆencia de ru´ıdos aditivos. Al´em disso, sup˜oe-se que o parˆametro de Markov est´a dispon´ıvel para o filtro.
Os filtros lineares estacion´ario e robusto baseados na equa¸c˜ao alg´ebrica de Riccati aumentada foram apresentados nos artigos [13] e [14], levando a um filtro linear invari-ante a tempo discreto. Um problema bastinvari-ante similar foi abordado em [29]. Entretanto, esse artigo usa uma abordagem baseada em desigualdades de matrizes lineares (LMI).
2. Revis˜ao Bibliogr´afica 9
´e explorar a literatura que considera ambas as generaliza¸c˜oes - saltos Markovianos e ru´ıdos multiplicativos - ao mesmo tempo.
Um filtro do tipo de Kalman para sistemas lineares sujeitos a ru´ıdos multiplicativos tanto na vari´avel de estado como na vari´avel observada, e tamb´em a saltos Markovia-nos, foi apresentado em [47]. Nesse caso, assume-se que o parˆametro de Markov est´a dispon´ıvel para o filtro, e tamb´em que a dinˆamica do vetor de estado e os ru´ıdos na vari´avel observada s˜ao independentes entre si. A partir dessas hip´oteses, foi poss´ıvel obter um filtro na forma estacion´aria, baseado na solu¸c˜ao de equa¸c˜oes alg´ebricas de Riccati associadas.
Ao longo desse texto, apresentaremos a obten¸c˜ao de um estimador linear de m´ınimos quadrados para sistemas a tempo discreto, sujeitos a ru´ıdos multiplicativos tanto na vari´avel de estado quanto na vari´avel observada, e tamb´em a saltos Markovianos em seus parˆametros. Assumiremos que o parˆametro da cadeia de Markov ´e desconhecido.
At´e onde se sabe, essa ´e a primeira vez que o problema de filtragem linear sob essas condi¸c˜oes ´e considerado na literatura. De fato, como pudemos ver a partir dos exemplos aqui citados, alguns trabalhos anteriores consideraram o problema de filtragem (sob diferentes crit´erios e hip´oteses) para sistemas sujeitos somente a saltos Markovianos ou somente a ru´ıdos multiplicativos.
Ainda que o artigo [47] tenha considerado o mesmo problema com hip´oteses bas-tante semelhantes, h´a que se observar que, nesse caso, assumiu-se que o parˆametro de Markov era conhecido, e tamb´em que os ru´ıdos na equa¸c˜ao de estado e na medida eram independentes entre si.
vari´aveis, mas ainda mais restritivas do que aquelas consideradas nesse trabalho.
Atrav´es da utiliza¸c˜ao de argumentos geom´etricos, e estimando, assim como no artigo [15], x(k)1{θ(k)=i} em vez de estimar x(k) diretamente, esse trabalho apresenta como
obter um filtro convenientemente implement´avel em forma recursiva a partir de duas equa¸c˜oes matriciais - uma do tipo de Lyapunov, e outra do tipo de Riccati.
A convergˆencia dessas itera¸c˜oes `as equa¸c˜oes de Lyapunov e de Riccati associadas tamb´em ´e estudada, o que permite a generaliza¸c˜ao dos resultados obtidos em [15] e em [14], que consideravam somente sistemas com saltos Markovianos. No caso de sistemas em que n˜ao h´a nem saltos Markovianos nem ru´ıdos multiplicativos, os resultados aqui apresentados recaem naqueles obtidos pelo filtro de Kalman para sistemas lineares (veja a Observa¸c˜ao 2).
Alguns dos resultados do problema de filtragem para o modelo mais geral obtidos nessa tese, e que ser˜ao descritos em detalhes ao longo dos pr´oximos cap´ıtulos, foram publicados em [10].
Filtros lineares robustos e estacion´arios foram considerados em [13] e em [14]. Nesses casos, a solu¸c˜ao do problema levou a filtros lineares a tempo discreto invariantes no tempo. ´E importante mencionar que esses artigos serviram de base para a modelagem apresentada no Cap´ıtulo 7 desse trabalho.
Uma abordagem do tipo LMI foi considerada em [29], para o caso em que h´a incer-tezas nas matrizes do sistema. Em [37], a abordagem do tipo LMI foi utilizada no caso em que as incertezas est˜ao na matriz de transi¸c˜ao de probabilidades.
O problema de filtragem H∞ com o filtro independente do modo de opera¸c˜ao, isto
2. Revis˜ao Bibliogr´afica 11
Nota¸
c˜
oes, Defini¸
c˜
oes e Teoria de
Filtragem
Esse cap´ıtulo apresenta nota¸c˜oes e defini¸c˜oes que ser˜ao utilizadas ao longo de todo o trabalho. Com o intuito de introduzir e uniformizar a teoria utilizada para o desen-volvimento dos resultados aqui apresentados, a Se¸c˜ao 3.2 detalhar´a os princ´ıpios da Teoria de Filtragem.
3.1
Nota¸
c˜
oes e Defini¸
c˜
oes Iniciais
Ao longo desse trabalho, o espa¸co euclidiano real n-dimensional ser´a denotado por
Rn. SeXeYs˜ao espa¸cos de Banach,B(X,Y) denotar´a o espa¸co de Banach de todos os operadores lineares limitados de Xem Y, com a norma induzida representada por k.k. Por simplicidade, usaremos B(X) := B(X,X). Se T ∈ B(X), denotamos por rσ(T) o
raio espectral de T.
O s´ımbolo ′ denotar´a a transposta de uma matriz ou vetor, e para uma matriz
3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 13
semi-definida (positiva definida).
Definimos, tamb´em:
Hn,m =Q= (Q1, . . . , QN); Qi ∈B(Rn,Rm), i= 1, . . . , N ,
Hn =Hn,n e
Hn+ =Q= (Q1, . . . , QN)∈Hn; Qi ≥0, i= 1, . . . , N .
Para Q = (Q1, . . . , QN) ∈ Hn+, V = (V1, . . . , VN) ∈ Hn+ dizemos que Q ≥ V se,
para cada i= 1, . . . , N, temos que Qi ≥Vi.
ParaD = (D1, . . . , DN)∈Hn,m, definimos diag(Dj)∈B(RN n,RN m) como a matriz
diagonal formada porDj na diagonal, e zero nas outras posi¸c˜oes, e definimos o operador
Dg :Hn,m →B(RN n,RN m) por Dg(D) = diag(Dj).
Definimos, tamb´em, dgℓ[Dj] ∈ Rℓm×ℓn, que representa a matriz diagonal formada
por ℓ c´opias da (mesma) matriz Dj na diagonal e zero em todas as demais posi¸c˜oes.
Para um inteiro positivoM, definimos o conjunto:
M:={ξ= (ξ1, . . . , ξM); 0 ≤ξj ≤1, j = 1, . . . , M,
M
X
j=1
ξj = 1}. (3.1)
Para um conjunto de M matrizes Aj de mesma dimens˜ao, eξ ∈ M, definimos: Aξ:=
M
X
j=1
ξjAj. (3.2)
3.2
Teoria de Filtragem
Essa se¸c˜ao ser´a dedicada a apresentar a teoria b´asica sobre o problema de filtragem tradicional. Os principais objetivos, aqui, s˜ao:
1. Fornecer a base te´orica para os desenvolvimentos que ser˜ao realizados ao longo do trabalho;
2. Permitir a identifica¸c˜ao das limita¸c˜oes do modelo tradicional, bem como das inova¸c˜oes propostas pelo modelo aqui apresentado;
3. Apresentar as utiliza¸c˜oes de tal modelagem, permitindo que tracemos um paralelo entre as aplica¸c˜oes tradicionais da teoria de filtragem e as aplica¸c˜oes do modelo proposto que possam vir a ser realizadas.
A principal referˆencia utilizada para a elabora¸c˜ao dessa se¸c˜ao ´e o livro [21]. Entre-tanto, a literatura que aborda esse teoria ´e bastante vasta, e muitos outros trabalhos servem de referˆencia para esse mesmo assunto.
3.2.1
A id´
eia de filtragem
O processo conhecido como filtragem tem origem no estudo de modelos estoc´aticos, em que vari´aveis n˜ao observ´aveis diretamente contribuem de maneira relevante com o output do modelo. Um exemplo geral de tais modelos pode ser (veja [21], se¸c˜ao 2.4):
x(k+ 1) =Ax(k) +Bu(k) +Cw(k),
y(k) =Hx(k) +Gw(k). (3.3)
out-3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 15
puts do modelo. Dessa forma, ´e f´acil ver que os outputs s˜ao diretamente afetados pelas vari´aveis {x(k)}. Por´em, tais vari´aveis n˜ao s˜ao observ´aveis.
´
E natural, portanto, procurar pelos melhores estimadores dessas vari´aveis, dado o que se conhece at´e o momento - no caso, o conjunto{y(1), y(2),· · · , y(k)}. O problema definido pela busca de tais estimativas ´e denominado filtragem.
Assim como colocado por [21], existem pelo menos trˆes situa¸c˜oes em que esse pro-blema ganha extrema relevˆancia:
1. O caso em que a filtragem ´e um fim em si mesmo, como por exemplo nas situa¸c˜oes em que a vari´avel de estado x(k) representa uma medida importante em um sistema que precisamos conhecer da melhor forma poss´ıvel, mesmo que ela n˜ao seja mensur´avel diretamente;
2. No caso de sistemas em que a vari´avel de controle u(k) assume a forma u(k) = u(k, x(k)). Sob certas hip´oteses, a vari´avel x(k) pode ser substitu´ıda por sua
melhor estimativa ˆx(k), gerada a partir de filtragem;
3. No caso em que se deseja substituir o modelo estado-espa¸co por um modelo externo equivalente.
3.2.2
A geometria da estima¸
c˜
ao linear
Nessa se¸c˜ao, descreveremos a interpreta¸c˜ao geom´etrica da estima¸c˜ao linear de uma vari´avel aleat´oria. Para tanto, vamos definir, para qualquer seq¨uˆencia de vetores alea-t´orios de segunda ordem {r(k)}, o vetor aleat´orio “centrado”rc(k) por:
O melhor estimador afim de r(k), dados {y(0), . . . , y(t)}, ser´a chamado de r(kb |t). Definimos, tamb´em:
e
r(k|t) =r(k)−br(k|t).
Da mesma forma,brc(k|t) ´e o melhor estimador linear derc(k) dados{yc(0), . . . , yc(t)}
e erc(k|t) =rc(k)−brc(k|t). ´E conhecido (ver [21], p´ag. 109) que
b
r(k|t) =brc(k|t) +E(r(k)) (3.4) e, em particular, erc(k|t) = er(k|t). Vamos denotar por L(yk) o subespa¸co gerado por:
(y)k=
y(0) ... y(k) ,
(veja [21]), isto ´e, uma vari´avel aleat´oria r ∈ L(yk) ser = Pk
i=0α(i)′y(i), para α(i) ∈
Rm, i= 0, . . . , k.
Se os vetores aleat´orios r e s assumem valores em Rn, o produto interno < .;. > ´e definido por:
< r;s >=E(s′r)
e, ent˜ao, dizemos que r e s s˜ao ortogonais se < r;s >= E(s′r) = 0. Para t ≤ k, o
melhor estimador linear
b
rc(k|t) =
b rc
1(k|t)
...
b
rc n(k|t)
do vetor
rc(k) =
3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 17
´e a proje¸c˜ao derc(k) sobre o subespa¸coL((yc)t), que satisfaz as seguintes propriedades
(veja [21], p´ags. 108 a 111):
1. rbjc(k|t)∈L((yc)t), j = 1, . . . , n;
2. rej(k|t) ´e ortogonal a L((yc)t), j = 1, . . . , n;
3. se cov((y)t) ´e n˜ao-singular, ent˜ao
b
rc(k|t) =E(rc(k)(yc)t′) cov((y)t)−1(yc)t, (3.5)
b
rc(k|k) =brc(k|k−1) +E(brc(k)y(ke |k−1)′)×E(y(ke |k−1)y(ke |k−1)′)−1
×(yc(k)−ybc(k|k−1)). (3.6)
O seguinte resultado ser´a ´util na demonstra¸c˜ao do Teorema 3.
PROPOSI ¸C ˜AO 1 Suponha que cov(yt−1)>0. Ent˜ao:
cov(yt)>0⇔cov(ey(t|t−1)) >0.
Demonstra¸c˜ao. Para alguma matriz A, temos que ybc(t|t−1) = A(yc)t−1 e yc(t) =
e
y(t|t−1) +A(yc)t−1. Ent˜ao, pela ortogonalidade entre (yc)t−1 e ey(t|t−1), temos que,
para quaisquer vetores a e b de dimens˜ao apropriada,
a′ b′
cov(yt)
a
b
3.2.3
O Filtro de Kalman
Essa se¸c˜ao ser´a dedicada `a apresenta¸c˜ao do Filtro de Kalman, que ´e base para a teoria aqui desenvolvida, e de alguns resultados relevantes dentro desse contexto.
O Filtro de Kalman ´e um algoritmo recursivo utilizado para a estima¸c˜ao da vari´avel de estado x(k) de um sistema linear, dadas as observa¸c˜oes {y(0), . . . , y(k −1)}. As equa¸c˜oes que descrevem o sistema s˜ao:
x(k+ 1) =A(k)x(k) +B(k)u(k) +C(k)w(k),
y(k) =H(k)x(k) +G(k)w(k). (3.7)
Observe que o sistema 3.7 difere do sistema 3.3 somente em fun¸c˜ao de seus parˆame-tros serem variantes no tempo. Vamos assumir que:
a) o ru´ıdo aditivo {w(k)} ´e dado por uma seq¨uˆencia de vetores aleat´orios de m´edia nula, independentes, e com matriz de covariˆancia igual `a matriz identidade; b) {w(k)}´e independente de x0;
c) a condi¸c˜ao inicialx0 ´e um vetor aleat´orio n-dimensional com E(x0) =µ0 e Q0 =
E(x0x′0).
Nesse sistema linear, os coeficientes matriciais podem ser variantes no tempo, como indica a dependˆencia de k. Assumiremos, tamb´em, que:
G(k)G(k)′ >0. (3.8)
3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 19
lineares de observa¸c˜oes possuem ru´ıdos.
De fato, suponhamos que 3.8 n˜ao seja verdadeira. Ent˜ao, existeλtal queλ′G(k) = 0.
Logo, a partir da segunda equa¸c˜ao de 3.7, temos que
λ′y(k) = λ′H(k)x(k)
e, portanto, algumas combina¸c˜oes lineares das componentes dex(k) podem ser medidas exatamente.
O teorema seguinte descreve o estimador linear para o sistema acima:
TEOREMA 1 Considere o sistema representado por (3.7). Ent˜ao, para k = 0,1, . . ., o estimador x(kb |k−1) satisfaz:
b
x(k+ 1|k) = A(k)x(kb |k−1) +B(k)u(k) +K(k)[y(k)−H(k)bx(k|k−1)],
b
x(0| −1) =µ(0). (3.9)
A matriz “ganho do filtro”K(k)´e dada por:
K(k) = [A(k)P(k)H(k)′+C(k)G(k)′][H(k)P(k)H(k)′+G(k)G(k)′]−1 (3.10)
A matriz P(k) = E[(x(k)−x(ke |k−1))(x(k)−z(ke |k−1)′]≥0´e a matriz de covariˆancia
dos erros e satisfaz a equa¸c˜ao recursiva de Riccati:
P(k+ 1) =A(k)P(k)A(k)′ +C(k)C(k)′−[A(k)P(k)H(k)′+C(k)G(k)′]
×[H(k)P(k)H(k)′+G(k)G(k)′]−1[A(k)P(k)H(k)′ +C(k)G(k)′]′
P(0) =Q0. (3.11)
3.2.4
Solu¸
c˜
ao Estacion´
aria
A partir de agora, vamos considerar o caso em que o sistema 3.7 ´e invariante no tempo, isto ´e, os coeficientes matriciais do sistema n˜ao apresentam dependˆencia temporal de k. Nesse caso, o sistema 3.7 assume a forma:
x(k+ 1) =Ax(k) +Bu(k) +Cw(k),
y(k) =Hx(k) +Gw(k). (3.12)
Se, al´em disso, considerarmos que u(k) = 0, para todo k, podemos enunciar a seguinte:
PROPOSI ¸C ˜AO 2 Em 3.12, P(k) satisfaz:
P(k+ 1) =AP(k)A′+CC′,
P(0) =Q0. (3.13)
Se A ´e est´avel, ent˜aoP(k)→P quando k → ∞, onde P ´e a ´unica solu¸c˜ao da equa¸c˜ao de Lyapunov
P =AP A′+CC′ (3.14)
Al´em disso, se P =Q0, ent˜ao P(k) = P,∀k ≥0.
3. Nota¸c˜oes, Defini¸c˜oes e Teoria de Filtragem 21
Voltando ao caso do sistema 3.12, o Teorema 1 nos sugere considerar a equa¸c˜ao alg´ebrica de Riccati:
P =AP A′+CC′−[AP H′ +CG′][HP H′ +GG′]−1[AP H′+CG′]′ (3.15)
Essa equa¸c˜ao representa, de certa forma, umtrade-off entre dois efeitos opostos: por um lado, o observador possui mais informa¸c˜oes sobre x(k), uma vez que mais dados v˜ao sendo acumulados. Por outro, a posi¸c˜ao de x(k) pode tornar-se menos certa, uma vez que a vari´avel est´a se movendo a partir de seu ponto inicial.
A quest˜ao que se segue, inspirada pela Proposi¸c˜ao 2, ´e: quando a equa¸c˜ao alg´ebrica de Riccati possui uma solu¸c˜ao? Al´em disso, essa solu¸c˜ao ´e ´unica entre as solu¸c˜oes positivas semi-definidas? A resposta a essas quest˜oes est´a relacionada a dois conceitos que ser˜ao enunciados a seguir. Antes disso, consideremos as matrizes:
˘
A=A−CG′(GG′)−1H,
˘
C =C[I −G′(GG′)−1G].
Defini¸c˜ao 1 A matrizA´e dita est´avelse todos os seus autovalores est˜ao contidos no
disco unit´ario aberto {ζ :|ζ|<1} do plano complexo.
Defini¸c˜ao 2 O par de matrizes (H, A) ´e dito detect´avel se existe uma matriz M de dimens˜oes convenientes tal que a matriz A−M H ´e est´avel.
Defini¸c˜ao 3 O par de matrizes ( ˘A,C)˘ ´e dito estabiliz´avel se existe uma matriz N de dimens˜oes convenientes tal que a matriz A˘−CN˘ ´e est´avel.
TEOREMA 2 Considerando-se o sistema 3.12 e as defini¸c˜oes acima, podemos
afir-mar que:
1. Se o par (H, A) ´e detect´avel, ent˜ao existe pelo menos uma solu¸c˜ao P ≥0 para a equa¸c˜ao alg´ebrica de Riccati 3.15;
2. Se, al´em disso, o par ( ˘A,C)˘ ´e estabiliz´avel, ent˜ao a solu¸c˜ao P ´e ´unica entre as solu¸c˜oes positivas semi-definidas, e P(k) → P quando k → ∞, independente-mente da condi¸c˜ao inicial P(0) ≥ 0. Nesse caso, a matriz A −KH ´e est´avel, onde K ´e a matriz “ganho do filtro” correspondente a P, isto ´e,
K = [AP H′+CG′][HP H′+GG′]−1.
Cap´ıtulo 4
Sistema Linear com Ru´ıdos
Multiplicativos e Saltos
Markovianos
Esse cap´ıtulo apresentar´a a formula¸c˜ao do problema que vamos considerar a partir de agora, e tamb´em alguns resultados auxiliares que ser˜ao ´uteis nas demonstra¸c˜oes de alguns dos resultados do trabalho.
4.1
Formula¸
c˜
ao do Problema
Consideremos o seguinte sistema linear a tempo discreto com saltos Markovianos e ru´ıdos multiplicativos, em um espa¸co de probabilidade (Ω,P,F):
x(k+ 1) =A¯θ(k)(k) +
εx
X
s=1 e
Aθ(k),s(k)wxs(k)
x(k) +C(k)w(k),
y(k) = H¯θ(k)(k) +
εy
X
s=1 e
Hθ(k),s(k)wsy(k)
x(k) +Gθ(k)(k)w(k),
x(0) = x0. (4.1)
Nesse sistema, a vari´avel de estado ´e dada pelo vetor n-dimensionalx(k), enquanto que a vari´avel observada ´e dada por y(k). Assim como nos sistemas anteriores, o ru´ıdo aditivo ´e dado por w(k).
Como principais diferenciais do sistema, temos: a cadeia de Markov ´e dada por θ(k), o ru´ıdo multiplicativo de estado ´e dado por wsx(k), e o ru´ıdo multiplicativo da observa¸c˜ao, por wys(k).
Deseja-se obter o estimador linear de m´ınimos quadrados (ELMQ) parax(k), dadas as observa¸c˜oes {y(0), . . . , y(k)} - assumimos, aqui, que θ(k) n˜ao est´a dispon´ıvel. Al´em disso, vamos assumir que:
i) o ru´ıdo aditivo {w(k)} ´e dado por uma seq¨uˆencia de vetores aleat´orios de m´edia nula, independentes, e com matriz de covariˆancia igual `a matriz identidade; ii) os ru´ıdos multiplicativos {wxs(k); 1 ≤s ≤ εx} e {wys(k); 1 ≤s ≤ εy} s˜ao
seq¨uˆen-cias de vari´aveis aleat´orias independentes com m´edia nula e variˆancia unit´aria, e E(wx
i(k)wjx(k)) = 0, E(w y i(k)w
y
j(k)) = 0, para todo k e i6=j;
iii) a correla¸c˜ao linear entre wxs1(k) e wys2(k) ´e dada por E(wx s1(k)w
y
4. Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 25
iv) {wxs(k);s = 1, . . . εx} e {wy
s(k);s = 1, . . . εy} s˜ao independentes de {w(k)} e x0,
assim como {w(k)} ´e independente dex0;
v) a cadeia de Markov {θ(k)} toma valores em {1, . . . , N} e possui como matriz de transi¸c˜ao PM = [pij]. Definimos πj(k) := P(θ(k) =j);
vi) a cadeia de Markov{θ(k)}´e independente de{wxs(k);s = 1, . . . εx}, de{wy
s(k);s=
1, . . . εy}, de {w(k)} e de x
0;
vii) a condi¸c˜ao inicialx0 ´e um vetor aleat´orio n-dimensional com E(x0) =µ0 e Q0 =
E(x0x′0).
Consideremos as seguintes matrizes aumentadas:
¯ A(k) :=
p11A¯1(k) · · · pN1A¯N(k)
... . .. ... p1NA¯1(k) · · · pN NA¯N(k)
, e
As(k) :=
p11Ae1,s(k) · · · pN1AeN,s(k)
... . .. ... p1NAe1,s(k) · · · pN NAeN,s(k)
, ¯ H(k) :=
H1(k)· · ·HN(k)
,
e
Hs(k) :=
e
H1,s(k)· · ·HeN,s(k)
,
G(k) :=
G1(k)π1(k)1/2· · ·GN(k)πN(k)1/2
, C(k) :=
π1(k)1/2p11C1(k) · · · πN(k)1/2pN1CN(k)
... . .. ...
π1(k)1/2p1NC1(k) · · · πN(k)1/2pN NCN(k)
. (4.2)
para Υ= (Υ1, . . . ,ΥN)∈Hn,
B1(k,Υ) := diag
hXN
i=1
pijA¯i(k)ΥiA¯i(k)′
i
−A(k)(diag(Υ¯ i)) ¯A(k)′, (4.3)
B2(k,Υ) := diag
hXN
i=1
pij εx
X
s=1 e
Ai,s(k)ΥiAei,s(k)′
i
, (4.4)
B(k,Υ) :=B1(k,Υ) +B2(k,Υ). (4.5)
Observa¸c˜ao 1 Note que, como demonstrado em [14], se Υ∈Hn+, ent˜ao B1(Υ)≥0.
´
E f´acil ver que, nesse caso, temos tamb´em B2(Υ) ≥ 0 e ent˜ao B(Υ) ≥ 0 sempre que
Υ∈Hn+. De fato, se Υ∈Hn+, por defini¸c˜aoΥ´e, pelo menos, positiva semi-definida. Logo, o segundo somat´orio de B2(Υ) ´e sempre maior ou igual a zero. Como pij ≥ 0,
segue que B2(Υ)≥0. Al´em disso, se B1(Υ)≥0 e B2(Υ)≥0, ´e claro que B(Υ)≥0.
Apresentamos, agora, as matrizes de segundo momento associadas `a vari´avel de estado em (4.1). Para tanto, definimos:
z(k, i) =x(k)1{θ(k)=i}, i= 1, . . . , N,
z(k) =
z(k,1) ... z(k, N)
,
Qi(k) =E(z(k, i)z(k, i)′) =E(x(k)x(k)′1{θ(k)=i}),
Z(k) = diag[Qi(k)]∈RN n×N n,
e o operador T(k, .) ∈ B(Hn) como segue: para Υ = (Υ1, . . . ,ΥN) ∈ Hn, T(k,Υ) =
(T1(k,Υ), . . . ,TN(k,Υ)) ´e dado, para j = 1, . . . , N, por
Tj(k,Υ) = N
X
i=1
pij
¯
Ai(k)ΥiA¯i(k)′ + εx
X
s=1 e
Ai,s(k)ΥiAei,s(k)′
4. Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 27
Defina D(k) = (D1(k), . . . , DN(k))∈Hn+ por:
Dj(k) = N
X
i=1
pijπi(k)Ci(k)Ci(k)′.
SejamQ(k) = (Q1(k), . . . , QN(k)) eQ(k) = Dg(Q(k)) = diag(Qi(k)) =E(z(k)z(k)′).
Seguindo o mesmo racioc´ınio apresentado na Proposi¸c˜ao 3.35 de [18], a equa¸c˜ao recur-siva de Lyapunov para as matrizes de segundo momento Qi(k) ´e dada por:
Q(k+ 1) =T(k,Q(k)) +D(k), Qi(0) =πi(0)Q0. (4.7)
Sejam, agora,
µ(0) =E(z(0)) =
µ0π1(0)
... µ0πN(0)
,
P(0) =E((z(0)−µ(0))(z(0)−µ(0)′)) =Q(0)−µ(0)µ(0)′.
Para garantir a existˆencia da inversa de algumas matrizes, o que ser´a necess´ario na prova do Teorema 3, assumiremos as seguintes hip´oteses:
(A1) ¯H(0)P(0) ¯H(0)′+Pεy
s=1Hes(0)Q(0)Hes(0)′ +G(0)G(0)′ >0;
(A2) Pεsy=1Hes(k)Q(k)Hes(k)′+G(k)G(k)′ >0 fork = 1,2, . . ..
´
E f´acil checar que, se temos as hip´oteses usuais para problema de filtragem de Kalman - em nosso caso, Gi(k)Gi(k)′ > 0 para cada k = 0,1,2, . . . e i = 1, . . . , N
-ent˜ao as Asser¸c˜oes (A1) e (A2) s˜ao v´alidas.
posi-tivas semi-definidas, basta supormos que G(k)G(k)′ > 0, o que realmente ocorre se
Gi(k)Gi(k)′ > 0, para cada k = 0,1,2, . . . e i = 1, . . . , N, para que o resultado seja
observado.
4.2
Resultados Auxiliares
Nessa se¸c˜ao, ser˜ao apresentados alguns resultados auxiliares, que s˜ao necess´arios para a demonstra¸c˜ao do Teorema 4, que ser´a apresentado no Cap´ıtulo 6.
PROPOSI ¸C ˜AO 3 Existem matrizes C e G tais que:
CC′ =B(Q) +Dg(D) = B1(Q) +diag
XN i=1 pij εx X s=1 e
Ai,sQiAe′i,s+πiCiCi′
, (4.8)
CG′ =
εx X s=1 εy X ℓ=1
ρs,ℓAesQHeℓ′+CG′, (4.9)
GG′ =
εy
X
ℓ=1 e
HℓQHeℓ′ +GG′. (4.10)
Demonstra¸c˜ao. Sejam:
Π11= diag
XN i=1 pij εx X s=1 e
Ai,sQiAe′i,s+πiCiCi′
,
Π12=
εx X s=1 εy X ℓ=1
ρs,ℓAesQHeℓ′+CG′,
Π22=
εy
X
ℓ=1 e
HℓQHeℓ′ +GG′,
4. Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 29
com
ˆ Cj =
Cθ(0) 1
π1θ/(0)2
Pεx
s=1Aeθ(0),swxs(0)Q
1/2
θ(0)
1{θ(0)=j} e
ˆ G=
Gθ(0) Pε
y
ℓ=1 π11/2
θ(0) e
Hθ(0),ℓwℓy(0)Q
1/2
θ(0)
.
Colocando Eπ(.) como o operador valor esperado quando P(θ(0) = i) = πi, temos
que
0≤Eπ
ˆ C ˆ G ˆ
C′ Gˆ′ = Π :=
Π11 Π12
Π′
12 Π22
.
Escrevemos 0 ≤ Γ = Π1/2, com Γ :=
Γ11 Γ12
Γ′
12 Γ22
e C :=
Γ11 Γ12 B1(Q)1/2
,
G :=
Γ′
12 Γ22 0
. Ent˜ao, (4.8)-(4.10) seguem de Γ2 = Π.
PROPOSI ¸C ˜AO 4 Q0(k)k−→→∞Q e, para cada k= 0,1,2, . . .,
Q(k+κ)≥Q0(k)≥Q0(k−1)≥0. (4.11)
Demonstra¸c˜ao. Da Proposi¸c˜ao 2.9 do livro [18], temos que Q0(k) k−→→∞ Q. Vamos mostrar (4.11) por indu¸c˜ao em k. Se k = 0, o resultado ´e imediato, uma vez que Q(κ) ≥ 0 = Q0(0) e Q0(1) ≥ 0 = Q0(0). Suponhamos que (4.11) ´e v´alido para k.
Ent˜ao, de (6.7) e (4.11), temos que
Qj(k+ 1 +κ) = N X i=1 pij ¯
AiQi(k+κ) ¯A′i+ εx
X
s=1 e
Ai,sQiAe′i,s+πi(k+κ)CiCi′
≥ N X i=1 pij ¯
AiQ0,i(k) ¯A′i+ εx
X
s=1 e
Ai,sQ0,iAei,s′ +αi(k)CiCi′
=Q0,j(k+ 1)
≥ N X i=1 pij ¯
AiQ0,i(k−1) ¯A′i+ εx
X
s=1 e
Ai,sQ0,i(k−1)Aei,s′ +αi(k−1)CiCi′
o que completa o argumento de indu¸c˜ao em (4.11).
As pr´oximas proposi¸c˜oes utilizam as defini¸c˜oes de Φ e de Ψ que podem ser encon-tradas em (6.5) e em (6.6), respectivamente.
PROPOSI ¸C ˜AO 5 Considereα= (α1, . . . , αN)eβ = (β1, . . . , βN)tais queαi ≥βi ≥
0, para i= 1, . . . , N. Ent˜ao, Φ(V, α)≥Φ(V, β)≥0.
Demonstra¸c˜ao. Por defini¸c˜ao, Φ(V, α) ´e uma matriz sim´etrica. Considere um vetor arbitr´ario x de dimens˜oes apropriadas com
x= x1 ... xN
, (4.12)
e fa¸ca y = V′x. Colocando Ei(.) o operador valor esperado quando P(θ(0) = i) = 1,
temos, ap´os algumas manipula¸c˜oes alg´ebricas, que
x′Φ(V, α)x=
N X i=1 αi XN j=1
pijx′jCi′Cixj−
XN
j=1
pijxj
′
CiG′iy−y′GiCi′
XN
j=1
pijxj
+y′GiG′iy
=
N
X
i=1
αiEi
kCi′xθ(1)−G′iyk2
≥
N
X
i=1
βiEi
kCi′xθ(1)−G′iyk2
=x′Φ(V, β)x≥0,
o que mostra que Φ(V, α)≥Φ(V, β)≥0.
PROPOSI ¸C ˜AO 6 Para quaisquer U ∈ Hn+ e V de dimens˜oes apropriadas, temos
que Ψ(V,U)≥0.
4. Sistema Linear com Ru´ıdos Multiplicativos e Saltos Markovianos 31
resultado segue ap´os algumas manipula¸c˜oes alg´ebricas, levando a:
x′Ψ(V,U)x=
N
X
i=1
XN
j=1
pijx′j
εx
X
s=1 e
Ai,sUiAe′i,s
xj − εx X s=1 εy X ℓ=1 ρs,ℓ XN j=1
pijx′j
e
Ai,sUiHei,ℓ′ y+
y′Hei,ℓUiAe′i,s
XN
j=1
pijxj
+
εy
X
ℓ=1
y′Hei,ℓUiHei,ℓ′ y
= N X i=1 Ei εx X s=1 e
Ai,swxs(0)xθ(1)−
εy
X
ℓ=1 e
Hi,ℓwℓy(0)y
Ui × εx X s=1 e
Ai,swsx(0)xθ(1)−
εy
X
ℓ=1 e
Hi,ℓwyℓ(0)y
′
Obten¸
c˜
ao do ELMQ
Esse cap´ıtulo ser´a dedicado `a apresenta¸c˜ao do Estimador Linear de M´ınimos Qua-drados, ELMQ, para o sistema abordado no cap´ıtulo anterior. Assim como ocorre em [21], o filtro ser´a derivado a partir de argumentos geom´etricos.
Vamos considerar o sistema original (4.1). O ELMQ para esse sistema ser´a obtido a partir do seguinte teorema:
TEOREMA 3 Considere o sistema representado por (4.1). Ent˜ao, para k = 0,1, . . ., o ELMQ bx(k|k) ´e dado por:
b
x(k|k) =
N
X
i=1 b
z(k, i|k) (5.1)
onde bz(k|k) satisfaz a equa¸c˜ao recursiva
b
z(k|k) = bz(k|k−1) +P(k) ¯H(k)′M(k)−1(y(k)−H(k)¯ bz(k|k−1)), (5.2)
b
z(k+ 1|k) = ¯A(k)z(kb |k−1) +V(k)(y(k)−H(k)¯ bz(k|k−1)), (5.3)
b
z(0| −1) =µ(0). (5.4)
5. Obten¸c˜ao do ELMQ 33
e as matrizes M(k)>0 e V(k) s˜ao dadas por:
M(k) = ¯H(k)P(k) ¯H(k)′+
εy
X
ℓ=1 e
Hℓ(k)Q(k)Heℓ(k)′+G(k)G(k)′, (5.5)
V(k) =A(k)P¯ (k) ¯H(k)′+
εx X s=1 εy X ℓ=1
ρs,ℓAes(k)Q(k)Heℓ(k)′+C(k)G(k)′
M(k)−1. (5.6)
As matrizesP(k) =E(ez(k|k−1)ez(k|k−1)′)≥0 satisfazem a equa¸c˜ao recursiva de
Riccati:
P(k+ 1) = ¯A(k)P(k) ¯A(k)′ +B(k,Q(k)) + Dg(D(k))−
¯
A(k)P(k) ¯H(k)′+
εx X s=1 εy X ℓ=1
ρs,ℓAes(k)Q(k)Heℓ(k)′+C(k)G(k)′
¯
H(k)P(k) ¯H(k)′+
εy
X
ℓ=1 e
Hℓ(k)Q(k)Heℓ(k)′+G(k)G(k)′
−1
¯
A(k)P(k) ¯H(k)′+
εx X s=1 εy X ℓ=1
ρs,ℓAes(k)Q(k)Heℓ(k)′+C(k)G(k)′
′
. (5.7)
Demonstra¸c˜ao. Fazendoµ(k) =E(z(k)), segue que µ(k+ 1) = ¯A(k)µ(k). Vamos definir:
ϕij(k) = 1{θ(k+1)=j}−pij,
ℓ(k) = εx X s=1 ( N X i=1 e
Ai,sz(k, i))wxs(k),
c(k) =
N
X
i=1
e
Υ1(k) = PN
i=1A¯izi(k)ϕi1(k)
...
PN
i=1A¯izi(k)ϕiN(k)
, (5.8)
Υ2(k) =
ℓ(k)1{θ(k+1)=1}
...
ℓ(k)1{θ(k+1)=N}
, (5.9)
Υ3(k) =
c(k)1{θ(k+1)=1}
...
c(k)1{θ(k+1)=N}
. (5.10)
De (4.1), temos que:
zc(k+ 1) = ¯A(k)zc(k) + Υ1(k) + Υ2(k) + Υ3(k), (5.11) yc(k) = ¯H(k)zc(k) +
εy
X
s=1 e
Hs(k)ξsy(k) +Gθ(k)(k)w(k). (5.12)
onde ξsy(k) =wys(k)z(k). SejamL((yc)t) o subespa¸co gerado pelo vetor aleat´orio
(yc)t =
yc(0) ... yc(t)
,
e Pt a proje¸c˜ao ortogonal sobre L((yc)t). No que segue, aplicamos indu¸c˜ao em k para
mostrar que, das Asser¸c˜oes (A1) e (A2), cov((yc)k) > 0. De (5.12) com k = 0, ´e f´acil ver que cov(yc(0)) = ¯H(0)P(0) ¯H(0)′+Pεy
s=1Hes(0)Q(0)Hes(0)′ +G(0)G(0)′ > 0,
da Asser¸c˜ao (A1). Suponha que cov((yc)k−1
5. Obten¸c˜ao do ELMQ 35
aleat´orico com m´edia nula z,
Pk−1(z) =E(z(yc)k−1′) cov((y)k−1)−1(yc)k−1. (5.13)
De (5.13) e da hip´otese de independˆencia feita na Se¸c˜ao 4, segue que
Pk−1(ξsy(k)) =E((wsy(k)z(k))(yc)k−1′) cov((y)k−1)−1(yc)k−1
=E(wys(k))E(z(k)(yc)k−1′) cov((y)k−1)−1(yc)k−1 = 0. (5.14)
Analogamente,
Pk−1(Gθ(k)(k)w(k)) =
N
X
i=1
E(1{θ(k)=i}Gi(k)w(k)(yc)k−1′) cov((y)k−1)−1(yc)k−1
=
N
X
i=1
Gi(k)E(w(k))E(1{θ(k)=i}(yc)k−1′) cov((y)k−1)−1(yc)k−1 = 0.
(5.15)
De (5.12), (5.14) e (5.15) ´e imediato ver que
b
yc(k|k−1) =Pk−1(yc(k)) = ¯H(k)zbc(k|k−1). (5.16)
Lembrando quey(ke |k−1) = yc(k)−ybc(k|k−1) e queez(k|k−1) =zc(k)−bzc(k|k−1), segue de (5.12) e de (5.16) que
e
y(k|k−1) = ¯H(k)z(ke |k−1) +
εy
X
s=1 e
Hs(k)ξsy(k) +Gθ(k)(k)w(k). (5.17)
inde-pendˆencia feita na se¸c˜ao 4, que
cov(y(ke |k−1)) = ¯H(k)P(k) ¯H(k)′ +
εy
X
s=1 e
Hs(k)Q(k)Hes(k)′+G(k)G(k)′
=M(k)≥
εy
X
s=1 e
Hs(k)Q(k)Hes(k)′+G(k)G(k)′ >0 (5.18)
da Asser¸c˜ao (A2). Da Proposi¸c˜ao 1, temos que cov((y)k) >0. Como, da hip´otese de independˆencia feita na se¸c˜ao 4, temos
E(zc(k)ξsy(k)′) =E(wys(k))E(zc(k)z(k)′) = 0, (5.19) E(zc(k)(Gθ(k)(k)w(k))′) =
N
X
i=1
E(zc(k)(Gi(k)w(k))′1{θ(k)=i})
=
N
X
i=1
E(1{θ(k)=i}zc(k))E(w(k))′Gi(k)′ = 0 (5.20)
segue de (5.17), (5.19), (5.20), zc(k) = bzc(k|k −1) +ez(k|k −1) e da ortogonalidade entre bzc(k|k−1) e z(ke |k−1), que
E(zc(k)ey(k|k−1)′) = E(zc(k)ez(k|k−1)′) ¯H(k)′
=E((zbc(k|k−1) +ez(k|k−1))z(ke |k−1)′) ¯H(k)′
=E(zbc(k|k−1))z(ke |k−1)′H(k)¯ ′+E(z(ke |k−1))z(ke |k−1)′H(k)¯ ′
=P(k) ¯H(k)′. (5.21)
De (3.6), (5.16), (5.18) e (5.21), temos que
b
zc(k|k) = bzc(k|k−1) +P(k) ¯H(k)′M(k)−1(yc(k)−H(k)¯ zbc(k|k−1)). (5.22)
5. Obten¸c˜ao do ELMQ 37
obtemos (5.2). Vamos derivar, agora, (5.3). De (5.11), segue que
b
zc(k+ 1|k) = ¯A(k)bzc(k|k) +Pk(Υ1(k)) +Pk(Υ2(k)) +Pk(Υ3(k)). (5.23)
De (3.5), temos que Pk(Υ1(k)) = E(Υ1(k)(yc)k′) cov((y)k
)−1(yc)k
. Vamos denotar por Fk o σ-campo gerado pela vari´avel aleat´oria e pelos vetores θ(k), z(k) e (yc)k.
Temos que:
Pk
N
X
i=1
¯
Aizi(k)ϕij(k)
=
N
X
i=1
E( ¯Ai(k)zi(k)ϕij(k)(yc)k′) cov((y)k)−1(yc)k
=
N
X
i=1
E(E( ¯Ai(k)zi(k)ϕij(k)(yc)k′|Fk)) cov((y)k)−1(yc)k
=
N
X
i=1
E( ¯Ai(k)zi(k)E(ϕij(k)|Fk)1{θ(k)=i}(yc)k′) cov((y)k)−1(yc)k
= 0,
pois E(ϕij(k)|Fk)1{θ(k)=i} = (P(θ(k+ 1) = j|Fk)−pij)1{θ(k)=i} = 0. Isso mostra que
Pk(Υ1(k)) = 0. De (3.6), temos, para κ= 2,3,
Pk(Υκ(k)) =Pk−1(Υκ(k)) +E(Υκ(k)ey(k|k−1)′)M(k)−1ey(k|k−1).
Pela hip´otese de independˆencia feita na se¸c˜ao 4 e por (3.5), temos que
Pk−1(ℓ(k)1{θ(k+1)=j}) =
εx
X
s=1
XN
i=1 e
Ai,s(k)E(z(k, i)wxs(k)(yc) k−1′1
{θ(k+1)=j})
×cov((y)k−1)−1(yc)k−1 =
εx
X
s=1
XN
i=1 e
Ai,s(k)E(wxs(k))E(z(k, i)(yc) k−1′1
{θ(k+1)=j})
e, de (5.17), que
E(1{θ(k+1)=j}z(k, i)wsx(k)y(ke |k−1)′) = E
1{θ(k+1)=j}z(k, i)wsx(k)
¯
H(k)z(ke |k−1)+
εy
X
ℓ=1 e
Hℓ(k)wyℓ(k)z(k) +Gθ(k)(k)w(k)
′
=E(wsx(k))E
1{θ(k+1)=j}z(k, i)
¯
H(k)z(ke |k−1) +Gθ(k)(k)w(k)
′ + εy X ℓ=1 E(wx s(k)w y ℓ(k))E
1{θ(k+1)=j}z(k, i)z(k)′Heℓ(k)′
=
εy
X
ℓ=1
ρs,ℓQi(k)Hei,ℓ(k)′πi(k)pij
de modo que
E(ℓ(k)1{θ(k+1)=j}ey(k|k−1)′) =
εx X s=1 ( N X i=1 e
Ai,s(k)E(1{θ(k+1)=j}z(k, i)wsx(k)ey(k|k−1)′)
=
N
X
i=1
πi(k)pij εx X s=1 εy X ℓ=1
ρs,ℓAei,s(k)Qi(k)Hei,ℓ(k)′,
e ent˜ao
Pk(Υ2(k)) =
εx X s=1 εy X ℓ=1
ρs,ℓAes(k)Q(k)Heℓ(k)′
M(k)−1ey(k|k−1).
Racioc´ınio semelhante mostra que Pk(Υ3(k)) = C(k)G(k)′M(k)−1ey(k|k−1). De
(5.22), (5.23) e dos resultados acima, temos que
b
zc(k+ 1|k) = ¯A(k)bzc(k|k) +V(k)y(ke |k−1)
5. Obten¸c˜ao do ELMQ 39
Finalmente, de (5.3), (5.8), (5.9), (5.10),(5.11) e (5.12), temos que
e
z(k+ 1|k) = ( ¯A(k)−V(k) ¯H(k))z(ke |k−1) + Υ1(k) + Υ2(k) + Υ3(k)
−V(k)
εy
X
ℓ=1 e
Hs(k)wsy(k)z(k)−V(k)Gθ(k)(k)w(k). (5.24)
Sejam Υ0(k) = ( ¯A(k)−V(k) ¯H(k))ez(k|k−1), Υ4(k) =−V(k)Pεy
ℓ=1Hes(k)wys(k)z(k),
Υ5(k) =−V(k)G
θ(k)(k)w(k), de forma que, de (5.24), ez(k+ 1|k) = P5κ=0Υκ(k).
Da hip´otese de independˆencia feita na se¸c˜ao 4, temos que:
E(Υ0(k)Υκ(k)′) = 0, κ= 1,2,3,4,5, E(Υ1(k)Υκ(k)′) = 0, κ= 2,3,4,5,
E(Υ2(k)Υκ(k)′) = 0, κ= 3,5, E(Υ3(k)Υ4(k)′) = 0,
E(Υ4(k)Υ5(k)′) = 0.
Mais ainda, temos que:
E(Υ2(k)Υ4(k)′) =−
εx
X
s=1
εy
X
ℓ=1
ρs,ℓ(Aes(k)Q(k)Heℓ(k)′V(k)′,
E(Υ3(k)Υ5(k)′) =−C(k)G(k)′V(k)′,
E(Υ0(k)Υ0(k)′) = ( ¯A(k)−V(k) ¯H(k))P(k)( ¯A(k)−V(k) ¯H(k))′,
E(Υ1(k)Υ1(k)′) = diagh
N
X
i=1
pijA¯i(k)Qi(k) ¯Ai(k)′
i
−A(k)diag(Q¯ i(k)) ¯A(k)′ =B1(k,Q(k)),
E(Υ2(k)Υ2(k)′) = diagh
N
X
i=1
pij εx
X
s=1 e
Ai,s(k)Qi(k)Aei,s(k)′
i
E(Υ3(k)Υ3(k)′) = diag[
N
X
i=1
pijπi(k)Ci(k)Ci(k)′] = Dg(D(k)),
E(Υ4(k)Υ4(k)′) = V(k)
εy
X
ℓ=1 e
Hℓ(k)Q(k)Heℓ(k)′
V(k)′,
E(Υ5(k)Υ5(k)′) = V(k)G(k)G(k)′V(k)′.
Agrupando todos esses resultados, segue que:
P(k+ 1) = ( ¯A(k)−V(k) ¯H(k))P(k)( ¯A(k)−V(k) ¯H(k))′+B1(k,Q(k)) +B2(k,Q(k))
+ Dg(D(k))−C(k)G(k)′V(k)′ −V(k)G(k)C(k)′ +V(k)G(k)G(k)′V(k)′ +V(k)
εy
X
ℓ=1 e
Hℓ(k)Q(k)Heℓ(k)′
V(k)′
−
εx
X
s=1
εy
X
ℓ=1
ρs,ℓ(Aes(k)Q(k)Heℓ(k)′V(k)′+V(k)Heℓ(k)Q(k)As(k)). (5.25)
e, ap´os algumas manipula¸c˜oes alg´ebricas, obtemos (5.7).
Observa¸c˜ao 2 Note que, no caso em que n˜ao h´a saltos (N = 1) nem ru´ıdos mul-tiplicativos, temos que B(k,Q(k)) = 0. Com isso, todos os termos com Aei,s e Hei,s
desaparecem, de forma que a equa¸c˜ao (5.7) torna-se a equa¸c˜ao recursiva de Riccati
usual (veja [21], p´ag. 118) e o filtro derivado no Teorema 3 se reduz ao Filtro de
Cap´ıtulo 6
Solu¸
c˜
ao Estacion´
aria
Nesse cap´ıtulo, obteremos a solu¸c˜ao para o sistema proposto no caso em que n˜ao h´a dependˆencia temporal das matrizes envolvidas, isto ´e, consideraremos que todas as matrizes em (4.1) s˜ao invariantes no tempo. Em particular, podemos suprimir a dependˆencia em k dos operadores B1, B2, B e T definidos respectivamente em (4.3),
(4.4), (4.5) e (4.6).
O objetivo principal desse cap´ıtulo ´e mostrar que, sob a hip´otese de estabilidade na m´edia quadr´atica (EMQ) do sistema (4.1) (veja Defini¸c˜ao 4), existe uma solu¸c˜ao estacion´aria Q≥0 e P ≥0 para as equa¸c˜oes de Lyapunov e de Riccati relacionadas a (4.7) e a (5.7), respectivamente, e, ainda mais, que Q(k) eP(k) dadas por (4.7) e (5.7) convergem a Q e P, independentemente de quais sejam as condi¸c˜oes iniciais Q(0) ≥0 e P(0)≥0.
A partir de agora, assumiremos a seguinte hip´otese adicional:
(A3) A cadeia de Markov {θ(k)}´e erg´odica.
Da Asser¸c˜ao (A3), segue que existem πi > 0, i = 1, . . . , N, com PNi=1πi = 1, tais
que
lim
k→∞πi(k) =πi
exponencialmente r´apido e de maneira independente de θ(0). Vamos definir
π(k) = (π1(k), . . . , πN(k)) e π = (π1, . . . , πN).
Paraα= (α1, . . . , αN),αi ≥0, definimos D(α) := (D1(α), . . . , DN(α))∈Hn+ como
Dj(α) :=PNi=1pijαiCiCi′, e
G(α) :=
G1α11/2· · ·GNα1N/2
, C(α) :=
α11/2p11C1 · · · αN1/2pN1CN
... . .. ... α11/2p1NC1 · · · α1N/2pN NCN
,
e D :=D(π),G:=G(π), C:=C(π).
Vamos utilizar a seguinte defini¸c˜ao para a estabilidade na m´edia quadr´atica de (4.1):
Defini¸c˜ao 4 Dizemos que o sistema (4.1) possui estabilidade na m´edia quadr´atica
(EMQ) se, com w(k) = 0, temos E(kx(k)k2)→0 quando k → ∞, qualquer que seja a
condi¸c˜ao inicial x0 que satisfa¸ca E(kx0k2)<∞.
O resultado seguinte deriva das Proposi¸c˜oes 2.5, 2.6 e 2.9 de [18] (veja tamb´em [26]).
PROPOSI ¸C ˜AO 7 As seguintes afirma¸c˜oes s˜ao equivalentes:
a) O sistema (4.1) possui EMQ.
b) rσ(T)<1.
6. Solu¸c˜ao Estacion´aria 43
Al´em disso, se alguma dessas afirma¸c˜oes ´e verdadeira, ent˜ao existe uma ´unica
solu-¸c˜ao Q que satisfaz
Q =T(Q) +D (6.1)
e Q(k) → Q exponencialmente r´apido quando k → ∞, onde Q(k) satisfaz a equa¸c˜ao recursiva (4.7).
Segue que, se o sistema (4.1) possui EMQ, ent˜ao, da Proposi¸c˜ao 7 c), temos que, para cada j = 1, . . . , N,
0< Wj− N X i=1 pij ¯
AiWiA¯′i+ εy
X
s=0 e
Ai,sWiAe′i,s
≤Wj − N
X
i=1
pijA¯iWiA¯′i (6.2)
e do Teorema 3.9 e da Proposi¸c˜ao 3.6. de [18], temos que (6.2) implica que rσ( ¯A)<1.
No que segue, definimos para as matrizes K, Z ≥ 0, de dimens˜oes apropriadas e U ∈Hn+,
M(Z,U, α) := ¯HZH¯′+
εy
X
ℓ=1 e
HℓDg(U)Heℓ′ +G(α)G(α)′, (6.3)
V(Z,U, α) :=AZ¯ H¯′+
εx X s=1 εy X ℓ=1
ρs,ℓAesDg(U)Heℓ′ +C(α)G(α)′
M(Z,U, α)−1, (6.4)
Φ(K, α) := Dg(D(α))−C(α)G(α)′K′−KG(α)C(α)′+KG(α)G(α)′K′, (6.5) Ψ(K,U) :=B2(U) +K
εy
X
ℓ=1 e
HℓDg(U)Heℓ′
K′ − εx X s=1 εy X ℓ=1
ρs,ℓ(AesDg(U)Heℓ′K′+KHeℓDg(U)Ae′s) (6.6)
e M(Z,U) := M(Z,U, π),V(Z,U) :=V(Z,U, π), Φ(K) := Φ(K, π).
Sejaκtal que inf
uma vez que πi(k) k→∞
−→ πi >0. Vamos definirαi(k) = inf
ℓ≥kπi(ℓ+κ). Ent˜ao,
πi(k+κ)≥αi(k)≥αi(k−1)>0, k= 1,2, . . . , i = 1, . . . , N (6.7)
eαi(k)k−→→∞ πi exponencialmente r´apido. Sejamα(k) = (α1(k), . . . , αN(k)), e a
sequˆen-cia Q0(k)∈Hn+ de forma que:
Q0(k+ 1) =T(Q0(k)) +D(α(k)), Q0(0) = 0. (6.8)
Pela Proposi¸c˜ao 4, Q0(k)
k→∞
−→ Q e, para cada k = 0,1,2, . . ., Q(k+κ) ≥Q0(k) ≥
Q0(k−1). Definindo Q0(k) = Dg(Q0(k)), claramente temos Q0(k) ≤Q0(k+ 1)≤ Q.
Precisamos, agora, da seguinte asser¸c˜ao:
(A4) Pεℓ=1y HeℓQ0(0)Heℓ′ +G(α(0))G(α(0))′ >0.
Da mesma forma, se para cadai= 1, . . . , N temosGiG′i >0, ent˜ao claramente (A4)
´e satisfeita. De (6.7), segue que
G(α(0))G(α(0))′ =
N
X
i=1
αi(0)GiG′i ≤ N
X
i=1
αi(k)GiG′i =G(α(k))G(α(k))′
≤
N
X
i=1
πiGiG′i =GG′
e, como Q0(0)≤Q0(k)≤Q, temos de (A4) que
0<
εy
X
ℓ=1 e
HℓQ0(k)Heℓ′+G(α(k))G(α(k))′ ≤ εy
X
ℓ=1 e
HℓQHeℓ′ +GG′. (6.9)
De (6.9), segue que para qualquer Z ≥ 0 e k = 0,1, . . ., M(Z,Q0(k), α(k)) > 0 e
6. Solu¸c˜ao Estacion´aria 45
TEOREMA 4 Suponha que o sistema (4.1) possua EMQ. Considere as equa¸c˜oes
al-g´ebricas de Riccati em Z,
Z = ¯AZA¯′+B(Q) +Dg(D)−AZ¯ H¯′+
εx
X
s=1
εy
X
ℓ=1
ρs,ℓAesQHeℓ′+CG′
×HZ¯ H¯′ +
εy
X
ℓ=1 e
HℓQHeℓ′ +GG′
−1
¯ AZH¯′+
εx
X
s=1
εy
X
ℓ=1
ρs,ℓAesQHeℓ′+CG′
′
, (6.10)
onde Q ´e a solu¸c˜ao ´unica de (6.1) e Q = Dg(Q). Ent˜ao, existe uma ´unica solu¸c˜ao positiva semi-definida P para (6.10). Al´em disso, rσ( ¯A −V(P,Q) ¯H) < 1 e, para
qualquerQ(0) ≥0, P(0)≥0, temos queQ(k)eP(k)dados por (4.7) e (5.7) satisfazem Q(k)→Q e P(k)→P quando k → ∞.
Demonstra¸c˜ao. De acordo com a Proposi¸c˜ao 3, ´e poss´ıvel encontrar matrizes C e G tais que (6.10) possa ser reescrita como
Z = ¯AZA¯′+CC′−AZ¯ H¯′+CG′HZ¯ H¯′+GG′−1AZ¯ H¯′ +CG′′. (6.11)
Como rσ( ¯A) < 1, temos, do Teorema 3.3.3 de [21], que existe uma ´unica solu¸c˜ao
positiva semi-definida P para (6.11) e, al´em disso, que a matriz
¯
A−( ¯APH¯ +CG′)( ¯HPH¯′+GG′)−1H¯ = ¯A−V(P,Q) ¯H
´e est´avel, o que mostra a primeira parte do teorema. Vamos, agora, mostrar a conver-gˆenciaP(k)→P. DefinaV =V(P,Q),M(k) = V(P(k),Q(k)),V(k) =V(P(k),Q(k)), e a sequˆencia linear recursiva
J(k+ 1) = ( ¯A−VH)J¯ (k)( ¯A−VH)¯ ′+B(Q(k)) + Φ(V) +V(
εy
X
ℓ=1 e
HℓQ(k)Heℓ′)V′
−
εx
X
s=1
εy
X
ℓ=1