• Nenhum resultado encontrado

Derivadas de primeira e segunda ordem do custo de T estágios para atulização simultânea de dois ganhos no controle de sistemas com saltos markovianos

N/A
N/A
Protected

Academic year: 2021

Share "Derivadas de primeira e segunda ordem do custo de T estágios para atulização simultânea de dois ganhos no controle de sistemas com saltos markovianos"

Copied!
7
0
0

Texto

(1)

Derivadas de primeira e segunda ordem do custo de T est´

agios

para atuliza¸

ao simultˆ

anea de dois ganhos no controle de

sistemas com saltos markovianos

Eduardo F. Costa,

Larissa T. Oliveira,

Depto. de Matem´atica Aplicada e Estat´ıstica, ICMC, USP, Av. Trabalhador s˜ao-carlense, 400, Centro, CEP: 13566-590, S˜ao Carlos, SP

E-mail: efcosta@icmc.usp.br, ltdo@icmc.usp.br,

Resumo: Atualmente o problema de controle linear quadr´atico com saltos de T est´agios tˆem sido am-plamente estudado na literatura e alguns m´etodos tˆem sido propostos, ainda n˜ao havendo um m´etodo considerado totalmente satisfat´orio para o problema. Entre estes, ressaltamos o m´etodo variacional que atualiza, a cada est´agio, apenas um ganho do controlador. Neste artigo, visando a futura implementa¸c˜ao de uma vers˜ao deste m´etodo onde se atualize dois ganhos por est´agio, apresentamos as derivadas de primeira e segunda ordem da fun¸c˜ao custo de T est´agio. Estes resultados s˜ao importantes e se fazem necess´arios para a implementa¸c˜ao computacional do m´etodo empregando, em cada est´agio, m´etodos de dire¸c˜ao de descida, como, por exemplo, o m´etodo de Newton e o m´etodo de gradiente, a fim de compa-rarmos os resultados com outros encontrados na literatura.

Palavras-chave: Sistemas Lineares com Saltos Markovianos, m´etodo variacional, atualiza¸c˜ao simultˆanea de ganhos

1

Introdu¸

ao

Os Sistemas Lineares com Saltos Markovianos (SLSM) s˜ao considerados uma importante classe de siste-mas, pois al´em de serem semelhantes a sistemas lineares determin´ısticos cl´assicos, podem ser utilizados para modelar sistemas cuja dinˆamica muda de forma abrupta em determinados momentos. Entre algumas das aplica¸c˜oes dos SLSMs podemos citar: modelos macroeconˆomicos em [4], carteiras de investimentos em [9], sistemas rob´oticos em [11], sistemas aeron´auticos em [14], receptores t´ermicos solares em [15], al´em de muitas publica¸c˜oes na ´area, como: [2]; [3]; [5]; [6]; [16] e recentemente [1] e [12]. Outros exemplos s˜ao citados em [10] e [13].

Problemas de controle com custo quadr´atico (com salto) para os SLSMs podem ser divididos em trˆes casos, segundo a observa¸c˜ao da vari´avel de estado θ(k): caso com observa¸c˜ao completa, cuja solu¸c˜ao ´

otima ´e facilmente obtida atrav´es da resolu¸c˜ao de uma Equa¸c˜ao Alg´ebrica de Riccati Acoplada; e casos com observa¸c˜ao parcial e sem observa¸c˜ao. Estes ´ultimos n˜ao possuem, at´e o momento, um m´etodo geral que obtenha de forma satisfat´oria o ganho ´otimo para todos os casos. Um dos m´etodos dispon´ıveis na literatura ´e o chamado m´etodo variacional, que consiste em praticar pequenas varia¸c˜oes em alguns dos parˆametros da fun¸c˜ao que se quer minimizar utilizando o princ´ıpio variacional. ´E poss´ıvel encontrar na literatura alguns algoritmos baseados no princ´ıpio variacional, sendo os principais: o algoritmo para SLSM sem ru´ıdo, desenvolvido por [4]; a sua extens˜ao para problemas com ru´ıdo aditivo, desenvolvido em [17]; e para sistemas com ru´ıdo multiplicativo desenvolvido por [7].

Almejando implementar computacionalmente uma adapta¸c˜ao do m´etodo variacional para SLSM sem observa¸c˜ao da vari´avel θ(k) utilizando a estrat´egia de atualiza¸c˜ao simultˆanea de dois ganhos consecutivos a cada itera¸c˜ao variacional, apresentamos as derivadas de primeira e segunda ordem da fun¸c˜ao custo de T est´agios.

O artigo est´a organizado da seguinte maneira: na Se¸c˜ao 2 s˜ao apresentados os conceitos preliminares e na Se¸c˜ao 3 as derivadas de primeira e segunda ordem da fun¸c˜ao custo de T est´agios. Conclus˜oes e perspectivas de trabalhos futuros encontram-se na Se¸c˜ao 4.

(2)

2

Conceitos preliminares

Seja N um inteiro positivo, Mm,n (Mn) o espa¸co de todas as matrizes reais com dimens˜ao m x n (n x n) e Sm,n(Sn) o espa¸co de todas as N-sequˆencias de matrizes reais com dimens˜ao m x n (n x n). Temos que um SLSM possui a seguinte formula¸c˜ao:

( x(k + 1) = Aθ(k)x(k) + Bθ(k)u(k) + Gθ(k)w(k), y (k) = x (k)0Cθ(k)x (k) + u (k) 0 Dθ(k)u (k) , (1)

onde o par (x, θ) determina o estado do sistema, y(k) ´e o chamado custo por est´agio, u(k) ´e o con-trole e w(k) ´e um vetor aleat´orio, independente, com m´edia zero e covariˆancia fixada. Assumimos co-nhecidos A = {A1, A2, . . . , AN} ∈ Sn, B = {B1, B2, . . . , BN} ∈ Sn,m, C = {C1, C2, . . . , CN} ∈ Sn, D = {D1, D2, . . . , DN} ∈ Sm e G = {G1, G2, . . . , GN} ∈ Sm,n, sendo Ci sim´etrica e semi-definida posi-tiva e Di sim´etrica e definida positiva, para i ∈ N . Quando θ(k) = i, Aθ(k) = Ai ∈ Mn e similarmente para as demais matrizes em (1).

Definiremos K como sendo o espa¸co de parˆametros; N = {1, 2, · · · , N } um conjunto finito, como o espa¸co de estado da vari´avel θ(k), onde θ(k) = i, com i ∈ N e k ∈ K; e Θ = {θ(k), k ∈ K}, como o espa¸co de estado. Definiremos tamb´em θ(k) como sendo a vari´avel de estado da cadeia de Markov; P = [pij], onde i, j ∈ N , sua matriz de probabilidade de transi¸c˜ao de i para j, com pij = P r{θ(t + 1) = j|θ(t) = i} e

PN

j=1pij= 1; e π(k) = [π1(k), · · · , πN(k)], com πi(k) = P r{θ(k) = i}, i ∈ N , o vetor de distribui¸c˜ao de probabilidade ap´os k-passos, que pode ser determinado plea equa¸c˜ao de Chapman-Kolmogorov: π(k) = π(0)Pk.

Defini¸c˜ao 1 Para quaisquer V, U ∈ Sr, com U formado por matrizes semi-definidas positivas, definimos os operadores lineares E , LV e τV e a sequˆencia de matrizes Σ(k) da seguinte maneira:

Ei(U ) = N X j=1 pijUj, LV,i(U ) = Vi0Ei(U )Vi, τV,i(U ) = N X j=1 pijVjUjVj0, Σi(k) = N X j=1 pijπj(k)GjG0j, (2) e, tamb´em, τ0 V(U ) = U e τ (t) V (U ) = τV(τ (t−1) V (U )) para t ≥ 1. Defini¸c˜ao 2 Seja Xi(k) = E{x(k)x0(k)1θ(k)=i}, para i ∈ N , em que k ∈ K, e 1{ξ} ´e a fun¸c˜ao indicadora do conjunto ξ.

O resultado a seguir ´e bem conhecido; veja, por exemplo, [17], e fundamental para o desenvolvimento do m´etodo variacional encontrado na literatura.

Lema 1 Dada uma sequˆencia de matrizes semi-definidas positivas C ∈ Sr, temos que vale a seguinte regra: E{x0(k)Cθ(k)x(k)} = N X i=1 tr{CiXi(k)} = hX(k), Ci, ∀k ∈ K. (3)

Sendo a vari´avel de salto θ(k) n˜ao observada, consideraremos que o controle n˜ao ser´a fun¸c˜ao desta vari´avel. Al´em disso, assumiremos tamb´em a realimenta¸c˜ao linear de estado da seguinte forma: u(k) = g(k)x(k), onde g(k) ´e denominada matriz de ganho, para k ≥ 0. Denotando A + Bg(k) = {(A1+ B1g(k)), . . . , (AN+ BNg(k))}, temos a seguinte proposi¸c˜ao, apresentada em [2], que facilita o c´alculo de X(k).

Proposi¸c˜ao 1 Considere V (k) ∈ Sr, um conjunto de matrizes semi-definidas positivas, definido como: (

Vi(k + 1) = τA+Bg(k)(Vi(k)) + Σi(k) k ≥ 0, Vi(0) = V ∈ Sr.

Ent˜ao, fazendo Vi(0) = πi(0)x(0)x0(0), i ∈ N , temos: Vi(k) = Xi(k), k ≥ 0. Neste trabalho consideramos o custo de T est´agios dado por:

JT = T −1 X

k=0

(3)

Utilizando (3) temos, ∀k ∈ K: JT = T −1 X k=0 hX(k), C + g0(k)Dg(k)i. (5)

A partir de todos esses resultados obtemos o nosso problema de otimiza¸c˜ao formulado da seguinte maneira: min g JT = T −1 X k=0 hX(k), C + g0(k)Dg(k)i. s.a : ( X(k) = τA+Bg(k)(X(k − 1)) + Σ(k − 1), X(0) = π(0)x(0)x0(0), (6)

que consiste em encontrar uma sequˆencia de matriz de ganhos g = {g(0), g(1), ..., g(T − 2)}, minimizando o ´ındice de desempenho.

Proposi¸c˜ao 2 Para E , L apresentadas em (2), definem-se L(k) ∈ Sr e w(k) ∈ S1 como:

Li(k) = Ci+ g0(k)Dig(k) + LA+Bg(k)(L(k + 1)), (7)

wi(k) = E (w(k + 1)) + T r{E (L(k + 1))GiG0i}, (8)

sendo Li(T ) = 0 e wi(T ) = 0, i ∈ N . Com isso, temos a seguinte identidade: T −1

X

k=k0

E{yk} = hL(k0), X(k0)i + π(k0)0w(k0). (9)

3

Resultados

Pretendemos, como j´a mencionamos, propor uma adapta¸c˜ao do m´etodo variacional em que passamos a calcular dois ganhos simultaneamente, ao inv´es de calcula-los separadamente como no m´etodo j´a existente na literatura. Mais detalhadamente, temos que o m´etodo inicia com uma sequˆencia de ganhos g = {g(0), ..., g(T − 2)}, e em cada itera¸c˜ao atualiza-se toda esta sequˆencia, atrav´es de sub-itera¸c˜oes nas quais mant´em-se fixos todos os ganhos exceto g(k) e g(k + 1), os quais s˜ao calculados por:

{g∗(k), g(k + 1)} = argmin

g(k),g(k+1)JT.

Teorema 1 {g∗(k), g∗(k + 1)} = argming(k),g(k+1)hX(k), L(k)i, sendo que L(k) pode ser calculado por (7) em fun¸c˜ao de g(k), g(k + 1) e L(k + 2).

Demonstra¸c˜ao: Por defini¸c˜ao temos que JT = P T −1

k=0hX(k), C + g0(k)Dg(k)i, dado pela Equa¸c˜ao (5), logo: JT = k−1 X m=0 hX(m), C + g0(m)Dg(m)i + hX(k), C + g0(k)Dg(k)i+ hX(k + 1), C + g0(k + 1)Dg(k + 1)i + T −1 X m=k+2 hX(m), C + g0(m)Dg(m)i.

Utilizando (9), onde π(k0)0w(k0) = V (k0) = hΣ(k0), L(k0+ 1)i + V (k0+ 1), X(k) = X0(k) e L(k) = L0(k) temos: JT = k−1 X m=0 hX(m), C + g0(m)Dg(m)i + hX(k), C + g0(k)Dg(k)i+ hX(k + 1), C + g0(k + 1)Dg(k + 1)i + hX(k + 2), L(k + 2)i + V (k + 2).

Sabendo que hX(k + 1), L(k + 1)i = hX(k), L(L(k + 1))i + hΣ(k), L(k + 1)i e que L(k + 2) e Σ(k) s˜ao dados; utilizando a Equa¸c˜ao (7) e somando os termos conhecidos chegamos a:

JT = hX(k), L(k)i + ˜V (k), sendo ˜V (k) =Pk−1

m=0hX(m), C + g0(m)Dg(m)i + V (k). Portanto, minimizar JT ´e equivalente a minimizar hX(k), L(k)i.

(4)

Para a implementa¸c˜ao computacional desta proposta pretendemos utilizar m´etodos de dire¸c˜ao de descida, como o m´etodo de Newton e o m´etodo de gradiente. Para isso desenvolvemos o c´alculo do gradiente e da hessiana da fun¸c˜ao custo de T est´agios, apresentados a seguir.

Teorema 2 A derivada do custo de T est´agios, JT, em rela¸c˜ao aos ganhos, ∇JT =  ∂JT ∂g(k), ∂JT ∂g(k + 1) 

pode ser calculada por: ∂JT ∂g(k) = N X i=1 N X j=1 pij(Bi0Ei(C)Ai+ Bi0A0jEj(L)AjAi+ Dig(k) + Bi0Ei(C)Big(k)+ B0ig0(k + 1)Djg(k + 1)Ai+ Bi0g 0(k + 1)B0 jEj(L)AjAi+ Bi0A 0 jEj(L)Bjg(k + 1)Ai+ B0ig0(k + 1)B0jEj(L)Bjg(k + 1)Ai+ Bi0g0(k + 1)Djg(k + 1)Big(k) + Bi0A0jEj(L)AjBig(k)+ B0iA0jEj(L)Bjg(k + 1)Big(k) + B0ig0(k + 1)Bj0Ej(L)AjBig(k)+ B0ig0(k + 1)B0jEj(L)Bjg(k + 1)Big(k))Xi(k), (10) ∂JT ∂g(k + 1) = N X i=1 N X j=1 pij(Djg(k + 1)AiXi(k)A0i+ B 0

jEj(L)AjAiXi(k)Ai0+ Djg(k + 1)Big(k)Xi(k)A0i+

Bj0Ej(L)Bjg(k + 1)AiXi(k)A0i+ B 0

jEj(L)AjBig(k)Xi(k)A0i+ Djg(k + 1)AiXi(k)g0(k)Bi0+ Bj0Ej(L)Bjg(k + 1)Big(k)Xi(k)A0i+ B 0 jEj(L)AjAiXi(k)g0(k)B0i+ Bj0Ej(L)AjBig(k)Xi(k)g0(k)Bi0+ Bj0Ej(L)Bjg(k + 1)AiXi(k)g0(k)Bi0+ Djg(k + 1)Big(k)Xi(k)g0(k)Bi0+ B0jEj(L)Bjg(k + 1)Big(k)Xi(k)g0(k)Bi0), (11) sendo L = L(k + 2) ´e conhecido.

Demonstra¸c˜ao: Pelo Teorema 1 temos que minimizar JT ´e equivalente a minimizar hX(k), L(k)i, portanto nossa prova se resumir´a em desenvolver hX(k), L(k)i a fim de obtermos apenas termos conhecidos e as inc´ognitas do problema, g(k) e g(k + 1). Para isso utilizaremos E , L apresentadas em (2) e a Equa¸c˜ao (7). hX(k),L(k)i = N X i=1 T r{Xi(k)Li(k)} = N X i=1 T r{Xi(k)[Ci+ g0(k)Dig(k) + Li(L(k + 1))]} = N X i=1 T r{Xi(k)[Ci+ g0(k)Dig(k) + (Ai+ Big(k))0Ei(L(k + 1))(Ai+ Big(k))]} = N X i=1 T r{Xi(k)[Ci+ g0(k)Dig(k) + (Ai+ Big(k))0Ei(C + g0(k + 1)Dg(k + 1)+ L(L(k + 2)))(Ai+ Big(k))]} = N X i=1 T r{Xi(k)[Ci+ g0(k)Dig(k)+ (Ai+ Big(k))0Ei(C + g0(k + 1)Dg(k + 1)+

(A + Bg(k + 1))0E(L(k + 2))(A + Bg(k + 1)))(Ai+ Big(k))]}.

(12)

Note que h´a uma vari´avel de interesse dentro operador Ei, logo ´e necess´ario expandir esse termo seguindo a equa¸c˜ao de E apresentadas em (2). Por fim, depois de realizadas todas as distributivas existentes na

(5)

Equa¸c˜ao (12), obtemos a seguinte forma equivalente: N X i=1 N X j=1 T r{Xi(k)[Ci+ g0(k)Dig(k) + A0iEi(C)Ai+ A0iEi(C)Big(k) + g0(k)Bi0Ei(C)Ai+ g0(k)Bi0Ei(C)Big(k) + A0ig0(k + 1)Djg(k + 1)Ai+ A0ig0(k + 1)Djg(k + 1)Big(k)+ A0iA0jEj(L)AjAi+ A0iA0jEj(L)Bjg(k + 1)Ai+ A0ig0(k + 1)Bj0Ej(L)AjAi+

A0ig0(k + 1)Bj0Ej(L)Bjg(k + 1)Ai+ A0iA 0 jEj(L)AjBig(k) + A0iA 0 jEj(L)Bjg(k + 1)Big(k)+ A0ig0(k + 1)Bj0Ej(L)AjBig(k) + A0ig 0(k + 1)B0 jEj(L)Bjg(k + 1)Big(k)+ g0(k)Bi0g0(k + 1)Djg(k + 1)Ai+ g0(k)B0ig0(k + 1)Djg(k + 1)Big(k)+ g0(k)Bi0A0jEj(L)AjBig(k) + g0(k)Bi0A 0 jEj(L)Bjg(k + 1)Big(k)+ g0(k)Bi0g0(k + 1)B0jEj(L)AjBig(k) + g0(k)B0ig 0(k + 1)B0 jEj(L)Bjg(k + 1)Big(k)+ g0(k)Bi0A0jEj(L)AjAi+ g0(k)Bi0A0jEj(L)Bjg(k + 1)Ai+ g0(k)Bi0g0(k + 1)Bj0Ej(L)AjAi+ g0(k)Bi0g0(k + 1)B0jEj(L)Bjg(k + 1)Ai]},

(13)

onde L = L(k + 2) ´e conhecido.

Note que, o resultados desta fun¸c˜ao ´e um escalar devido a presen¸ca do operador tra¸co, por´em lembre-se que tanto g(k) quanto g(k + 1) s˜ao matrizes e por isso necessitamos de algumas regras para a derivada do tra¸co de uma matriz com respeito a uma matriz real. Essas regras, e outras, podem ser encontradas em [8]. ∂T r(M P ) ∂P = M 0, ∂T r(M P N ) ∂P = M 0N0, ∂T r(M P0N ) ∂P = N M, ∂T r(M P0N P ) ∂P = N 0P M0+ N P M, ∂T r(M P0N P O) ∂P = N 0P M0O0+ N P CM. (14)

Derivando a Equa¸c˜ao (13) em rela¸c˜ao a g(k), utilizando as regras descritas nas Equa¸c˜oes (14), obtemos ∂JT

∂g(k) como em (10) e, da mesma forma, derivando a Equa¸c˜ao (13) em rela¸c˜ao a g(k + 1) obtemos ∂JT

∂g(k + 1) como em (11).

Para a demonstra¸c˜ao do pr´oximo teorema necessitamos de alguns resultados. Estes s˜ao regras de deriva¸c˜ao de matriz em rela¸c˜ao a matriz que n˜ao encontramos na literatura. Devido a restri¸c˜ao de espa¸co a seguinte demonstra¸c˜ao ser´a omitida.

Lema 2 ∂M P0N ∂P = (N 0⊗ M )T, ∂M P0N P O ∂P = (O 0P0N0⊗ M )T + (O0⊗ M P0N ), ∂M P N P0O ∂P = (O 0P N0⊗ M ) + (O0⊗ M P N )T, (15)

onde M , P , N , O e T s˜ao matrizes, e T vec(P ) = vec(P0).

Teorema 3 A matriz hessiana da fun¸c˜ao custo de T est´agios, JT, em rela¸c˜ao aos ganhos,

HJT =     ∂2JT ∂2g(k) ∂2JT ∂g(k + 1)g(k) ∂2J T ∂g(k)g(k + 1) ∂2J T ∂2g(k + 1)    

pode ser calculada por:

∂2J T ∂2g(k)= N X i=1 N X j=1 pij(Xi⊗ Di+ Xi⊗ B0iEi(C)Bi+ Xi⊗ Bi0g0(k + 1)Djg(k + 1)Bi+ Xi⊗ Bi0A0jEj(L)AjBi+ Xi⊗ Bi0A0jEj(L)Bjg(k + 1)Bi+ Xi⊗ Bi0g0(k + 1)Bj0Ej(L)AjBi+ Xi⊗ Bi0g0(k + 1)B0jEj(L)Bjg(k + 1)Bi),

(6)

∂2JT ∂g(k)g(k + 1) = N X i=1 N X j=1 pij((XiA0ig 0(k + 1)D j⊗ Bi0)Ts,r+ XiA0i⊗ B 0 ig 0(k + 1)D j+ (XiA0iA0jEj(L)Bj⊗ Bi0)Ts,r+ (XiA0ig0(k + 1)Bj0Ej(L)Bj⊗ B0i)Ts,r+ XiA0i⊗ B 0 iA 0 jEj(L)Bj+ XiA0i⊗ B 0 ig 0(k + 1)B0 jEj(L)Bj+ (Xig0(k)B0ig 0(k + 1)D j⊗ Bi0)Ts,r+ Xig0(k)Bi0⊗ B 0 ig 0(k + 1)D j+ Xig0(k)Bi0⊗ Bi0A0jEj(L)Bj+ (Xig0(k)Bi0A0jEj(L)Bj⊗ B0i)Ts,r+ (Xig0(k)B0ig 0(k + 1)B0 jEj(L)Bj⊗ Bi0)Ts,r+ Xig0(k)Bi0⊗ B 0 ig 0(k + 1)B0 jEj(L)Bj), ∂2JT ∂g(k + 1)g(k)= N X i=1 N X j=1 pij(AiXi⊗ Djg(k + 1)Bi+ AiXi⊗ Bj0Ej(L)AjBi+ (Bi⊗ Bj0Ej(L)AjAiXi)Ts,r+ AiXi⊗ Bj0Ej(L)Bjg(k+0)Bi+ (Bi⊗ Djg(k + 1)AiXi)Ts,r+ Big(k)Xi⊗ B0jEj(L)AjBi+ (Bi⊗ B0jEj(L)Bjg(k + 1)AiXi)Ts,r+ (Bi⊗ Djg(k + 1)Big(k)Xi)Ts,r+ (Bi⊗ B0jEj(L)AjBig(k)Xi)Ts,r+ Big(k)Xi⊗ B0jEj(L)Bjg(k + 1)Bi+ (Bi⊗ Bj0Ej(L)Bjg(k + 1)Big(k)Xi)Ts,r), ∂2J T ∂2g(k + 1) = N X i=1 N X j=1 pij(AiXiAi⊗ Dj+ AiXig0(k)Bi0⊗ Dj+ AiXiA0i⊗ B 0 jEj(L)Bj+ Big(k)XiBi0⊗ Dj+ AiXig0(k)B0i⊗ B 0 jEj(L)Bj+ Big(k)XiAi0⊗ Dj+ Big(k)XiA0i⊗ B 0 jEj(L)Bj+ Big(k)Xig0(k)Bi0⊗ B 0 jEj(L)Bj),

sendo Ts,r tal que Ts,rvec(g) = vec(g0), e L = L(k + 2) conhecido.

Demonstra¸c˜ao: Para essa demonstra¸c˜ao ´e necess´ario apenas que apliquemos as regras de deriva¸c˜ao de matrizes em rela¸c˜ao a uma matriz descritas em (15) e ∂M P N

∂P = (N

0 ⊗ M ), que pode ser facilmente encontrada na literatura. A cada derivada parcial basta considerar um dos ganhos conhecidos, logo torna-se a derivada de uma matriz em rela¸c˜ao a uma matriz.

4

Conclus˜

oes e trabalhos futuros

Neste artigo apresentamos as derivadas de primeira e segunda ordem da fun¸c˜ao custo de T est´agio visando implementar um m´etodo variacional em que se atualizam dois ganhos em cada sub-itera¸c˜ao, conforme explicado na Se¸c˜ao 3. Estes resultados se fazem necess´arios para o andamento da proposta de trabalho que consiste em implementar computacionalmente m´etodos de dire¸c˜ao de descida, como o m´etodo de Newton e o m´etodo de gradiente para o c´alculo da sub-itera¸c˜ao.

Como trabalho futuro pretendemos implementar os m´etodos acima citados e realizar uma an´alise estat´ısticas dos resultados obtidos, comparando-os com outros encontrados na literatura. Tamb´em con-sideramos interessante implementar vers˜oes h´ıbridas como, por exemplo, usar o m´etodo variacional da literatura nas primeiras itera¸c˜oes e finalizar com nosso m´etodo (com Newton para o c´alculo das sub-itera¸c˜oes).

Referˆ

encias

[1] D. C. BORTOLIN. M´etodos num´ericos para o controle linear quadr´atico com saltos e observa¸c˜ao parcial de estado. Master’s thesis, Instituto de Ciˆencias Matem´aticas e de Computa¸c˜ao, Universidade de S˜ao Paulo, S˜ao Carlos, SP, 2012.

[2] O. L. V. COSTA, M. D. FRAGOSO, and R. P. MARQUES. Discrete-time markovian jump linear systems. Springer-Verlag, 2005.

(7)

[3] C. E. DE SOUZA, A. TROFINO, and K. A. BARBOSA. Mode-independent H-infinity filters for markovian jump linear systems. IEEE Transactions on Automatic Control, 51(11):1837 – 1841, 2006. [4] J. DO VAL and T. BASAR. Receding horizon control of jump linear systems and a macroeconomic

policy problem. Journal of Economic Dynamics & Control, 23:1099 – 1131, 1999.

[5] J. B. R. DO VAL and E. F. COSTA. Numerical solution for the linear-quadratic control problem of Markov jump linear systems and a weak detectability concept. Journal of Optimization Theory and Applications, 114(1):69 – 96, 2002.

[6] V. DRAGAN and T. MOROZAN. Exponential stability in mean square for a general class of

discrete-time linear stochastic systems. Journal of Stochastic Analysis and Applications, 26(3):495 – 525, 2008.

[7] W. FURLONI. Controle por horizonte retrocedente finito com restri¸c˜oes de sistemas lineares discre-tos com saldiscre-tos markovianos. Master’s thesis, Faculdade de Engenharia El´etrica e de Computa¸c˜ao, Universidade Estadual de Campinas, Campinas, SP, 2009.

[8] M. JOHO. A systematic approach to adaptive algorithms for multichannel system identification, inverse modeling, and blind identification. PhD thesis, Swiss Federal Institute of Technology, 2000. [9] A. OLIVEIRA. Controle ´otimo de sistemas lineares com saltos Markovianos e ru´ıdos multiplicativos sob crit´erio de m´edia variˆancia ao longo do tempo. PhD thesis, Escola Polit´ecnica da Universidade de S˜ao Paulo, Departamento de Engenharia de Telecomunica¸c˜oes e Controle, 2011.

[10] J. RAOUF and E. BOUKAS. Stabilization of discontinuous singular systems with markovian swit-ching and saturating inputs. Number 1, pages 2442 – 2447, 2007.

[11] G. N. SARIDIS. Intelligent robotic control. IEEE Transactions on Automatic Control, 28:547 – 557, 1983.

[12] C. A. SILVA. Algoritmos para o custo m´edio a longo prazo de sistemas com saltos markovianos parci-almente observados. PhD thesis, Instituto de Ciˆencias Matem´aticas e de Computa¸c˜ao, Universidade de S˜ao Paulo, S˜ao Carlos, SP, 2012.

[13] A. A. G. SIQUEIRA and M. H. TERRA. Nonlinear and markovian H∞-controls of underactuated manipulators. IEEE Transactions on Control System Technology, 12:811 – 826, 2004.

[14] B. L. STEVENS and F. L. LEWIS. Aircraft Modeling, Dynamics and Control. Wiley, New York, 1991.

[15] D. D. SWORDER and R. O. ROGERS. An LQ-solution to a control problem associated with a solar thermal central receiver. IEEE Transactions on Automatic Control, 28(10):971 – 978, 1983. [16] M. G. TODOROV and M. D. FRAGOSO. Output feedback H∞ control of continuous-time infinite

markovian jump linear system via LMI methods. SIAM Journal on Control and Optimization,

47(2):950 – 974, 2008.

[17] A. N. VARGAS. Controle por horizonte retrocedente de sistemas lineares com saltos markovianos e ru´ıdo aditivo. Master’s thesis, Faculdade de Engenharia El´etrica e de Computa¸c˜ao, Universidade Estadual de Campinas, SP, 2004.

Referências

Documentos relacionados

A partir da junção da proposta teórica de Frank Esser (ESSER apud ZIPSER, 2002) e Christiane Nord (1991), passamos, então, a considerar o texto jornalístico como

F REQUÊNCIAS PRÓPRIAS E MODOS DE VIBRAÇÃO ( MÉTODO ANALÍTICO ) ... O RIENTAÇÃO PELAS EQUAÇÕES DE PROPAGAÇÃO DE VIBRAÇÕES ... P REVISÃO DOS VALORES MÁXIMOS DE PPV ...

As questões acima foram a motivação para o desenvolvimento deste artigo, orientar o desenvol- vedor sobre o impacto que as cores podem causar no layout do aplicativo,

Os principais objectivos definidos foram a observação e realização dos procedimentos nas diferentes vertentes de atividade do cirurgião, aplicação correta da terminologia cirúrgica,

psicológicos, sociais e ambientais. Assim podemos observar que é de extrema importância a QV e a PS andarem juntas, pois não adianta ter uma meta de promoção de saúde se

A este tipo de ligações dá-se o nome de complexo lenhina- polissacarídeos (LCC). A lenhina é covalentemente associada à hemicelulose na parede celular por numerosos tipos

O Design Thinking Canvas para jogos veio mostrar que é possível pensar em competitividade na concepção de artefatos, sem abrir mão da simplicidade, da

Nesta estatística não se incluíram as duas barragens de origem romana não confirmada... - no que respeita ao tipo de