• Nenhum resultado encontrado

Vis˜ao Geral do Algoritmo Iterativo Proposto e o Custo Computa-

5.3 Uma Equac¸˜ao Diferencial para o Modelo de Markov oculto

5.4.6 Vis˜ao Geral do Algoritmo Iterativo Proposto e o Custo Computa-

O seguinte algoritmo pode ser usado para obter, iterativamente, as soluc¸˜oes das Equac¸˜oes 5.33 e 5.43:

1. Calcule a soluc¸˜ao inicial dada pelo sistema de equac¸˜oes: dw(y) dy = RQ Tw(y) com w(0)(y) = X ∀i∈S aiφieλiy

sendo λi o i-´esimo autovalor da matriz RQT com o seu autovetor φi correspon-

dente;

2. Calcule as constantes de integrac¸˜ao α(k, l)

j (y)a partir da aplicac¸˜ao das condic¸˜oes de

contorno nos |R| sistemas de equac¸˜oes lineares: w(k, l)(y) = e(−Λrl )y X ∀j∈S (αljϕlj) +  rl Λ  [RlQTw(k−1)(y)] + (w(k−1)(y) • γl);

3. Calcule os elementos dos vetores ρ(k) j (y)e %

(k)

j (y), atrav´es da aplicac¸˜ao das condic¸˜oes

de contorno na Equac¸˜ao 5.43;

4. Calcule w(k)(y), a partir de w(k−1)(y), usando a seguinte equac¸˜ao:

w(k)(y) = D1ρ1+ ΛyD1Ψ1R X ∀l X ∀j (αl jϕlj)e( −Λ rl y) + [ΩlQTw(k−1)(y) + Γlw(k−1)(y)] ! − Λy(D1Ψ1) ( X ∀l " X ∀j∈S (αjlϕlj) e(−Λrl y) rl ! + [Ω lQTw(k−1)(y) − Γlw(k−1)(y)] rl #) +X ∀i6=1 Di%i − ΛX ∀i6=1 (DiΥiR) X ∀l X ∀j

(αljϕlj)e(−Λrl y) + [ΩlQTw(k−1)(y) + Γlw(k−1)(y)]

! + ΛX ∀i6=1 (DiΥi) ( X ∀l " X ∀j∈S (αljϕlj)e( −Λ rl y) rl ! +[Ω lQTw(k−1)(y) + Γlw(k−1)(y)] rl #) ; (5.44) 5. Retorne ao passo 2, caso o crit´erio de parada n˜ao seja alcanc¸ado.

Em relac¸˜ao ao algoritmo proposto, a primeira quest˜ao a ser detalhada refere-se ao crit´erio de parada utilizado. Diversos paradigmas podem ser considerados, como n´umero total de iterac¸˜oes realizadas, erro absoluto entre iterac¸˜oes, entre outras [132]. Por exem- plo, considerar o crit´erio do n´umero total de iterac¸˜oes pode interromper o algoritmo de maneira prematura, gerando resultados distantes do real, principalmente quando a taxa de convergˆencia do algoritmo iterativo ´e muito lenta. Para a vers˜ao do algoritmo proposto neste trabalho, consideramos como crit´erio de parada a an´alise do m´aximo erro absoluto entre duas iterac¸˜oes consecutivas.

A segunda quest˜ao que deve ser abordada quando algoritmos iterativos s˜ao propostos, refere-se a convergˆencia. Por exemplo, os m´etodos iterativos Gauss-Seidel, Jacobi, Power, SOR entre outros, convergem para o vetor de distribuic¸˜ao de probabilidades em estado estacion´ario π sob certas condic¸˜oes estabelecidas. Vale ressaltar que a convergˆencia de um m´etodo iterativo n˜ao significa que este produza a resposta exata do sistema em estudo, mas, simplesmente que este n˜ao oscila entre soluc¸˜oes distintas, ou, adicionalmente, que a soluc¸˜ao n˜ao muda de valor indefinidamente.

A an´alise de convergˆencia do algoritmo proposto foi realizada de forma emp´ırica. Em todos os 96 testes feitos, o algoritmo convergiu, para uma soluc¸˜ao aproximada da soluc¸˜ao

exata do modelo. Diferentemente do cap´ıtulo 4, n˜ao estabelecemos limites superior e inferior para o resultado aproximado.

Ainda sobre a an´alise de convergˆencia, em menos de 10% dos casos , a soluc¸˜ao apro- ximada n˜ao resultou em uma distribuic¸˜ao de probabilidades, devido a erros num´ericos na determinac¸˜ao das condic¸˜oes de contorno. Por exemplo, a alguns n´ıveis de recompensa foram associados resultados negativos, ou em alguns casos as func¸˜oes geradas n˜ao eram monotˆonicas crescentes em func¸˜ao de y, propriedade da func¸˜ao distribuic¸˜ao de probabili- dade acumulada. A caracter´ıstica em comum em todos estes casos era que as recompensas emitidas em um determinado estado diferiam em valores onde a maior recompensa era uma ordem de magnitude superior que a menor recompensa. Para alguns casos, defini- mos novos estados para agrupar recompensas da mesma ordem de grandeza. No entanto, maiores investigac¸˜oes devem ser feitas para analisar a relac¸˜ao entre os valores atribu´ıdos `as recompensas e os problemas num´ericos ocorridos.

Acoplada a quest˜ao da convergˆencia do m´etodo iterativo, est´a a quest˜ao da rapidez de convergˆencia. M´etodos tradicionais como os citados nos par´agrafos anteriores possuem taxa de convergˆencia proporcional ao m´odulo do autovalor subdominante da matriz de transic¸˜ao de probabilidades P. Quanto mais pr´oximo este valor ´e de 1, que ´e o raio espectral da matriz P, mais lentamente o algoritmo converge para o resultado final.

Conforme mostraremos na Sec¸˜ao 5.5, estudos emp´ıricos mostraram uma forte correla- c¸˜ao entre o total de iterac¸˜oes realizadas pelo algoritmo proposto e a maior ordem dos autovalores do modelo em estudo. A identificac¸˜ao de condic¸˜oes para a convergˆencia ou n˜ao do algoritmo, bem como a rapidez desta convergˆencia s˜ao t´opicos para pesquisas futuras.

O ´ultimo t´opico a ser abordado ´e o custo computacional, em total de multiplicac¸˜oes, do algoritmo proposto. Para tal, iremos apresentar o custo para cada uma das etapas do algoritmo descrito no in´ıcio desta sec¸˜ao. Iremos considerar que o custo computacional para o c´alculo dos autovalores e autovetores ´e de 10M3 multiplicac¸˜oes, que a soluc¸˜ao de

sistemas lineares ´e da ordem de M3 multiplicac¸˜oes, sendo M a dimens˜ao das matrizes

envolvidas. Assim:

1. Para o c´alculo da soluc¸˜ao inicial, devemos definir os autovalores e autovetores de uma matriz da ordem |S|, com um custo total de 10|S|3 multiplicac¸˜oes;

2. Para o c´alculo das constantes de integrac¸˜ao α(k,l)

j (y)s˜ao necess´arias c(|S|2+ |S|) +

est´a sendo calculada;

3. Para o c´alculo dos elementos dos vetores ρj e %j, deve-se resolver c sistemas lin- eares, com total de multiplicac¸˜oes da ordem de |S|3.

4. Para obter a soluc¸˜ao da Equac¸˜ao 5.43, que tamb´em ´e utilizada para obter as con- stantes de integrac¸˜ao na etapa 3, s˜ao necess´arias c(2|S|3+|S|2+|R||S|)multiplica-

c¸˜oes. O fato de manipulac¸˜ao de matrizes diagonais e vetores, reduz a complexidade computacional de maneira significativa.

Assim, a equac¸˜ao de custo para o algoritmo iterativo ´e de:

T = I(10|S|3+ c(|S|2+ |S|) + |R||S|2+ c(2|S|3 + |S|2 + |R||S|)),

com I denotando o n´umero total de iterac¸˜oes at´e o algoritmo atingir o crit´erio de parada utilizado.

5.5 Exemplos

Nesta sec¸˜ao apresentaremos alguns exemplos com o objetivo de avaliar quest˜oes im- portantes inerentes ao algoritmo iterativo proposto: a sua acur´acia, dado que a soluc¸˜ao retornada pelo algoritmo ´e uma aproximac¸˜ao da soluc¸˜ao real; estudo emp´ırico da taxa de convergˆencia, em n´umero total de iterac¸˜oes; e custo computacional para a obtenc¸˜ao da soluc¸˜ao. Os exemplos apresentados ser˜ao divididos em 3 classes distintas. Em todos os gr´aficos, estamos considerando a medida P [CR ≤ B−], n˜ao representando o caso em

que CR = B e recompensas positivas sendo emitidas. A probabilidade da recompensa CR = B quando s˜ao emitidas recompensas positivas foi apresentada na Sec¸˜ao 3.2.1 do Cap´ıtulo 3.

Para a an´alise da acur´acia do m´etodo, usaremos a m´etrica de erro absoluto e erro relativo. Seja P [CR ≤ x] a soluc¸˜ao exata da medida de interesse, ˆP [CR ≤ x]a soluc¸˜ao aproximada dada pelo algoritmo iterativo e ˆPI[CR ≤ x]a soluc¸˜ao inicial. O erro absoluto

da soluc¸˜ao inicial ´e dado por |P [CR ≤ x] − ˆPI[CR ≤ x]|e o erro da soluc¸˜ao aproximada

final do algoritmo ´e dado por |P [CR ≤ x] − ˆP [CR ≤ x]|. O erro absoluto m´aximo refere-se ao maior erro absoluto quando consideramos todos os n´ıveis de recompensa, para os quais a medida foi calculada, entre o limite inferior e o limite superior para a vari´avel aleat´oria CR. Similarmente, o erro relativo ´e dado por |P [CR ≤ x] − ˆPI[CR ≤

a soluc¸˜ao aproximada. O m´aximo erro relativo ´e definido similarmente a definic¸˜ao do m´aximo erro absoluto.

Na primeira classe de exemplos, mostraremos a aplicac¸˜ao do algoritmo proposto para obtenc¸˜ao da medida de interesse P [CR ≤ y] = P∀i∈SP [CR ≤ y, X = i], em uma cadeia simples com dois estados ocultos, representados pela vari´avel aleat´oria X e trˆes recompensas distintas {r1, r2, r3}, representadas pela vari´avel aleat´oria Y . O principal

objetivo desta classe de exemplos ´e mostrar o comportamento do erro absoluto com a variac¸˜ao da distribuic¸˜ao de probabilidade da emiss˜ao das recompensas em um determi- nado estado oculto, bem como com a modificac¸˜ao dos valores das recompensas sendo emitidas.

Na segunda classe de exemplos, abordaremos a influˆencia da mudanc¸a de carga no sistema5no resultado aproximado obtido atrav´es do algoritmo proposto. Consideraremos

dois tipos distintos de modelos HMM: no primeiro conjunto de cen´arios, o HMM possui 2 estados ocultos, sendo 3 recompensas emitidas. No segundo conjunto de cen´arios, ampliamos a cardinalidade de estados ocultos para 3 e de recompensas emitidas para 9.

Na terceira classe, apresentaremos um exemplo cujas as recompensas atribu´ıdas ao processo de observac¸˜ao Y pertencem ao conjunto de valores utilizados para a modelagem do canal de comunicac¸˜ao do Departamento de Engenharia de Sistemas e Computac¸˜ao COPPE/UFRJ [37]. O total de recompensas distintas emitidas ´e de |R| = 15. Para este caso, a soluc¸˜ao da medida de interesse escrita atrav´es da expans˜ao espectral de uma ma- triz de dimens˜ao 15, conforme apresentada em [5], resulta em erro num´erico, n˜ao sendo poss´ıvel obter o resultado exato atrav´es desta metodologia. O resultado exato foi calcu- lado com o m´etodo apresentado em [88], considerando diversos tempos de observac¸˜ao at´e que o sistema estivesse em equil´ıbrio. Atrav´es do algoritmo proposto, a soluc¸˜ao aproxi- mada, com boa acur´acia, foi obtida sem erros num´ericos.

Finalizando, discutiremos, brevemente, alguns resultados em relac¸˜ao a acur´acia e a taxa de convergˆencia do algoritmo proposto. Estes resultados, apesar de emp´ıricos, fornecem informac¸˜oes importantes sobre o comportamento do algoritmo proposto, e, principalmente, direc¸˜oes para que resultados anal´ıticos possam ser posteriormente defini- dos.

5Se a taxa m´edia de chegada de informac¸˜oes ´e de λ e a capacidade de servic¸o ´e de µ, temos que a carga

no sistema ´e de ρ = λ