• Nenhum resultado encontrado

M´etodo do Produto Ponderado (Weighted Product Method)

Proposto por Bridgman (1922), o M´etodo do Produto Ponderado, como o m´etodo da soma ponderada, consiste em atribuir pesos para cada objetivo de acordo com sua ordem de importˆancia. Por´em, no produto ponderado, os pesos aparecem como potˆencias e os

objetivos multiplicados uns pelos outros. A formula¸c˜ao matem´atica ´e expressa atrav´es do problema: minimizar m Y i=1 |fi|wi(x) (3.14) sujeito a x ∈ S

A utiliza¸c˜ao do m´odulo se d´a apenas para garantir que, para qualquer escolha dos pesos wi′s, a potencia¸c˜ao possa fazer sentido.

Marler e Arora (2004), em seu artigo, realizaram uma ampla pesquisa das principais estrat´egias para resolu¸c˜ao de POMO. Tanto o artigo dos autores citados quanto suas referˆencias constituem uma execelente fonte de pesquisa de estrat´egias de resolu¸c˜ao de POMO.

M´etodos Cl´assicos de Otimizac¸˜ao

Neste cap´ıtulo ser˜ao descritos os principais m´etodos cl´assicos de otimiza¸c˜ao da litera- tura bem como m´etodos de tratamento de restri¸c˜oes. Os m´etodos ser˜ao definidos para problemas mono-objetivos irrestritos, uma vez que, problemas de otimiza¸c˜ao multiobje- tivo podem ser transformados em problemas mono-objetivos atrav´es de t´ecnicas descritas com detalhes no cap´ıtulo anterior e as restri¸c˜oes s˜ao incorporadas ao objetivo atrav´es de t´ecnicas definidas no final deste cap´ıtulo. Assim, durante este cap´ıtulo e na defini¸c˜ao dos m´etodos, o problema geral de otimiza¸c˜ao considerado ´e dado por

minimizar f (x) (4.1)

sujeito a x ∈ S ⊂ Rn

4.1

Noc¸˜oes de Convergˆencia

Qualquer m´etodo proposto para resolver o problema de otimiza¸c˜ao 4.1 realiza avalia¸c˜ao da fun¸c˜ao objetivo e muitos necessitam de avalia¸c˜oes das derivadas desta fun¸c˜ao. Um m´etodo

´e chamado de m´etodo sequencial, quando cada ponto se define a partir de uma recorrˆencia (informa¸c˜oes obtidas) aos pontos anteriores. Segundo Izmailov e Solodov (2007) a maioria dos m´etodos cl´assicos de otimiza¸c˜ao s˜ao do tipo sequenciais. H´a tamb´em os m´etodos ditos m´etodos passivos onde os pontos s˜ao obtidos atrav´es de uma estrat´egia pr´e-definida e n˜ao leva em considera¸c˜ao informa¸c˜oes obtidas ao longo do processo iterativo. Os m´etodos sequenciais s˜ao mais eficientes do que os m´etodos passivos (IZMAILOV;SOLODOV, 2007).

Um m´etodo sequencial gera uma sequˆencia {xk}k∈Nem S que ´e chamada de aproximac¸˜oes

`a solu¸c˜ao do problema, ou de iterandos do m´etodo. A gera¸c˜ao do ponto xk+1 a partir de

xk ´e chamada de iterac¸˜ao do m´etodo e os detalhes de como se obtem xk+1 a partir de xk

constituem a natureza do m´etodo. Frequentemente, m´etodos s˜ao descritos em forma de um processo iterativo da seguinte forma:

xk+1 = ϕ(xk), k = 0, 1, 2, · · · , (4.2)

onde ϕ : Rn→ Rn

Naturalmente sup˜oe-se que o operador ϕ ´e conhecido e normalmente depende de ava- lia¸c˜oes da fun¸c˜ao objetivo e/ou da sua derivada nos pontos da sequˆencia gerada. Fixada uma escolha de um semente inicial x0 ∈ S, ent˜ao o processo iterativo 4.2 define uma ´unica

sequˆencia de solu¸c˜oes {xk}k∈N dada por

x1 = ϕ(x0), x2 = ϕ(x1), x3 = ϕ(x2), · · · , xn = ϕ(xn−1), · · · , (4.3)

O esquema descrito em 4.2 ´e dito sem mem´oria. H´a tamb´em processos iterativos com mem´oria, onde a itera¸c˜ao xk+1 depende n˜ao somente de xk, mas tamb´em de outros pontos

da sequˆencia. Um exemplo de processos iterativos com mem´oria ´e a famosa sequˆencia de Fibonacci, onde os pontos x0 e x1 s˜ao 0 e 1, respectivamente, e cada termo posterior ´e

dado pela soma dos dois anteriores (SIGLER, 2002).

A ordem de um m´etodo ´e a m´axima ordem das derivadas da fun¸c˜ao objetivo do pro- blema de otimiza¸c˜ao. Por exemplo, um m´etodo que se baseia apenas em avalia¸c˜oes da fun¸c˜ao objetivo ´e chamado de m´etodo de ordem zero, pois n˜ao faz uso da derivada. Um m´etodo que utiliza derivada primeira (segunda) do objetivo ´e dito m´etodo de primeira (se- gunda) ordem.

H´a m´etodos de convergˆencia finita, isto ´e, a sequˆencia dos iterados xk convergem para

a solu¸c˜ao do problema de otimiza¸c˜ao 4.1 para um valor de k finito. Por´em algoritmos com esta propriedade existem apenas para problemas bastante simples, como problemas de programa¸c˜ao linear e de programa¸c˜ao quadr´atica. Em geral, as aplica¸c˜oes em enge- nharia conduzem a problemas n˜ao lineares bastante complexos e os m´etodos para estes problemas s˜ao de convergˆencia assint´otica, isto ´e, quanto maior o n´umero de itera¸c˜oes mais pr´oxima a sequˆencia dos iterados estar´a da solu¸c˜ao do problema de otimiza¸c˜ao. Em termos matem´aticos a convergˆencia assint´otica pode ser escrita da seguinte forma:

Definic¸˜ao 4.1. Seja x∗ uma soluc¸˜ao do problema de otimizac¸˜ao 4.1. Diz-se que a sequˆencia

{xk}k∈N, converge parax∗, se para todoǫ > 0 dado, existe um ´ındice k0 tal que

||xk− x∗|| < ǫ, para todo k > k0. (4.4)

A nota¸c˜ao utilizada para denotar que a sequˆencia {xk}k∈N converge para a solu¸c˜ao x∗

´e

lim

k→∞xk= x

, ou simplificadamente, x

Pode-se ter tamb´em convergˆencia em rela¸c˜ao `a fun¸c˜ao objetivo, isto ´e, f (xk) → f∗

onde f∗ ´e o valor ´otimo do problema. Por´em este tipo de convergˆencia n˜ao garante que a

trajet´oria {xk} do m´etodo convirja para uma solu¸c˜ao ´otima x∗.

A maioria dos m´etodo cl´assicos de otimiza¸c˜ao s˜ao m´etodos de convergˆencia local, ou seja, a convergˆencia ´e garantida (sob hip´oteses matem´aticas) apenas se a escolha de um ponto inicial x0 se der em uma vizinhan¸ca de uma solu¸c˜ao x∗. Izmailov e Solodov (2007)

afirmam que todo m´etodo de convergˆencia local deve ser pensado em combina¸c˜ao com algum outro m´etodo capaz de fornecer um ponto inicial que seja adequado para uma aplica¸c˜ao bem sucedida do m´etodo local (globalizac¸˜ao da convergˆencia).

Documentos relacionados