• Nenhum resultado encontrado

ALGORITMO DE OTIMIZAÇÃO GLOBAL IRRESTRITA UTILIZANDO NUVENS CONTROLADAS

N/A
N/A
Protected

Academic year: 2021

Share "ALGORITMO DE OTIMIZAÇÃO GLOBAL IRRESTRITA UTILIZANDO NUVENS CONTROLADAS"

Copied!
13
0
0

Texto

(1)

ALGORITMO DE OTIMIZAÇÃO GLOBAL IRRESTRITA UTILIZANDO

NUVENS CONTROLADAS

André M. Cavalcanti, Francisco F. M. de Andrade, Rosalvo F. de Oliveira Neto Curso Sistemas de Informação - Faculdade Integrada do Recife -Av. Abdias de Carvalho 1678, Bongi Recife Pe, CEP – 50720-635, andrem@fir.br, flavio@fir.br, rosalvo@neurotech.com.br

José R. R. Cavalcante

Instituto Nacional de Pesquisas Espaciais, INPE - LAC, São José dos Campos SP, ranieri@lac.inpe.br

Cristiano A. V. Cavalcante

Dep. de Engenharia de Produção , UFPE , Cidade Universitária Recife Pe Av. Hélio Ramos, s/n, 50740-530, Recife – PE-Brasil, cristiano@ufpe.br

Fernando M. C. de Souza

Dep. de Engenharia Elétrica e Sistemas, UFPE, Cidade Universitária Recife Pe Av. Hélio Ramos, s/n, 50740-530, Recife – PE-Brasil, fmcs@hotlink.com.br

Resumo: O desenvolvimento de algoritmos de otimização global irrestrita tem sido pesquisado na tentativa de obter algoritmos gerais que apresentem um bom desempenho em classes abrangentes de problemas de otimização que são de grande importância para diversas áreas (economia, engenharia, informática entre outras). Os métodos que utilizam derivadas apresentam um bom desempenho mas, na grande maioria dos problemas esta informação não está disponível ou é de grande dificuldade a sua obtenção. Este trabalho visa apresentar um novo algoritmo que é capaz de determinar a direção de busca do ótimo de forma eficiente, sem o uso de derivadas. O método utiliza nuvens probabilísticas que fornecem o conhecimento da performance da distribuição de probabilidade anterior dada pela nuvem de pontos, essa distribuição através dos seus momentos fornece a direção de aproximação do ponto de ótimo.

Palavras-Chave: Otimização global, Algoritmos , Nuvens probabilísticas

Abstract: The development of unconstrained global optimization algorithms have been widely researched as an attempt to create general algorithms that present satisfactory performance in several important optimization problems in different areas such as economy, engineering and computer science, just to mention a few. The methods that use derivatives present a good performance, however, in the most of the problems,this information is not available or his computation is very difficult.This work, in particular, aims at the presentation a novel algorithm which is capable of determining the optimal direction for search in the solution state space, without the use of derivatives. The proposed method employs probabilistic clouds that produce knowledge about the performance of the previous probability distribution given by the cloud of points. This probability distribution is responsible for defining, through the use of moments, the direction of approximation to the optimal point of solution to a given problem.

(2)

1. INTRODUÇÃO

Um problema de otimização global é aqui definido como o tendo a seguinte forma:

minn f (x)

R

x∈ (1.1) onde f :Rn

R é uma função contínua e diferenciável onde a derivada de primeira ordem de f não pode ser calculada analiticamente nem tem um solução explicita aproximada.

A busca de uma solução ótima é pertinente a toda atividade produtiva. Porém, dependendo do problema a solução nem sempre é possível ou apresenta um nível muito alto de complexidade que inviabiliza a aplicação dos métodos de solução usando derivadas. Devido as atuais dificuldades, em função do nível de desenvolvimento na área de otimização, tem se pesquisado métodos numéricos alternativos baseados em algoritmos sem de derivadas (probabilidade, processos estocásticos ou heurísticas).

As técnicas que se utilizam da probabilidade para se estimar a solução de problemas de certa complexidade datam do século XVIII com a agulha do Buffon Georges Louis Leclerc (1707 -1788) algoritmo proposto para estimar o valor de pi (π). Em 1953 N. Metropolis propõe o algoritmo Simulated Annealing inspirado em fenômenos físicos da solidificação e cristalização de diversos materiais. Em 1975 John Holland propõe a algoritmo Genético baseado em processos naturais evolutivos de Darwin 1858.

O natural desenvolvimento tecnológico e econômico tem impulsionando o desenvolvimento de algoritmos para resolver problemas complexos de otimização. Muitos algoritmos baseados no conceito de derivadas livres têm sido propostos na literatura, descrições destes métodos podem ser encontrados em Pawell(1998) e Wright(1995).

Destaca-se uma importante classe de métodos de busca chamada de método direto de busca, na qual a base do procedimento de minimização é a comparação dos valores da função objetivo calculadas sobre um subconjunto de pontos do conjunto viável. Duas subclasses dos métodos de otimização global de busca direta convergente as apresentadas a seguir:

- Método de busca de padrão: apresenta como principal característica da evolução da função objetivo sobre uma específico padrão geométrico, veja Dennis(1991), Hooke(1961), Torczon(1997) e Wrigth(1995).

- Método de busca em linha: a busca é baseada nos métodos de minimização usando o gradiente e seu desempenho é dado pela minimização unidimensional ao longo de uma direção adequada, veja Grippo(1994), Grippo(1988), Tseng(1999) e Zangwill(1967).

Estas duas subclasses de métodos apresentam diferentes característica de interesse. O método de busca de padrão pode com precisão obter amostra da função objetivo na vizinhança do ponto ótimo e, então, pode-se identificar uma boa direção, nomeando a direção ao longo da qual a função objetivo decai significativamente. O método de busca em linha define passos largos ao longo da direção adequada da busca fornecido por uma direção que se comporta como a fornecida pelo gradiente e então, realiza uma exploração do possível ótimo da direção. Neste caso, explora-se todas as possíveis direções que apresentem a característica de decaimento, similar a fornecida pelo gradiente. Muitos exemplos de métodos de busca da direção tem sido proposto em Glad(1977), Mifflin(1975), Rykov(1980a) e Rykov(1980b). Neste artigo apresenta-se a condições de suficiência

(3)

geral de convergência para assegurar a convergência de uma seqüência de pontos baseando-se nas análises reportadas em Grippo(1988), Lewis(1996) e Torczon(1997). Estas condições não necessitam da informação da primeira derivada. A partir destas considerações estabelece-se um modelo geral para desenvolvimento de algoritmos de busca direta.

A identificação das características chaves dos métodos de padrão de busca e busca em linha estão suportadas por suas propriedades de convergência global. A análise destas propriedades indica que a convergência global sem derivadas pode ser garantida por satisfazer um simples requisito natural sobre a direção da busca usada e sobre a amostragem da função objetivo. Desta forma com a definição da condição de suficiência da convergência global sem a informação do gradiente garantem a utilização do novo método proposto.

2-

METODOLOGIA

Quando o gradiente é utilizado para definir a convergência dos problemas de otimização global irrestrita é fácil a sua aplicação. De fato, cada iteração, o gradiente fornece:

- calcula e seleciona a direção de decrescimento, direção na qual a função objetivo decresce com uma taxa adequada.

- Determina o tamanho suficiente do passo ao longo da direção de decrescimento, sendo também capaz de avaliar a exploração da condição de decrescimento na direção da busca pela avaliação do valor de decrescimento suficiente da função objetivo em relação a norma do gradiente.

Quando o gradiente não está disponível perde-se a informação a cerca do comportamento local da função objetivo. De fato a componente de primeira ordem da componente i

if o gradiente é a derivada direcional da função objetivo ao longo de um vetor inicial. Este fato garante que a informação caracterize uma precisão de proximidade do comportamento local da função objetivo na proximidade do ponto a qual as derivadas são calculadas.

A maioria dos algoritmos da classe da busca direta acompanham, mais ou menos, a mesma estratégia para superar a perda da informação do gradiente. O principal estimativa é baseada na idéia da investigação do comportamento da função objetivo na vizinhança de um ponto genérico por amostragem da função objetivo ao longo de um conjunto de direções. É claro que cada um destes algoritmos apresentam propriedades e características na qual dependem de uma particular escolha do desempenho das amostras sobre a função objetivo.

As direções tomadas em um algoritmo sem derivadas devem ser aquelas que o comportamento local da função objetivo é um indicativo suficiente do comportamento local da função na vizinhança do ponto, devem ter a propriedade de que a performance das amostras melhorem na medida que sejam refinadas sendo possível então:

(i) definir o ponto atual como sendo uma boa aproximação de um ponto estacionário da função objetivo, ou

(ii) encontrar uma direção especifica ao longo da qual a função objetivo decresce. O importante é identificar quão grande são as classes de conjuntos de direções de busca na qual podem ser usadas para definir um algoritmo globalmente convergente sem derivadas. Para este fim apresenta-se abaixo a proposição das condições na qual formaliza as classes de conjuntos que atende as propriedades (i) e (ii).

2.1 Direções de Busca

O primeiro passo na definição do método direto de busca é associar um conjunto de direções adequadas pi, i 1,....,r,

(4)

direções deverá ter a propriedade do comportamento local da função objetivo provendo informação suficiente superar ausência do gradiente. Para atender esta propriedade requer que a distância entre os pontos gerados por um algoritmo e o conjunto de pontos estacionários da função objetivo tenda a zero, se e somente se as derivadas direcionais da função objetivo ao longo das direções

, ,...., 1

, i r

pi

k = tenda assumir valores não negativos, formalmente tem-se a seguinte condição:

Condição C1: Dada uma seqüência de pontos

{ }

x , k as seqüências de direções ,

,...., 1

, i r

pi

k = são limitadas e tal que:

0

)

(

lim

=

∞ → k

k

f

x

se e somente se

lim

→∞

=1

min{

0

,

(

)

}

=

0

r i i k T k k

f

x

p

.

Apoiando-se nos resultados obtidos por Lewis(1996) e Torczon(1997) e a condição C1 estabelece-se a seguinte proposição:

Proposição 1: Seja

{ }

x k uma seqüência limitada de pontos e seja pi, i 1,....,r, k = uma seqüência de direções na qual satisfaz a condição C1. Para todo

η

>

0

existe

γ

>

0

e

δ

>0 tal que, para todo porém finito k's, se x k satisfaz

η

(

)

lim

k

k

f

x

, então existe uma direção

k

i k p com },ik∈{1,....,r para a qual :

k k i k k k i k k p f x f x p x f ( +

α

) ≤ ( ) −

γα

∇ ( ) para todo

α

(

0

,

δ

]

Quando o ponto corrente não é um ponto estacionário é possível obrigar um decrescimento suficiente da função objetivo pelo uso de conjuntos que satisfazem a condição 1 (C1). Em outras palavras a garantia dada pela condição C1 implica que os conjuntos de direções são capazes de atender o requisito definido em (ii)

A condição C1 é um requisito suficiente da garantia da direção da busca que assegura a convergência de uma seqüência de iterações para a solução global. A condição C1 no campo dos algoritmos sem derivadas é similar a condição do gradiente relativo nos algoritmos baseados no gradiente, veja Lewis(1996).

2.2.

Condições de Convergência Global

A garantia da existência de uma seqüência de pontos que faz um determinado algoritmo convergir para a solução global deve ser demonstrado utilizando-se uma seqüência de pontos ao longo da direção de busca p ,ki

i

=

1

,

2

,...,

r

,

satisfazendo a condição C1. Em particular, usando a condição C1 pode-se caracteriza um ponto estacionário de f pelo fato da função objetivo não decrescer localmente ao longo da direção p , ki

i

=

1

,

2

,...,

r

,

para pontos suficientemente próximos de um ponto corrente x . k Isto conduz a possibilidade de definir novas condições para algoritmos de convergência global sem derivadas por meio da existência de seqüências de pontos mostrando que a função objetivo não decresce ao longo da direção p ,ik

i

=

1

,

2

,...,

r

,

. Esta condição é igualmente simples e intuitiva , embora que alguns requisitos mínimos devam ser atendidas para aceitar amostras da função objetivo ao longo da direção p ,ki

i

=

1

,

2

,...,

r

,

que garanta a convergência global do método.

(5)

Proposição - P1 - Faça {xk} ser uma seqüência de pontos; faça {p }, ki

,

,...,

2

,

1

r

i

=

serem seqüências de direções; e suponha que as seguintes condições são atendidas: ) ( ) (xk 1 f xk f +

{

pki

},

i

=

1

,

2

,...,

r

,

satisfaz a condição C1;

Existe seqüências de pontos {y } ki e seqüência de escalares positivos {

ε

ik }, para

,

,...,

2

,

1

r

i

=

, tal que: ( ) ( ) ( I ) K i k i k i k k i p f y O y f +

ε

≥ −

ε

(2.1) e

lim

=

0

∞ → i k k

ε

e lim→∞ − =0 i k k k x y então

lim

k→∞

f

(

x

k

)

=

0

(2.2) Então considerando Eq.2.2 tem-se que no ponto y ki a derivada direcional de f ao longo de i

k

p pode ser aproximada por uma quantidade a qual tende ser não negativa. Portanto, adequado para a propriedade da direção da busca expressa pela condição C1, a convergência global da seqüência {x } pode k ser forçada pelo requisito dos pontos falhos mais e mais próximos de x . k

O uso de direções que satisfazem a condição C1 e o resultado produzidos por seqüências (ou subseqüências) de pontos que satisfazem as hipótese da Proposição 2.1 são os elementos comuns da convergência global de algoritmos sem derivadas propostos por Grippo (1961) e Torczon(1997).

2.3.

O problema da escolha da melhor direção

Embora a as condições de convergência global apresentadas na seção 2.2 sejam satisfatórias e de fácil compreensão elas não estabelecem como se deve fazer a escolha das direções a não ser testando cada uma delas. Assim, o critério para se estabelecer uma seqüência de pontos a ser testada tem um caracter aleatório levando a possibilidade de repetições de pontos em diferentes seqüências, logo os algoritmos requerem um esforço computacional elevado além de um tempo de processamento que tende a infinito dependendo do tipo de problema a ser tratado, pois, a busca é por exaustão, veja Cavalcante(1996) e Lins(1999).

A solução dos problemas de otimização utilizando métodos determinísticos, métodos que utilizam o gradiente ou de busca indireta, exigem que as condições de otimalidade sejam satisfeitas. Estes algoritmos reconhecem pontos como soluções verificando se satisfazem às várias condições de otimalidade. As restrições impostas pelos métodos determinísticos têm estimulado o desenvolvimento dos métodos probabilísticos que não fazem nenhuma imposição a função objetivo. Estes métodos exploram a capacidade de processamento dos computadores atuais, uma vez que, basicamente eles fazem uma busca exaustiva em todo o intervalo viável sem impor nenhuma condição a função objetivo, pois, basta que a seqüência de pontos atendam a condição C1 e a proposição P1. A dificuldade do uso destes métodos encontra-se na determinação da direção a ser tomada, no espaço viável, na busca da solução ótima.

Para garantir que a condição C1 e a proposição P1 sejam atendidas é necessário estabelecer uma função de estanciamento para a função objetivo. Este procedimento permite que para valores das variáveis, no espaço de busca, para os quais a função objetivo não está definida , pode-se fazer com que a função de estaciamento faça este valor ser zero, de tal sorte que para todo os valores das variáveis definidos no espaço de busca haverá um valor da função estanciada. Desta forma amplia-se as clasamplia-ses de funções a amplia-serem otimizadas por este procedimento, incluindo-amplia-se as não continuas no intervalo de busca.

(6)

Observando-se os procedimentos disponíveis e considerando o contexto de Otimização Global, um procedimento básico é proposto para identificar as fases comuns aos diversos algoritmos de modo a estabelecer análises comparativas. Isto é apresentado sobre duas visões: macro ações composta por quatro fases, e para a terceira fase um maior detalhe composto por 10 passos. O macro procedimento é apresentado na Figura 2.1.

A fase 1 consiste em estabelecer a natureza do algoritmo (que classe de problemas será tratado). A partir desta definição estabelece-se como as funções de entrada serão capturadas pelo algoritmo. E desta forma define-se uma seqüência de pontos, ou um conjunto de valores iniciais para as variáveis associadas ao problema a ser otimizado. Os elementos deste conjunto devem pertencer ao espaço de busca S.

Os procedimentos de escolha do ótimo - Fase 2 (dos pontos que geraram os melhores resultados) dependem do algoritmo utilizados, pois, nele encontra-se a estratégia de quais pontos serão selecionados para fazer evoluir as próximas iteradas.

Na fase 3 se estabelece a direção e o tamanho do passo através da estratégia de evolução adotada pelo algoritmo específico. Gera-se uma nova seqüência de pontos que de princípio promoverão a evolução de resultados. Este procedimento está associado ao estabelecimento da direção e do tamanho do passo gerado para cada novo elemento da nuvem função da nuvem anterior. Neste processo de alguma forma é incluído algum aspecto probabilístico as iteradas, ou do processo de geração da nova nuvem.

Na fase 4 são estabelecidos os critérios de convergência e ajuste de precisão. É neste momento que são introduzidos parâmetros. Estes parâmetros são usados conjuntamente com funções de teste, das quais as soluções de OG são conhecidos. Desta forma, pode-se ajusta os parâmetros de modo a obter os valores esperados com a precisão desejada. Dado um problema de otimização global, deseja-se obter os máximos ou mínimos globais. Já foi apresentado a complexidade de se estabelecer algoritmos que atendam a uma faixa ampla de classes de problemas de OG, mas é possível se estabelecer procedimentos comuns entre os diversos algoritmos. Uma vez estabelecendo os aspectos comuns, é possível se identificar os critério de escolhas das gerações de nuvens. Sendo assim, como cada um algoritmo se comporta diante da incerteza da existência de algum ótimo em uma região qualquer do espaço

R

n. A fase 3 das Macro ações deve ser detalhada de modo que se possa ter uma melhor compreensão dos procedimentos de decisão interna dos algoritmos.

Definição da escolha da nuvem de valores iniciais para as variáveis da função objetivo

Fase 1

Fase 2 Procedimentos para escolha do ótimo ou dos pontos com melhores resultados

Fase 3 Determinação dos procedimentos de evolução do ponto de ótimo através da escolha adequada da nova nuvem de pontos

(7)

Figura 2.1 Macro ações de um algoritmo de Busca direta

Como apresentado na Figura 2.1 os procedimentos para avaliação do macro processo de funcionamento dos algoritmos de OG de uma forma geral, mostra as bases funcionais de construção. Isto é como os algoritmos trabalham mesmo que em situações ou modelos de OG particulares, neste contexto as fases apresentadas são simplificadas. Desta maneira, os passos apresentados a seguir na Figura 2.2 fornecem um pouco mais de detalhes em relação a Fase 3, conforme descrito a seguir.

O Processo de escolha dos pontos iniciais após substituição na função objetivo: Consiste em determinar um conjunto de pontos melhores adaptados. O critério da escolha depende da estratégia usada em cada algoritmo.

Estabelecer procedimentos de evolução dos pontos na direção do ótimo: Determina-se aqui a estratégia de verificação processo evolutivo das nuvens de pontos - cada algoritmo tem um particular procedimento.

Definição da nova nuvem: A definição da nova nuvem a ser usada na próxima iterada é determinante, pois, nela encontra-se associada a estratégia da determinação da direção da busca e o tamanho do passo a ser dado por cada elemento da nuvem.

Avaliação e instabilidade ou de situações locais de estagnação da evolução: Neste passo são avaliados se existe uma evolução a cada iterada ou se há oscilações em torno de um valor ótimo ou se a nuvem convergiu localmente. Estes critérios são próprios de cada algoritmo.

Figura 2.2 Construção de um modelo de comparação funcional de algoritmos de Otimização Global 3. O NOVO ALGORITMO TALUS

Em sendo atendidas as condições da Proposição 1 e se obtendo as características teóricas do padrão e da linha de busca, que são desejáveis, para se definir algoritmos na qual combine as duas aproximações, em particular para estabelecer algoritmos que sejam eficiente deseja-se:

• Obter informações suficientes sobre o comportamento local da função objetivo f, como uma estratégia padrão;

• Explorar a possibilidade do conhecimento de uma boa direção, como uma linha de estratégica de busca.

Phase 2 Procedures to choose optimum or points with best results

Phase 3 Optimum point evolution procedural determination by adequate choice of new cloud points

Phase 4 Stop criteria and precision adjustments

Phase 1 Definition of cloud initial values for the objective function variables

(8)

Para atender a esta estratégia são apresentados em Lucidi(2002) três algoritmos.

Observa-se no entanto que a determinação da direção da busca depende de um conhecimento a priori do comportamento da função objetivo. No entanto, é possível obter uma direção de busca de forma eficiente utilizando algoritmos probabilísticos conforme descrito a seguir:

O algoritmo considera todo o espaço de busca S (que é um conjunto compacto) como tendo a mesma probabilidade inicial de conter o ponto ótimo, então geramos uma nuvem de pontos

i k

x ,

i

=

1

,

2

,...,

r

,

uniformemente distribuídos por todo S e procurando-se dar uma inteligência ao algoritmo de forma a permitir uma busca mais eficiente utilizando o conhecimento dos momentos da distribuição.

A seguir mostra-se o movimento dos pontos iniciais em uma direção e tamanho de passo a serem definidos.

Para cada x1i ,

i

=

1

,

2

,...,

r

,

será realizado {F(xik )}, e tem-se então um vetor )} ( ),..., ( ), ( { 1 2 k r k k x F x F x

F daí obtém-se )}max { ( 1 ), ( 2),..., ( k

r k

k

k Max F x F x F x

F = , tendo-se então

o elemento onde será centrada a distribuição ( ) exp{ ( )[ ( ) ]2} maxk k i k i k x k f x f F = −

δ

− , onde δ(k) é

um incremento que variará em função de k.

Claramente Fk > 0 e deste modo pode se definir a distribuição de probabilidades para os pontos na nuvem na k-ésima iterada como

( )

( )

x onde i r F x F p r j k j k k i k k i 1,2 .. 1 = =

=

A partir da expressão de Fk se pode verificar que o maior valor de i k

p corresponderá ao i

x1 que fornece o maior valor de Fik (FMaxk ) que será denominado xmaxk . Para k suficientemente grande, a distribuição { p ik},

l

=

1

,

2

,...,

r

,

irá se concentrar fortemente em torno de xMaxk . O valor esperado da distribuição { pik}, será

=

=

r l k l k l k F

x

p

x

1

será o estimador do máximo global x* de F na k-ésima iterada do algoritmo. Deste modo o desvio padrão e a assimetria da distribuição serão dadas por

(

)

σ

k l k F k l k l n

x

x

p

=

=

2 1 e

(

)

ak x x p l k F k l k l n = − =

3 1 3

A assimetria da distribuição ak será o indicador de direção para se encontrar sua moda (o ponto de ótimo buscado).

O ganho do passo é uma função do quanto varia o passo em função da quantidade de iterações realizadas e é dada por

(9)

Ganho

_

do

_

Passo

=

γ

( )

k

O curare dá estabilidade ao algoritmo, sendo função de Fik, e FMaxk conforme mostrado abaixo

( )

( )

(

)

C urare

g f x

ik

f

x

m axk ik

=

,

A equação do sinal aponta o sentido a ser seguido para obtenção da moda da distribuição e será calculado com

(

) ( )

{

k

}

i k k F

a

f

x

x

f

Sgn

Sinal

=

k i k k F

a

x

x

Passo

do

Tamanho

_

_

=

E o novo valor iterado será dado por

Passo do Tamanho Sinal Curare Passo do Ganho x x k i k i _ _ . . . _ _ 1 = + +

onde γ(k) > 0 é muito pequeno para pequenos valores de k e cresce monotonicamente com k, e gé tal que se

f

( )

x

ii

=

f

maxk então

g

= 0

, e se

f

f

i k

maxk

x

( )

<

então g é aproximadamente igual a 1. Se xik = xmaxk então xik+1 = xmaxk, isto é, xik não será alterado. Se (xFkak) - xik > 0 e

(

) ( )

f x

Fk

a

k

f x

i k

〉 0

isso significa que xik está localizado a esquerda da região onde o máximo global está e então se deslocará para a direita como indicado pelo sinal. Se:

(

x

Fk

a

k

)

x

i k

〈 0

e

f x

(

Fk

a

k

) ( )

f x

i k

〉 0

,

neste caso xik está localizado a direita da região onde o máximo global se encontra, então se moverá para a esquerda.

A razão para usar

{

(

) ( )

k

}

i k k F a f x x f sinal − − (além de

[

f x

(

Fk ak

) ( )

f x

]

i k − − é que o

tamanho do passo dependerá das diferenças entre os x´s e não da diferença dos valores da função. A função γ é tal que os primeiros passos são pequenos pois desta forma minimiza-se a probabilidade de perda da região onde está o ponto buscado. Pode-se facilmente controlar isto ajustando γ(k) como uma função de n.

Se fmaxk+1 > fmaxk a distribuição {pik+1} se concentrará em torno de xmaxk+1, que poderá ser completamente diferente de xmaxk. O algoritmo continua e se, fmaxk+1 = fmaxk, então o ponto xmaxk não será alterado, isto é, xmaxk+1 = xmaxk, pois neste caso,

g f

i

f

k max

k

x

( ( ),

)

= 0

. Mas como δ é uma função crescente de k, a distribuição {pik} ficará mais e mais concentrada em torno de xmaxk, enquanto k cresce. Se fmaxk muda, a distribuição {pik} acompanhará esta mudança, mudando a concentração dos pontos para o entorno de xmaxk+1 que será o novo ponto candidato a x*.

Como k cresce a nuvem de pontos aleatórios concentra-se cada vez mais em torno do máximo global. Em qualquer caso, se a nova posição de um ponto na nuvem extrapola os limites do espaço de busca, considera-se violado o limite imposto por este. Quanto maior for o valor de n maior será a probabilidade de que a seqüência

{ }

x

Fk convergirá para x*.

4. TESTES FUNCIONAIS DO ALGORITMO

Nos últimos anos, os desenvolvedores de modelos profissionais de ambientes voltados para otimização dedicam um considerável esforço para fornecerem uma prova de quão amigável é software produto, exemplos deste trabalho estão documentados em relação ao AMPL Fourer(1993),

(10)

GAMS Brooks(1988), LINDO LINDO(1996), MPL (Maximal Software) MPL(1998) ou o de nível avançado Excel PSP Solver (Frontline Systems, Frontline(2001). Em um nível similar de desenvolvimento os softwares produtos têm um conjunto de padrões - por exemplo: um OG profissional deseja ser reconhecido também com prático. Em princípio, um modelo prático de otimização não linear deve servir como um teste válido para algoritmos apropriados. Entretanto, muitos modelos são também específicos e complicados dificultando as suas reproduções ou, em alguns casos, seus detalhes são confidenciais. Nestas circunstâncias deve-se definir seu uso em um propósito geral para realizar testes comparativos. Consequentemente, o uso de um teste abrangente, reprodutível e transportável é também muito importante.

Existe uma considerável variedade de problemas de teste padrão. Estes problemas de teste são freqüentemente originados de aplicações reais apesar de existir um número considerável de testes de natureza teórica propostos pela comunidade de OG. Certamente é apropriado fazer um comentário sobre alguns tipos de testes teóricos (acadêmicos) que não devem ser usados, exclusivamente, para provar a aplicabilidade de um determinado software ou algoritmo de OG A figura 4.1 é um exemplo para ilustrar o tipo de função de teste, dada pela seguinte equação:

(

)

(

)

sen

2

[

(

*

)]

1 1 2 * max

a

f

P

x

x

x

x

s

x

f

k k k k k n i i i

+

=

= = Eq(4.1) onde * 2 1 1 * * 1

(

x

x

)

(

x

x

)

(

x

x

)

P

x n k n i i i

+

=

= = e

=

=

n i i i

x

x

x

x

P

1 * * 2

(

)

(

)

Como a f(x) é definido para um número fixo de n, como se segue: s=0,025n fator de escala por definição depende da dimensão do modelo; l=-5, u=5 limite inferior e superior idênticos para cada componente x; x* solução randomicamente gerada, escolhida por uma distribuição uniforme sobre [l, u]; ak = fk =1(k =1,....,kmax) escalas de amplitude e múltiplos de freqüência.

Apesar da relativa simplicidade deste exemplo esta função é uma função de teste não trivial. O grande número de mínimos locais levam ao uso de uma busca global em Cavalcanti(2004) é apresentado análises comparativas de desempenho incluindo as funções de teste de Moré. Ainda neste trabalho realiza-se uma análise comparativa do Talus com outros algoritmos , demonstrando assim o seu bom desempenho e as possibilidades de superação das dificuldades atuais vistas por outro algoritmos.

Note-se que este tipo de função é usada com o propósito de teste acima mencionado. Costuma-se também usar funções tipo ponto de Costuma-sela onde a região na sua proximidade é quaCostuma-se convexa, com uma região muito extensa de platô (região de atração). Na proximidade do ponto de sela identifica-se não linearidade, porém o ponto chave colocado é que seja a solução através de algoritmos de busca global ou puramente algébrico não se devendo encontrar dificuldade alguma em obter a solução. Pelo menos nas últimas três décadas, um considerável esforço tem sido dedicado em colecionar e atualizar problemas de teste para não linear e global otimização. Para informação sobre problemas de programação não convexo e não linear, Moré(1981) e Hock(1981).

(11)

Figura 4.1 Função de Teste com ruído aleatório

5. CONCLUSÕES

Neste trabalho verifica-se que embora existam critérios gerais para convergência global otimização sem derivadas (ou livre de derivadas) permanece a dificuldade em se obter a direção da busca de forma eficiente. Na busca do objetivo de resolver esta questão é apresentado um novo algoritmo baseado em distribuição de probabilidade capaz de obter de forma eficiente a direção da busca do ótimo para problemas de otimização global sem restrição. É claro que embora tenha sido apresentado o algoritmo apenas para o caso unidimensional é possível aplicá-lo para o caso n-dimensional, como demonstrado em Cavalcante(2004), além disso pode-se transformar os problemas com restrição com irrestrito utilizando os recursos das penalidades. Assim sendo, este novo algoritmo tem como característica a sua aplicabilidade em classes mais gerais de problemas de otimização global

(12)

REFERÊNCIAS

Brooks, A., Kendrick, D. e Meeraus, A.,1 988. Gams: A user’s Guide, The Scientific Press Danvers, MA.

Cavalcante, J. R., 1996. “Algoritmo probabilístico paralelo para otimização global”. Tese de Mestrado em Engenharia Elétrica, Departamento de Engenharia Elétrica e Sistemas da UFPE . Cavalcanti, A. M. , Cavalcante, J. R. R., Cavalcante, C. A. V. e de Souza, F. M. C., 2004.

Stochastic global optimization: a new probabilistic algorithm – Talus. Artigo Submetido ao IEEE Journal Transation on system, man and cybernetic .

Dennis, J. E. e Torcozon, V., 1991. “Direct search on parallel machines”, SIAM . J. Optim, 1 pp. 448-474.

Fourer, R. Gay, D. M., e Kernighan, B. W., 1993. A modeling language for mathematical programming,. The scientific press, Redwood City, California. Reprinted by Boyd and Fazer, Danvers, MassachussetsMath. 1996

Frontline Systems, 2001. Premium Solver Platform – Field-Installable Solver Engines. Use Guide. Frontline Systems, Inc. Incline Village, Nevada.

Glad, T. e Goldstein, A., 1997. “Optimization of functions whose values are subject to small erros”, BIT, 17, pp 160-169.

Grippo, L., 1994. “A class of unsconstrained minimization methods for neural network training”, Optm Methods Sftw – 4, pp 135-150.

Grippo, L., 1988. “Global convergence and stabilization of unconstrained minimization methods without derivatives”, J. Optim. Theory Appl., 56, pp. 385-406.

Hock, W. e Schittkowski, K. 1981. Test examples for nonlinear programming codes, volume 187 of Lecture Notes in economics and Mathematical Systems. Springer-Verlag, Berlin/New York. Hooke, R. e Jeeves,T. A, 1961. “Direct search solution of numerical and statistical problems”. J.

ACM, 8, pp. 212-229.

Lewis, M. e Torczon, V., 1996. “Rank Ordering an Positive Bases in pattern Search Algorithms”, Technical report TR. 96-71, ICASE, NASA, Langlay Research Center, Hampton, VA. Lindo, Systrems, 1996. Solver Suite. LINDO Systems, Inc. , Chicago, Illinois.

Lins, G. D. , 1999. “Estudo, Melhoria e Implementação Computacional do Talus”. Dissertação de Mestrado , Departamento de Engenharia Elétrica e Sistemas UFPE.

Lucidi, , S. e Sciandrone, M., 2002. “On the Global Convergence of Derivative-Free Methods for Unconstrained Optimization” SIAM J. OPTIM Vol13, Nº 1, pp 97-116 .

Mefflin, R., 1975. “A superlinearly convergent algorithm for minimization without evaluating derivatives”, Math. Programming, 9, pp. 100-117.

Moré, J. J. e Wright, S. J. 1993. Optimization software guide, volume 14 of frontiers in ampplied mathematics series. SIAM, Philadelphia, Pennsylvania.

Powell, M. J, 1980. “Direct Saerch Algorithms” Automat. Remote Control, 41, pp 784-793. Rykov, A. S. , 1980a. Simplex methods of direct search, Engineering Cybernetics, pp. 12-18. Rykov, A. S., 1980b. Simplex direct search algorithms, Automat. Remote Control, 41,pp.784-793 Torczon, V., 1997. “On the convergence of pattern search algorithms”, SIAM J. Optim, 7,

(13)

Tseng, P., 1999. “Fortified-descent simplicial search method: A general approach”, SIAM J. Optim, 10, pp. 269-288.

Wright, M. H., 1996. Direct Search Methods: once scorned, now respectable”, in Proceedings of the 1995 Dundee Bienal Conference in Numerical Analysis, D. F. Grifiths and G. A Watson, Addison-Wesley longman, United Kingdom, pp. 191-208.

Referências

Documentos relacionados

crianças do pré́-escolar e dos seus determinantes, assim como a avaliação do efeito de um programa de escovagem diária na escola no estado de saúde oral (índice

Therefore, the time required for desorption (~ 120 min or more) was always one order of magnitude higher than the time required for complete sorption (~ 30 min). In the

The focus of this thesis was to determine the best standard conditions to perform a laboratory-scale dynamic test able to achieve satisfactory results of the

After analyzing all the procedures involved in the production process of GFRP profiles, it was concluded that it would be possible to improve the sustainability and

Both the distribution of toxin concentrations and toxin quota were defined by epilimnetic temperature (T_Epi), surface temperature (T_Surf), buoyancy frequency (BuoyFreq) and

b) Verifique se o manuscrito cumpre as normas aos au- tores da Acta Médica Portuguesa e que contém as informa- ções necessárias em todos os manuscritos da Acta Médica

After the eval- uation of the influence of each modification of the surfaces on the internal air temperatures and energy consumption of the compressor a final test was done with

Esta pesquisa teve como objetivo avaliar as características de madeira do híbrido Euca/ytpus grandis x Euca/ytpus urophylla e da celulose entre o primeiro ano até o sétimo ano