• Nenhum resultado encontrado

Optimiza¸c˜ao N˜ao Linear

Tendo em conta a forma geral apresentada em 3.1, se alguma das fun¸c˜oes envolvidas no problema for n˜ao linear nas vari´aveis, ent˜ao estaremos perante um problema conhecido por

problema de optimiza¸c˜ao n˜ao linear.

Restri¸c˜oes em parˆametros ou nas vari´aveis independentes, podem fazer com que estas assumam apenas um n´umero finito de valores, como por exemplo em problemas de op- timiza¸c˜ao discreta. Outras caracter´ısticas e propriedades dos problemas de optimiza¸c˜ao, como por exemplo a sua dimens˜ao, v˜ao influenciar a respectiva resolu¸c˜ao do problema Neste ´ultimo caso as dificuldades surgem quando a dimens˜ao do problema ultrapassa a capacidade do sistema de c´alculo, ou seja, a quantidade de dados e parˆametros ´e t˜ao extensa que a mem´oria de funcionamento do sistema de c´alculo poder´a ser insuficiente.

De um modo geral, um aumento do n´umero de vari´aveis em problemas semelhantes, poder´a aumentar significativamente a complexidade e dificuldade.

Outro aspecto a ter em conta ´e a forma das restri¸c˜oes, forma esta que ter´a uma enorme influˆencia na complexidade do problema de optimiza¸c˜ao. Normalmente existe um aumento muito pequeno, na dificuldade de obten¸c˜ao de solu¸c˜ao, quando se passa de um problema sem restri¸c˜oes para outro com restri¸c˜oes do tipo limites simples nas vari´aveis. Da mesma forma, a generalidade dos problemas com restri¸c˜oes lineares nas vari´aveis s˜ao mais dif´ıceis de resolver do que aqueles que s´o possuem restri¸c˜oes do tipo limites simples, e a presen¸ca de restri¸c˜oes n˜ao lineares aumenta a dificuldade de obten¸c˜ao da solu¸c˜ao.

A diferenciabilidade ´e, provavelmente, a propriedade mais importante de um problema no que diz respeito `a facilidade de optimiza¸c˜ao, importˆancia que se revela na aplica¸c˜ao de algoritmos baseados na informa¸c˜ao relativa ao valor da fun¸c˜ao e das suas derivadas,

3. Problemas de Optimiza¸c˜ao N˜ao Lineares 21 permitindo deduzir o comportamento da mesma. Se as fun¸c˜oes do problema s˜ao duas vezes continuamente diferenci´aveis (o que admitiremos salvo excep¸c˜oes devidamente indicadas), aumenta a eficiˆencia de um algoritmo para localizar a solu¸c˜ao, quando comparada com os casos em que as fun¸c˜oes de problemas s˜ao n˜ao diferenci´aveis.

A maioria do software de optimiza¸c˜ao ´e, desta forma, concebido para resolver problemas cujas fun¸c˜oes sejam continuamente diferenci´aveis, podendo ser seleccionados diferentes algo- ritmos, dependendo da informa¸c˜ao dispon´ıvel relativa `as derivadas ou do custo relativo de c´alculo de certas quantidade, por exemplo. Os algoritmos tendem a ficar mais eficiente e robustos, quanto mais informa¸c˜ao lhes ´e fornecida.

As condi¸c˜oes de optimalidade s˜ao outra raz˜ao pelo interesse na diferenciabilidade de um problema de optimiza¸c˜ao. Para se poder verificar se um determinado ponto ´e ´optimo, as defini¸c˜oes 3.2 e 3.3 de minimizantes locais forte e fracos n˜ao s˜ao satisfat´orias, pois seria ne- cess´ario avaliar a fun¸c˜ao objectivo num n´umero infinito de poss´ıveis pontos, numa vizinhan¸ca de qualquer solu¸c˜ao proposta. Ainda que esse processo fosse levado a cabo por poderosas m´aquinas digitais, apenas uma finita quantidade de pontos seria considerada e com esfor¸co computacional totalmente inaceit´avel. Todavia, se a fun¸c˜ao objectivo e as restri¸c˜oes do pro- blema tiverem algumas propriedades de suavidade, ´e poss´ıvel utilizar outro crit´erio, mais pr´atico, de condi¸c˜oes que caracterizam um m´ınimo, nomeadamente utilizando as condi¸c˜oes (3.6) e (3.7) ou (3.15) e (3.16) ou equivalentes.

Rematando o que se tem vindo a descrever, os problemas de optimiza¸c˜ao caracterizam-se pelo tipo de fun¸c˜ao objectivo e pelas caracter´ısticas das restri¸c˜oes que lhe est˜ao associadas, podendo estas ser do tipo linear ou n˜ao linear e, cada uma delas ainda ser subdividida em restri¸c˜oes de igualdade e restri¸c˜oes de desigualdade. Uma vez que este trabalho est´a a ser desenvolvido com vista a apresentar um projecto de introdu¸c˜ao da programa¸c˜ao n˜ao linear no ensino secund´ario, ser˜ao apenas abordados com mais profundidade os problemas de opti- miza¸c˜ao n˜ao linear sem restri¸c˜oes, recorrendo a m´etodos de pesquisa directa, atendendo ao grau de ensino a que se destina e aos conhecimentos cient´ıficos j´a adquiridos pelos estudantes.

Cap´ıtulo 4

M´etodos de Pesquisa Directa

Neste cap´ıtulo s˜ao apresentados alguns M´etodos de Pesquisa Directa e feita a sua caracteriza¸c˜ao, descri¸c˜ao e condi¸c˜oes de aplica¸c˜ao a determinadas situa¸c˜oes. Para o caso de fun¸c˜oes unidimensionais s˜ao distinguidos o m´etodo da Sec¸c˜ao Dourada e o m´etodo de Davies, Swann e Campey (DSC). Para o caso de fun¸c˜oes multidimensionais distinguem-se, neste trabalho os m´etodos de Nelder-Mead, de Powell e de Pesquisa em Padr˜ao. Como meio de facilitar a compreens˜ao do funcionamento dos di- ferentes m´etodos, ser˜ao apresentados os algoritmos bem como a sua representa¸c˜ao por meio de fluxogramas.

4.1

Introdu¸c˜ao

Para muitas fun¸c˜oes que resultam de aplica¸c˜oes da optimiza¸c˜ao, industriais, econ´omicas, cient´ıficas e outras, ´e muito dif´ıcil, sen˜ao mesmo imposs´ıvel calcular analiticamente as de- rivadas. Em muitas situa¸c˜oes da via real surgem problemas cujo processo de optimiza¸c˜ao, j´a de si complicado, possui limita¸c˜oes, nomeadamente, a sua formula¸c˜ao matem´atica dema- siado complexa, ou a falta dela. S˜ao exemplos desta ´ultima situa¸c˜ao, os casos em que os dados do problema s˜ao fornecidos por uma tabela de valores ou est˜ao relacionados com a medi¸c˜ao de alguma grandeza f´ısica, n˜ao havendo nenhum modelo matem´atico. Ainda que a fun¸c˜ao que se pretende optimizar seja definida por uma f´ormula matem´atica, as suas deri- vadas podem ser desconhecidas, ou mesmo inexistentes, em todo o dom´ınio de interesse ou em pontos chave desse dom´ınio, situa¸c˜oes estas que ocorrem muito mais frequentemente em problemas pr´aticos de optimiza¸c˜ao do que se possa pensar. Torna-se, desta forma, essencial utilizar m´etodos de optimiza¸c˜ao em que o c´alculo das derivadas ou mesmo a verifica¸c˜ao da sua existˆencia n˜ao seja necess´ario.

Para problemas de minimiza¸c˜ao n˜ao lineares, existem duas grandes classes de m´etodos: os m´etodos dos gradientes e os m´etodos de pesquisa directa. Normalmente aplic´aveis a fun¸c˜oes

4. M´etodos de Pesquisa Directa 23 cont´ınuas, os primeiros aproximam a fun¸c˜ao f por outra fun¸c˜ao mais simples, que ser´a pos- teriormente analisada para se determinar o seu m´ınimo. As fun¸c˜oes de aproxima¸c˜ao s˜ao, em geral, polinomiais de grau baixo. Os m´etodos de procura directa partem de um intervalo que cont´em o m´ınimo ou de uma aproxima¸c˜ao inicial e tˆem como objectivo a sua determina¸c˜ao, calculando e comparando os valores de f em diversos pontos. A principal particularidade que distingue estes m´etodos dos restantes, reside no facto de estes poderem ser aplicados `a resolu¸c˜ao de qualquer problema, desde que a fun¸c˜ao objectivo seja unimodal num intervalo que cont´em o m´ınimo. Esta diferen¸ca b´asica pode parecer pouco importante mas por vezes ´e limitativa. Imagine-se o caso em que o problema possui uma fun¸c˜ao objectivo descont´ınua, com derivadas descont´ınuas, ou mesmo inexistentes, ou ainda, o caso em que a express˜ao da fun¸c˜ao ´e demasiado complexa e o c´alculo das derivadas parciais est´a fora de quest˜ao. O caso extremo ´e aquele em que a express˜ao da fun¸c˜ao objectivo n˜ao ´e conhecida, sendo os seus valores obtidos pela medi¸c˜ao de alguma grandeza f´ısica. Por exemplo o comprimento de uma pe¸ca produzida por uma m´aquina, que vˆe o seu produto influenciado por diversos factores vari´aveis, ´e uma quantidade que n˜ao ´e poss´ıvel derivar pela inexistˆencia do modelo matem´atico.

As t´ecnicas mais utilizadas na optimiza¸c˜ao de fun¸c˜oes sem restri¸c˜oes nas vari´aveis, tendo em conta apenas os valores da fun¸c˜ao objectivo, sem estimar nem utilizar os valores das suas derivadas, podem ser, de uma maneira geral, agrupadas em trˆes principais classes:

- aquelas que pesquisam ao longo de direc¸c˜oes e deslocamentos pr´e-definidos;

- aquelas que utilizam uma pesquisa unidimensional ao longo de direc¸c˜oes pr´e-definidas; - aquelas que utilizam um conjunto determinado de pontos, em cada itera¸c˜ao.

Em geral nos m´etodos de pesquisa directa, os iterandos s˜ao gerados, tendo como base apenas valores da fun¸c˜ao objectivo. Nestes m´etodos n˜ao se usam os valores da fun¸c˜ao para construir aproxima¸c˜oes ao vector dos gradientes nem sequer se usa o gradiente como direc¸c˜ao de pesquisa dos iterandos. Existem dois grandes grupos nos m´etodos de pesquisa directa: os que modificam as direc¸c˜oes de pesquisa no final de cada itera¸c˜ao e os que usam direc¸c˜oes fixas ao longo do processo iterativo. S˜ao exemplos dos primeiros o m´etodo de Nelder-Mead [18] e o de Powell [20] e da segunda classe, os mais conhecidos s˜ao o m´etodo de Hooke e Jeeves[10] e o de pesquisa em padr˜ao.

4. M´etodos de Pesquisa Directa 24 Comecemos por analisar o problema com a seguinte forma

minimizar

x∈IRn f (x) (4.1)

com f uma fun¸c˜ao gen´erica, da qual apenas se assume a continuidade numa vizinhan¸ca do minimizante, x∗.

Documentos relacionados