• Nenhum resultado encontrado

Otimização é um processo de encontrar a melhor forma de usar “recursos” disponíveis, sem que sejam violadas restrições impostas (QING,2009). Em outras palavras, é o ato, processo, ou metodologia de se fazer algo como um projeto, sistema ou tomada de decisão da forma mais eficiente, funcional ou efetiva possível (KIRANYAZ; INCE; GAB- BOUJ,2014). Mais precisamente, define-se um problema matematicamente, identificam-se suas variáveis e as condições que devem ser satisfeitas, estabelecem-se as propriedades do sistema, e então busca-se o estado do sistema, ou valores das variáveis que resultam nas propriedades desejadas (BAZARAA; SHERALI; SHETTY, 2013; BAZARAA; SHETTY,

2012; LUENBERGER; YE et al., 1984).

Um problema de otimização é portanto constituído de três elementos essenciais: • Domínio de parâmetros x

• Funções objetivo fmin

i (x) e fimax(x) • Funções de restrição c= i , c + i e ci

No caso específico do projeto de antenas de microfita pode-se por exemplo definir como os parâmetros de otimização a espessura de um determinado material, as variações de sua composição, medidas físicas de elementos irradiantes, etc. Os parâmetros de otimização podem ser contínuos, discretos ou até mesmo simbólicos (QING, 2009).

3.1.1

Ótimos Locais, Globais e Multimodalidade

Em uma função, um ótimo global pode ser definido como o melhor valor dentre todos os valores da função em seu domínio. Ou seja, para o caso de minimização, o ótimo global será o menor valor no intervalo do domínio e para o caso de maximização o maior valor. Ótimos locais são valores ótimos em subdomínios de um domínio. Em outras palavras, são pontos ótimos apenas quando analisamos um região restrita do espaço de busca, onde não há vizinhos próximos melhores que ele naquela região.

Quando uma função apresenta múltiplos ótimos locais ou globais lhe é dada a classificação de função multimodal. Tendo a função apresentado apenas um ótimo em seu domínio, seja ele de mínimo ou máximo, ela recebe a classificação de função unimodal.

Funções multimodais apresentam um grande problema para os algoritmos de busca, pois um algoritmo pode encontrar um dos ótimos locais por não conseguir visualizar outros pontos promissores além dele, e acabar por não convergir para um ótimo global existente no espaço de busca da função. Desse modo, abordagens de busca populacionais, onde vários regiões do espaço de busca são analisadas simultaneamente por um algoritmo, podem ser uma técnica interessante para se tentar evitar os ótimos locais.

3.1.2

A Função Objetivo

A função objetivo é o que se deseja efetivamente otimizar. A escolha por uma função matemática específica dá origem a um problema de maximização fmax

i (x) ou de

minimização fmin

i (x), dependendo das propriedades inerentes ao sistema. É uma função

que depende de uma ou mais variáveis do problema, que são as variáveis que podem ser alteradas durante o processo de otimização.

O primeiro passo na solução de um problema de otimização recai sobre a mo- delagem matemática do problema e suas restrições. Um modelo matemático é necessário para uma representação apropriada das variáveis, características e restrições (KIRANYAZ; INCE; GABBOUJ,2014). Uma vez formulada a modelagem adequada, chega-se à então chamada "função objetivo"e a partir de então, uma técnica de otimização pode ser desen- volvida para buscar um ponto extremo na função, que corresponde à solução ótima do problema.

Matematicamente define-se como f : S → R a função objetivo de um conjunto

S para o conjunto dos números reais. Uma técnica de otimização busca um ponto extremo x0 em S tal que atenda a f(x0) ≤ f(x) ou f(x0) ≥ f(x) para todo x em S. Desse modo, o

problema original no qual um solução ótima é procurada é transformado em um problema de otimização de função.

O problema original pode ser um problema multi-objetivo, no qual há mais de um objetivo presente. Isso pode gerar conflitos, já que as alterações visando otimizar um único objetivo podem implicar em efeitos de desbalanceamento dos demais. Uma das formas de lidar com esse tipo de problema é tornar um problema mono-objetivo em multiobjetivo por meio de uma abordagem que os combinará adequadamente em uma única função (e.g. através de uma soma ponderada).

Uma função objetivo possui pelo menos um ótimo global, o exemplo da Fig. 3.1

exibe múltiplos ótimos locais tanto para o caso de minimização quando de maximização. Analisando a função no intervalo definido, observa-se pelo menos 7 mínimos locais e 6

máximos locais.

Figura 3.1 – Função unidimensional contínua multimodal. Imagem adaptada de (QING,

2009)

Funções objetivo possuem algumas características que podem ser elencadas. Essas características devem ser levadas em consideração na escolha dos algoritmos de otimização que irão resolver os problemas propostos.

3.1.3

Otimização com Múltiplos Objetivos e a Técnica de Escalarização

De modo geral, os objetivos costumam ser conflitantes, o que significa que não há uma solução única que simultaneamente leve todas as funções objetivo ao valor ótimo. Na verdade, o que se tem é um conjunto de compromisso ótimos dos objetivos, chamado de conjunto de Pareto. Dadas duas soluções quaisquer pertencentes a este conjunto, a primeira necessariamente supera a segunda com respeito a pelo menos um objetivo, mas perde em relação a pelo menos outro objetivo.

A otimização multiobjetivo leva em consideração um conjunto de n > 1 objetivos que por sua vez devem ou não respeitar um conjunto de restrições. De modo geral, os objetivos costumam ser conflitantes, o que significa que não há uma solução única que simultaneamente leve todas as funções objetivo ao valor ótimo. Na verdade, o que se tem é um conjunto de compromisso ótimos dos objetivos, chamado de conjunto de Pareto. Dadas duas soluções quaisquer pertencentes a este conjunto, a primeira necessariamente supera a segunda com respeito a pelo menos um objetivo, mas perde em relação a pelo menos outro objetivo (ARROYO et al., 2002). Dependendo do algoritmo adotado, ao final da otimização um conjunto de soluções ótimas é normalmente apresentado como saída do algoritmo (CARAMIA; DELL’OLMO, 2008). Matematicamente a otimização multiobjetivo para o caso particular de minimização é descrita como

min[f1(x), f2(x), ..., fn(x)]

x ∈ S, (3.1)

Alguns problemas multiobjetivo pode ser resolvidos através da combinação das múltiplas funções em uma função escalar de objetivo único. Esse método é geralmente conhecido como escalarização ou método da soma ponderada. Mais detalhadamente, o

método consiste em n X i=1 γifi(x) n X i=1 γi = 1 γi0, i = 1, ..., n x ∈ S, (3.2)

que representa um novo problema de otimização de função objetivo única.

A adoção da escalarização ou ponderação de objetivos podem levar a algumas dificuldades. Para que se possa obter os resultados esperados deve-se conhecer bem a importância de cada objetivo para a atribuição de pesos. Caso isso não seja observado, o algoritmo pode tender a privilegiar soluções que obtenham respostas satisfatórias em apenas um único objetivo em detrimento dos demais. Isso pode levar a busca a regiões com soluções não muito interessantes ao problema proposto. Há também casos onde não a técnica não encontre ponderação adequada, como no caso de fronteiras de pareto não-convexas.

3.1.4

Algoritmos de Otimização

Inúmeros algoritmos já foram propostos no campo extensivamente pesquisado da otimização. Em geral, esses algoritmos são divididos em duas categorias, os algoritmos determinísticos e estocásticos, podendo ser estendidos para uma terceira categoria de algoritmos híbridos, que interseccionam as duas categorias citadas (QING, 2009).

3.1.4.1 Algoritmos de Otimização Determinísticos

Um algoritmo determinístico sempre entregará a mesma solução com o mesmo número de avaliações da função objetivo, independentemente do momento em que é iniciado, se o ponto de início no espaço de busca e condições de terminação se mantiverem inalterados. Se o algoritmo for executado múltiplas vezes no mesmo computador e nas mesmas condições, o tempo de busca será o mesmo para todas elas. A escolha de pontos de partida promissores pode requerer conhecimento prévio do espaço de busca ou da classe do problema abordado. Quando não há esse conhecimento, a abordagem de seleção de pontos de forma aleatória pode ser usada.

Normalmente algoritmos determinísticos implicam em limitações excessivas nos parâmetros de otimização, funções objetivo e funções de restrição. Uma parte dos algoritmos de otimização aplicam-se apenas a parâmetros contínuos de otimização. A

convexidade, continuidade e diferenciabilidade das funções objetivo e de restrição são as implicações mais comuns assumidas por algoritmos determinísticos de otimização, o que, em muitas situações, pode não ser verdade em problemas do mundo real.

Em certos casos, algoritmos de otimização determinísticos podem apresentar-se como matematicamente elegantes. Contudo, eles podem requerer não apenas as funções objetivo, mas também o cálculo de derivadas, o que pode tornar o processo mais complexo. Essa abordagem pode tornar-se uma sobrecarga computacional principalmente quando rea- lizadas através de aproximações , como, por exemplo, por diferenças finitas. Eventualmente esses são métodos de otimização local.

3.1.4.2 Algoritmos de Otimização Estocástica

Nas últimas décadas, a atenção para os algoritmos estocásticos de otimização tem aumentado, especialmente as meta-heurísticas, e um crescimento significativo no uso dessas técnicas tem sido visto (MICHALEWICZ; FOGEL,2013).

Os pontos negativos em relação aos algoritmos de otimização estocástica é a ausências de garantias tais como:

• Não garantem convergência;

• Não garantem a obtenção da solução ótima;

• Não há garantias quanto ao tempo exigido para a convergência.

Por outro lado, ganha-se em alguns outros aspectos como (QING,2009):

• Aleatoriedade: resultados obtidos através de otimização estocástica são no geral imprevisíveis devido à sua componente de aleatoriedade. Isso na prática pode resultar em soluções diferentes apresentadas a cada execução do algoritmo, mesmo ao se adotar condições iniciais idênticas. Contudo, idealmente a divergência dessas soluções tende a ser pequena. A controvérsia da abordagem estocástica recai sobre a ausência de garantias de sucesso absoluto, levando a se considerar percentuais de falha, mesmo que pequenos.

• Simplicidade: do ponto de vista matemático são frequentemente mais simples que os algoritmos determinísticos, não exigindo na maioria das vezes nenhuma diferen- ciação exata ou aproximada. A pesar de não ser parte intrínseca deles, algoritmos de otimização estocástica podem gerar seus próprios pontos de partida das mais variadas maneiras, tirando do usuário a necessidade de domínio prévio do problema. Tipicamente, cada algoritmo estocástico possui alguns parâmetros que regulam o

seu comportamento, e cujos valores devem ser cuidadosamente definidos para que ele seja bem-sucedido na tarefa.

• Eficiência: podem requerer mais avaliações da função objetivo para encontrar a solução ótima do que os métodos determinísticos de otimização. Isso pode implicar em um custo computacional mais elevado.

• Robustez: são capazes de obter soluções quase ótimas em amplos espaços de busca, onde algoritmos de busca determinística não conseguiriam obter resultados equiva- lentes nas mesmas condições. Para muitas aplicações práticas, uma solução quase ótima pode ser satisfatória.

• Versatilidade: a maioria dos algoritmos estocásticos não impõe restrições sobre os problemas de otimização, podendo estes estarem situados em domínios discretos, contínuos ou até mesmo simbólicos. Neste ponto, as otimizações estocásticas são muito versáteis já que poucos ajustes são necessários para que algoritmo aborde problemas completamente diferentes.

Neste trabalho, devido à natureza do problema em estudo, opta-se pela abor- dagem estocástica, dada a complexidade e dificuldade em adquirir conhecimento prévio acerca da função objetivo.

Documentos relacionados