• Nenhum resultado encontrado

3.4 Noções Gerais de Complexidade do Algoritmo

4.1.3 Apresentação dos Resultados e Discussão

Considerando-se primeiramente os erros absolutos médios (EAM) entre o ótimo global de cada problema e a melhor solução encontrada por cada algoritmo imunoinspirado ao longo das 25 repeti- ções, dados na Tabela 4.3, é possível observar que o algoritmo cob-aiNet obteve os menores valores em todos os problemas estudados, e também que a diferença de desempenho entre a cob-aiNet e os demais algoritmos foi estatisticamente significante em todos os casos.

Tab. 4.3: Média ± Desvio Padrão dos erros absolutos entre as melhores soluções obtidas por cada algoritmo e o ótimo global de cada problema, avaliados em 25 repetições. Os melhores resultados estão em negrito e aqueles para os quais a hipótese nula do teste de Wilcoxon (quando comparados com os da cob-aiNet) pode ser rejeitada com significância 0, 05 estão marcados com ∗.

cob-aiNet cob-aiNet sem Busca Local opt-aiNet dopt-aiNet

F2 1, 91 · 10−11± 2, 65 · 10−11 2, 78 · 10−9± 2, 70 · 10−9∗ 6, 25 · 10−5± 6, 74 · 10−5∗ 2, 32 · 101± 3, 95 · 101∗ F4 3, 48 · 10−11± 8, 53 · 10−11 3, 64 · 10−9± 3, 53 · 10−9∗ 3, 06 · 10−5± 2, 40 · 10−5∗ 1, 19 · 102± 1, 69 · 102∗ F9 3, 38 · 10−10± 1, 08 · 10−9 1, 10 · 10−3± 5, 04 · 10−3∗ 3, 75 · 10−2± 3, 08 · 10−2∗ 5, 93 · 10−1± 4, 84 · 10−1∗ F12 9, 67 · 10−12± 1, 04 · 10−11 4, 19 · 10−2± 4, 80 · 10−2∗ 5, 14 · 10−2± 5, 36 · 10−2∗ 7, 35 · 10−1± 6, 92 · 10−1∗ F15 1, 01 · 10−11± 1, 41 · 10−11 1, 54 · 10−3± 1, 75 · 10−3∗ 6, 14 · 10−1± 3, 96 · 10−1∗ 7, 81 · 100± 1, 22 · 101∗ F20 7, 13 · 10−11± 1, 06 · 10−10 1, 02 · 10−2± 8, 53 · 10−3∗ 3, 33 · 10−1± 2, 86 · 10−1∗ 1, 33 · 102± 6, 94 · 101∗

Além disso, observando-se o número final de indivíduos retornados por cada algoritmo, apresen- tados na Tabela 4.4, é possível perceber sinais de que a cob-aiNet também possui mecanismos mais eficientes de controle de diversidade e ajuste do tamanho da população, já que ela foi o único algo-

ritmo que convergiu para uma única solução em todas as repetições dos problemas monomodais (F2e

F4). Esta característica foi observada tanto na versão original da cob-aiNet, com busca local, quanto em sua versão com este operador desabilitado.

Tab. 4.4: Média ± Desvio Padrão do número final de soluções retornadas por cada algoritmo em 25 repetições para cada problema. Os resultados para os quais a hipótese nula do teste de Wilcoxon (quando comparados com os da cob-aiNet) pode ser rejeitada com significância 0, 05 estão marcados com ∗.

cob-aiNet cob-aiNet sem Busca Local opt-aiNet dopt-aiNet

F2 1, 00 ± 0, 00 1, 00 ± 0, 00 4, 40 ± 1, 12 ∗ 2, 64 ± 1, 11 ∗ F4 1, 00 ± 0, 00 1, 00 ± 0, 00 1, 56 ± 0, 51 ∗ 2, 84 ± 1, 21 ∗ F9 91, 32 ± 4, 11 98, 52 ± 2, 87 ∗ 25, 80 ± 4, 06 ∗ 4, 00 ± 0, 00 ∗ F12 9, 56 ± 1, 61 167, 64 ± 10, 29 ∗ 6, 00 ± 1, 29 ∗ 8, 96 ± 1, 14 F15 53, 96 ± 2, 81 65, 04 ± 3, 83 ∗ 16, 56 ± 3, 16 ∗ 21, 08 ± 1, 98 ∗ F20 17, 68 ± 2, 75 17, 44 ± 2, 04 8, 40 ± 1, 71 ∗ 11, 56 ± 1, 94 ∗

No entanto, o número final de indivíduos apresentado na Tabela 4.4 não permite, isoladamente, uma correta avaliação da capacidade de cobertura do espaço de busca de cada algoritmo para os problemas multimodais, já que não é possível saber qual a posição relativa entre cada uma destas soluções e os ótimos locais de cada problema. Sendo assim, para que seja possível avaliar este aspecto, as populações finais retornadas por cada algoritmo nas repetições 1, 12 e 25 dos problemas

F2–F20, em conjunto com as respectivas curvas de nível de cada problema, estão representadas nas

Figuras 4.2–4.7. Por questões de espaço e para evitar quaisquer favorecimentos, foram escolhidas apenas as repetições inicial, final e intermediária para serem apresentadas aqui, já que elas permitem que se tenha uma boa visualização do comportamento geral de cada algoritmo. É importante ressaltar que todos os problemas tratados são de minimização e, quanto mais escuro for o tom de azul de uma curva de nível das Figuras 4.2–4.7, menor será o valor da função-objetivo naquela região, enquanto que quanto mais escuro o tom de vermelho da curva, maior o valor da função-objetivo.

Considerando-se primeiramente os problemas monomodais F2e F4(Figuras 4.2 e 4.3), é possível

observar que as duas versões da cob-aiNet foram capazes de convergir para uma única solução em todas as repetições (vide Tabela 4.4), posicionadas praticamente no ótimo global de cada problema. Já a opt-aiNet e a dopt-aiNet não conseguiram convergir para uma única solução na maioria das repetições, sendo que a dopt-aiNet deixou inclusive de localizar o ótimo global em diversas situações como as ilustradas nas Figuras 4.2(j) e 4.3(k), o que resultou no alto EAM apresentado por este algoritmo na Tabela 4.3.

No entanto, é nos problemas multimodais que as diferenças entre os mecanismos de manutenção de diversidade e de adaptação do tamanho da população de cada algoritmo se tornam mais evidentes.

Para o problema F9(Figura 4.4), que é o que apresenta o maior número de ótimos locais, a quantidade

de vales identificados pelas duas variações da cob-aiNet foi significativamente maior que a das demais ferramentas, sendo que ambos os algoritmos convergiram inclusive para um número de soluções

(a) cob-aiNet – Rep. 1 (b) cob-aiNet – Rep. 12 (c) cob-aiNet – Rep. 25

(d) cob-aiNet sem B.L. – Rep. 1 (e) cob-aiNet sem B.L. – Rep. 12 (f) cob-aiNet sem B.L. – Rep. 25

(g) opt-aiNet – Rep. 1 (h) opt-aiNet – Rep. 12 (i) opt-aiNet – Rep. 25

(j) dopt-aiNet – Rep. 1 (k) dopt-aiNet – Rep. 12 (l) dopt-aiNet – Rep. 25

Fig. 4.2: Representação gráfica das curvas de nível do problema F2 em conjunto com as populações finais

retornadas pelos algoritmos cob-aiNet [(a), (b) e (c)], cob-aiNet sem busca local [(d), (e) e (f)], opt-aiNet [(g), (h) e (i)] e dopt-aiNet [(j), (k) e (l)] nas repetições 1, 12 e 25 dos experimentos. As melhores soluções estão representadas em vermelho.

(a) cob-aiNet – Rep. 1 (b) cob-aiNet – Rep. 12 (c) cob-aiNet – Rep. 25

(d) cob-aiNet sem B.L. – Rep. 1 (e) cob-aiNet sem B.L. – Rep. 12 (f) cob-aiNet sem B.L. – Rep. 25

(g) opt-aiNet – Rep. 1 (h) opt-aiNet – Rep. 12 (i) opt-aiNet – Rep. 25

(j) dopt-aiNet – Rep. 1 (k) dopt-aiNet – Rep. 12 (l) dopt-aiNet – Rep. 25

Fig. 4.3: Representação gráfica das curvas de nível do problema F4 em conjunto com as populações finais

retornadas pelos algoritmos cob-aiNet [(a), (b) e (c)], cob-aiNet sem busca local [(d), (e) e (f)], opt-aiNet [(g), (h) e (i)] e dopt-aiNet [(j), (k) e (l)] nas repetições 1, 12 e 25 dos experimentos. As melhores soluções estão representadas em vermelho.

(a) cob-aiNet – Rep. 1 (b) cob-aiNet – Rep. 12 (c) cob-aiNet – Rep. 25

(d) cob-aiNet sem B.L. – Rep. 1 (e) cob-aiNet sem B.L. – Rep. 12 (f) cob-aiNet sem B.L. – Rep. 25

(g) opt-aiNet – Rep. 1 (h) opt-aiNet – Rep. 12 (i) opt-aiNet – Rep. 25

(j) dopt-aiNet – Rep. 1 (k) dopt-aiNet – Rep. 12 (l) dopt-aiNet – Rep. 25

Fig. 4.4: Representação gráfica das curvas de nível do problema F9 em conjunto com as populações finais

retornadas pelos algoritmos cob-aiNet [(a), (b) e (c)], cob-aiNet sem busca local [(d), (e) e (f)], opt-aiNet [(g), (h) e (i)] e dopt-aiNet [(j), (k) e (l)] nas repetições 1, 12 e 25 dos experimentos. As melhores soluções estão representadas em vermelho.

(a) cob-aiNet – Rep. 1 (b) cob-aiNet – Rep. 12 (c) cob-aiNet – Rep. 25

(d) cob-aiNet sem B.L. – Rep. 1 (e) cob-aiNet sem B.L. – Rep. 12 (f) cob-aiNet sem B.L. – Rep. 25

(g) opt-aiNet – Rep. 1 (h) opt-aiNet – Rep. 12 (i) opt-aiNet – Rep. 25

(j) dopt-aiNet – Rep. 1 (k) dopt-aiNet – Rep. 12 (l) dopt-aiNet – Rep. 25

Fig. 4.5: Representação gráfica das curvas de nível do problema F12 em conjunto com as populações finais

retornadas pelos algoritmos cob-aiNet [(a), (b) e (c)], cob-aiNet sem busca local [(d), (e) e (f)], opt-aiNet [(g), (h) e (i)] e dopt-aiNet [(j), (k) e (l)] nas repetições 1, 12 e 25 dos experimentos. As melhores soluções estão representadas em vermelho.

(a) cob-aiNet – Rep. 1 (b) cob-aiNet – Rep. 12 (c) cob-aiNet – Rep. 25

(d) cob-aiNet sem B.L. – Rep. 1 (e) cob-aiNet sem B.L. – Rep. 12 (f) cob-aiNet sem B.L. – Rep. 25

(g) opt-aiNet – Rep. 1 (h) opt-aiNet – Rep. 12 (i) opt-aiNet – Rep. 25

(j) dopt-aiNet – Rep. 1 (k) dopt-aiNet – Rep. 12 (l) dopt-aiNet – Rep. 25

Fig. 4.6: Representação gráfica das curvas de nível do problema F15 em conjunto com as populações finais

retornadas pelos algoritmos cob-aiNet [(a), (b) e (c)], cob-aiNet sem busca local [(d), (e) e (f)], opt-aiNet [(g), (h) e (i)] e dopt-aiNet [(j), (k) e (l)] nas repetições 1, 12 e 25 dos experimentos. As melhores soluções estão representadas em vermelho.

(a) cob-aiNet – Rep. 1 (b) cob-aiNet – Rep. 12 (c) cob-aiNet – Rep. 25

(d) cob-aiNet sem B.L. – Rep. 1 (e) cob-aiNet sem B.L. – Rep. 12 (f) cob-aiNet sem B.L. – Rep. 25

(g) opt-aiNet – Rep. 1 (h) opt-aiNet – Rep. 12 (i) opt-aiNet – Rep. 25

(j) dopt-aiNet – Rep. 1 (k) dopt-aiNet – Rep. 12 (l) dopt-aiNet – Rep. 25

Fig. 4.7: Representação gráfica das curvas de nível do problema F20 em conjunto com as populações finais

retornadas pelos algoritmos cob-aiNet [(a), (b) e (c)], cob-aiNet sem busca local [(d), (e) e (f)], opt-aiNet [(g), (h) e (i)] e dopt-aiNet [(j), (k) e (l)] nas repetições 1, 12 e 25 dos experimentos. As melhores soluções estão representadas em vermelho.

maior que o tamanho de suas populações definido inicialmente (vide Tabela 4.4). Além disso, é possível observar na Figura 4.4 que nem todas as soluções obtidas pela opt-aiNet e pela dopt-aiNet correspondem efetivamente a ótimos locais do problema, já que apesar de algumas delas estarem no vale correspondente a um ótimo local, elas se encontram deslocadas em relação à posição efetiva do ótimo (sempre centralizado em seu vale correspondente).

No problema F9, é possível também começar a perceber com maior clareza o impacto que o

operador de busca local tem no algoritmo cob-aiNet. Observando-se a Tabela 4.3, nota-se que este operador permitiu a obtenção de um EAM diversas ordens de grandeza menor que o obtido pela versão do algoritmo sem busca local. Isto evidencia a limitação de capacidade de ajuste fino presente em SIAs baseados em apenas um operador de mutação, que foi discutida na Seção 3.3.4. Já quanto à capacidade de manutenção de diversidade, é possível observar na Figura 4.4 que a versão da cob- aiNet sem busca local foi capaz de encontrar um número ligeiramente maior de ótimos locais do que o encontrado por sua versão completa, o que indica que o uso ou não do operador de busca local pode determinar a escolha entre a obtenção de um melhor ajuste fino das soluções ou a localização de um número maior de ótimos locais.

Com relação ao problema F12, a versão da cob-aiNet sem busca local apresentou um comporta-

mento completamente inesperado, ilustrado na Figura 4.5. Como é possível observar, esta variante da cob-aiNet retornou um número elevado de indivíduos ao final de todas as repetições deste pro- blema, num comportamento bem diferente do observado para a cob-aiNet completa. Analisando-se estes resultados mais detalhadamente, é possível notar que, em média, nas populações finais da ver- são completa da cob-aiNet cerca de 20 ± 12% das soluções retornadas possuem concentração inferior a 0, 5, enquanto que 11 ± 9% destas soluções possui concentração inferior a 0, 1. Já na versão do algoritmo sem a busca local, estes valores são respectivamente 62 ± 5% e 39 ± 6%, o que evidencia que a dinâmica de concentrações dos indivíduos da população ainda não havia se estabilizado sufi- cientemente no final das execuções. Diante disso, fica claro que, para este problema, o operador de busca local é essencial para acelerar a convergência das soluções, permitindo assim a estabilização do modelo e a supressão das soluções não-promissoras da população.

Já nos problemas F15e F20, que são os dois mais desafiadores dentre os estudados aqui, a mesma

tendência observada nos demais problemas se manteve. A cob-aiNet com busca local conseguiu EAMs significativamente menores que os demais algoritmos, enquanto que seus mecanismos de ma- nutenção de diversidade levaram à localização de uma maior quantidade de ótimos locais quando comparada à obtida pela opt-aiNet e pela dopt-aiNet. Considerando-se as duas versões da cob-aiNet,

resultados equivalentes aos observados para F9 foram obtidos, com a versão sem busca local sendo

capaz de encontrar um número um pouco maior de ótimos locais que a versão completa (exceto para

Tab. 4.5: Média ± Desvio Padrão do número de iterações executadas por cada algoritmo a cada repetição. Os resultados para os quais a hipótese nula do teste de Wilcoxon (quando comparados com os da cob-aiNet) pode ser rejeitada com significância 0, 05 estão marcados com ∗.

cob-aiNet cob-aiNet sem Busca Local opt-aiNet dopt-aiNet

F2 37, 60 ± 3, 74 3646, 36 ± 175, 71 ∗ 538, 64 ± 36, 51 ∗ 26, 00 ± 0, 00 ∗ F4 58, 80 ± 45, 26 3855, 72 ± 145, 20 ∗ 1268, 48 ± 32, 20 ∗ 26, 00 ± 0, 00 ∗ F9 34, 28 ± 2, 19 44, 52 ± 1, 29 ∗ 104, 88 ± 8, 60 ∗ 25, 04 ± 0, 79 ∗ F12 38, 20 ± 2, 53 30, 00 ± 0, 00 ∗ 367, 60 ± 6, 75 ∗ 24, 00 ± 0, 41 ∗ F15 39, 60 ± 4, 21 56, 96 ± 2, 46 ∗ 149, 48 ± 9, 76 ∗ 20, 32 ± 1, 38 ∗ F20 61, 20 ± 4, 20 163, 48 ± 13, 10 ∗ 265, 00 ± 14, 91 ∗ 24, 08 ± 0, 76 ∗

De maneira geral, os menores erros absolutos médios obtidos pela cob-aiNet se devem tanto ao novo mecanismo de variação dinâmica do parâmetro β de hipermutação quanto ao operador de busca local. Apesar de a maior contribuição neste aspecto ter sido introduzida pela busca local, o novo operador de hipermutação também levou à obtenção de menores erros para todos os problemas tratados, como pode ser visto na Tabela 4.3 ao se comparar os resultados da cob-aiNet sem busca local e da opt-aiNet, que adota o mesmo operador de mutação mas com o parâmetro β fixo. No entanto, com relação à capacidade de manutenção de diversidade e de adaptação do tamanho da população às características do problema, o novo modelo de rede imunológica proposto no algoritmo cob-aiNet é o principal responsável pelas grandes melhorias observadas, ficando o operador de busca local responsável apenas por contribuir para uma convergência mais rápida de cada solução para o ótimo local mais próximo, reduzindo-se assim a possibilidade de ocorrência de situações espúrias, como a observada no problema F12.

Um outro aspecto que chama a atenção nestes experimentos é o fato da dopt-aiNet apresentar resultados significativamente piores que os das demais ferramentas, o que pode ser de certa forma explicado pelos critérios de parada adotados aqui (número máximo de avaliações da função-objetivo ou erro absoluto médio inferior a um dado limiar). Como discutido na Seção 4.1.1, a dopt-aiNet pos- sui uma série de operadores de mutação e busca linear que exigem um grande número de avaliações da função-objetivo a cada iteração, o que acabou levando este algoritmo a ser executado aqui por um número de iterações significativamente menor que o das demais ferramentas (vide Tabela 4.5), possi- velmente limitando sua capacidade de exploração do espaço de busca. Em todas as repetições feitas para todos os problemas, a dopt-aiNet encerrou sua execução ao atingir o número máximo permitido de avaliações da função-objetivo, diferentemente da cob-aiNet, que, na maioria dos casos, encerrou a simulação ao convergir para soluções dentro do limiar de erro desejado.

algoritmo. Como os experimentos apresentados e discutidos até o momento foram feitos em máquinas e condições diferentes para cada algoritmo e cada problema, não é possível utilizá-los para estabelecer uma comparação direta entre os tempos computacionais envolvidos em cada ferramenta. No entanto,

para que este aspecto não fosse deixado em aberto, foi escolhido o problema F9, pela sua maior

quantidade de ótimos locais, e reexecutadas as quatro ferramentas que estão sendo analisadas aqui sob as mesmas condições experimentais. O número de repetições, critérios de parada e demais parâmetros de cada algoritmo foram os mesmos apresentados na Seção 4.1.2, e os experimentos fora feitos em um computador com processador Intel Core2Duo T7500 de 2, 2 GHz, 3 GB de RAM, Windows 7 Professional e Matlab R2010a. Todas as implementações foram feitas em linguagem Matlab.

Os tempos computacionais médios, em 25 repetições de cada algoritmo para o problema F9 es-

tão apresentados na Tabela 4.6. Como é possível observar, os mecanismos responsáveis pelo novo modelo de rede imunológica introduzido em ambas as versões da cob-aiNet (com e sem busca lo- cal) trazem consigo um custo computacional importante, já que exigem comparações par a par entre todos os indivíduos da população a cada iteração. No entanto, como foi observado anteriormente, a cob-aiNet conseguiu, em muitos casos, atingir a precisão de solução desejada com um número de avaliações de função menor que o limite máximo estabelecido, o que pode fazer com que seu custo computacional maior seja diluído em situações em que as avaliações da função-objetivo são as eta- pas mais custosas do processo de otimização, tornando a ferramenta proposta vantajosa também sob este aspecto. No entanto, desconsiderando-se esta situação hipotética, pode-se entender este maior custo computacional da cob-aiNet como o preço a ser pago tanto pela sua maior capacidade de ma- nutenção de diversidade quanto por seu ajuste dinâmico do tamanho da população mais eficiente, extensivamente verificados nos resultados discutidos ao longo desta seção.

Tab. 4.6: Média ± Desvio Padrão do tempo computacional (em segundos) gasto por cada algoritmo a cada repetição do problema F9, em <2. Os resultados para os quais a hipótese nula do teste de Wilcoxon (quando

comparados com os da cob-aiNet) pode ser rejeitada com significância 0, 05 estão marcados com ∗.

cob-aiNet cob-aiNet sem Busca Local opt-aiNet dopt-aiNet

F9 62, 94 ± 17, 51 69, 98 ± 17, 82 ∗ 1, 23 ± 0, 07 ∗ 5, 86 ± 0, 08 ∗