• Nenhum resultado encontrado

Considerações sobre a computação evolutiva

No documento PDF completo (páginas 90-95)

Introdução à computação evolucionária

4.4 Considerações sobre a computação evolutiva

Quando usar computação natural? As técnicas de computação natural são técnicas alternativas. O ideal é utiliza-las quando os métodos de otimização clássica são de difícil aplicação ou falham. De forma geral, são vantagens das estratégias aqui discutidas: • Não requerem um conhecimento matemático profundo do

problema ao qual é aplicado;

• Requerem pouco esforço de implementação; • São facilmente hibridizáveis com outras técnicas;

• São facilmente adaptáveis a muitas classes de problemas, inclusive problemas multiobjetivo;

• São implícita e explicitamente aptas a computação paralela; • São robustas e capazes de manipular de restrições.

Também de forma geral, são desvantagens das estratégias discutidas: • Não garantem encontrar a solução ótima exata;

• Há pouco embasamento teórico – a prática se desenvolveu mais do que a teoria;

• O ajuste dos parâmetros de controle requer conhecimento prévio, até por tentativa-e-erro;

Em específico sobre as dificuldades citadas no capítulo 3:

• Descontinuidades: como estes métodos não utilizam nenhuma informação sobre os gradientes das funções, não existe, portanto, qualquer dificuldade relativa à não-diferenciabilidade dos problemas; • Não-Convexidade: por trabalhar com populações, esses métodos

não são influenciados por não-convexidades;

• Multimodalidade: a grande vantagem destes métodos em relação àqueles baseados no gradiente ou em aproximações deste é a possibilidade da detecção de ótimos locais e globais. Os métodos de busca por populações são os que mais se aproximam do conceito de ‘algoritmo de otimização para problemas genéricos’ (multimodais, com restrições, convexos e não convexos, etc.). Claro que os métodos de busca por populações têm limitações. A primeira é que resultados obtidos por esses métodos dependem da distribuição da população inicial. Dificilmente o método convergirá se o ótimo global estiver afastado da região onde se concentra a população inicial. Fica então evidente que a eficiência desses métodos depende de uma população inicial que explore bem todo o espaço de busca. O segundo aspecto negativo é a velocidade de convergência. Comparando com as outras famílias, os métodos que utilizam populações podem ser mais ‘lentos’, no sentido de que eles podem necessitar de um maior número de avaliações do problema. O esforço computacional desses métodos pode ser maior para atingir os mesmos resultados (quando os outros métodos conseguem obter um resultado).

___________________________________________________________________

Considerações sobre o Problema Multiobjetivo

A computação natural, por trabalhar com um grupo de soluções (população), torna mais simples a descoberta da fronteira Pareto. Nos outros métodos existe a necessidade de repetir o processo de otimização com restrições ou ‘pesos’ diferentes para obter uma aproximação da fronteira Pareto-ótima. Isto foi discutido no capítulo 2.

Também é notório que essas metodologias são aptas e lidam de forma bastante simples com grandes e complexos espaços de busca (muitos parâmetros para ajustar, objetivos para alcançar, restrições para obedecer, etc.).

De forma geral, a vantagem mais significativa da utilização de uma ferramenta de busca evolucionária talvez seja o ganho de flexibilidade e adaptação ao problema em questão, combinada a um desempenho robusto e uma característica de busca global.

Este capítulo apresentou uma introdução a computação evolutiva. Um AG simples foi implementado e testado. O próximo capítulo apresenta detalhes para a implementação de um AG mais eficiente. O capítulo 6, por sua vez, apresenta a implementação de um AG multiobjetivo.

Referências

[1] J. Fulcher, Computational Intelligence: a compendium, Ed. Springer-Verlag, 2008. ISBN 9783540782933.

[2] L. N. de Castro, Fundamentals of Natural Computing: basic concepts, algorithms, and applications, CRC Press, 2006. ISBN 9781420011449.

[3] T. Nguyen et al. "Fuzzy Control Systems: Past, Present and Future," in IEEE Computational Intelligence Magazine, vol. 14, no. 1, pp. 56-68, Feb. 2019. doi: 10.1109/MCI.2018.2881644

[4] S. Kato, N. Wada and T. Kagawa, "Food texture estimation by fuzzy inference," 2017 International Conference on Fuzzy Theory and Its Applications (iFUZZY), Pingtung, 2017, pp. 1-6. doi: 10.1109/iFUZZY.2017.8311792

[5] S. Gollapudi and V. Laxmikanth, Practical Machine Learning. Birmingham, UK: Packt Publishing, 2016.

[6] Scikit-learn (2020) Machine Learning in Python. Available at: https://scikit-learn.org/stable/ (accessed 20 April 2020)

[7] J. Patterson and A. Gibson, Deep Learning: A Practitioner's Approach. Ed. O'Reilly, 2017. ISBN 9781491914250.

[8] Z. Zhao, P. Zheng, S. Xu and X. Wu, "Object Detection With Deep Learning: A Review," in IEEE Transactions on Neural Networks and Learning Systems, vol. 30, no. 11, pp. 3212-3232, Nov. 2019, doi: 10.1109/TNNLS.2018.2876865.

[9] M. Xu, M. Han, C. L. P. Chen and T. Qiu, "Recurrent Broad Learning Systems for Time Series Prediction," in IEEE Transactions on Cybernetics, vol. 50, no. 4, pp. 1405-1417, April 2020, doi: 10.1109/TCYB.2018.2863020.

[10] A. Gaspar-Cunha, R. Takahashi and C. H. Antunes, Manual de Computação Evolutiva e Meta-heurística, Imprensa da Universidade de Coimbra, 2012. ISBN 9789892605838.

[11] J. H. Holland, Adaptation in Natural and Artificial Systems: An introductory analysis with applications to biology, control, and artificial intelligence, MIT Press, Cambridge, 1992. ISBN 9780262082136.

[12] D. E. Goldberg, Genetic Algorithms in Search, Optimization, and Machine Learning, Addison Inc., New York, 1989. ISBN 9780201157673.

___________________________________________________________________ [13] C. A. Coello Coello, G. B. Lamont and D. A. Van Veldhuizen, Evolutionary Algorithms for Solving Multi-Objective Problems, 2nd ed., Ed. Springer, 2007. ISBN 9780387332543.

[14] J. R. Koza, Genetic Programming: On the Programming of Computers by Means of Natural Selection (Complex Adaptive Systems), MIT Press, 1993. ISBN 9780262111706.

[15] Y. Tan, Y. Shi and B. Niu, Advances in Swarm Intelligence: 10th International Conference, ICSI 2019, Chiang Mai, Thailand, July 26–30, 2019, Proceedings, Part I (Lecture Notes in Computer Science Book 11655) 2019. LNCS 11655.

[16] S. Goss et al. Self-organized shortcuts in the Argentine ant. Naturwissenschaften v. 76, pp. 579–581, May 1989. doi: 10.1007/BF00462870.

[17] B. Walker, Particle Swarm Optimization (PSO): Advances in Research and Applications, Series: Computer Science, Technology and Applications, Nova Science Publishers, 2017. ISBN 9781536108286.

[18] L. N. de Castro and J. Timmis, Artificial Immune Systems: A New Computational Intelligence Approach, Springer-Verlag. 2002. ISBN 9781852335946.

[19] H. Mo, Handbook of Research on Artificial Immune Systems and Natural Computing: Applying Complex Adaptive Technologies, IGI Global, 2009. ISBN 9781605663104.

[20] E. Wirsansky, Hands-On Genetic Algorithms with Python: Applying genetic algorithms to solve real-world deep learning and artificial intelligence problems, Packt Publishing Ltd, 2020. ISBN 9781838559182.

No documento PDF completo (páginas 90-95)

Documentos relacionados