• Nenhum resultado encontrado

Mini-curso Tópicos de Inteligência Computacional

N/A
N/A
Protected

Academic year: 2021

Share "Mini-curso Tópicos de Inteligência Computacional"

Copied!
5
0
0

Texto

(1)

Mini-curso

Tópicos de Inteligência Computacional

Prof. Dr. Marcos Eduardo Valle (e-mail: valle@uel.br)

Universidade Estadual de Londrina - Departamento de Matemática

Resumo

O mini-curso “Tópicos em Inteligência Computacional” apresenta de forma breve os principais conceitos de inteligência computacional, destacando principalmente o contexo histórico. Inteligência computacional é uma área emergente de pesquisa que abrange redes neurais artificiais, teoria dos conjuntos nebulosos e computação evolutiva. Resumidamente, uma rede neural artificial é um modelo matemático inspirado no sistema nervoso biológico, em particular, o cérebro humano. A teoria dos conjuntos nebulosos é usada para descrever conceitos incertos usados frequentemente na linguagem natural como a noção de pessoa jovem, erro pequeno e temperatura confortável. A computação evolutiva representa um conjunto de técnicas inspiradas na teoria da evolução de Darwin.

Palavras-chave: Inteligência computacional, redes neurais artificiais, teoria dos conjuntos nebulosos, computação evo-lutiva.

1

Inteligência Computacional

Inteligência computacional(IC) estuda a natureza do homem de resolver problemas com objetivo de desenvolver um sistema computacional capaz de resolver problemas complexos [19, 46]. Como mencionado no resumo, IC é uma área emergente de pesquisa que abrange redes neurais artificiais, teoria dos conjuntos nebulosos e computação evolutiva. As próximas seções apresentam uma breve discussão sobre cada um desses três tópicos.

É importante observar, entretanto, que IC não está restrita apenas à redes neurais artificiais, teoria dos conjuntos nebulosos e computação evolutiva. Muitos pesquisadores consideram sistemas imunológicos, colônias de formigas, etc. como áreas de pesquisas de inteligência computacional. Todavia, não discutiremos esses assuntos nesse mini-curso. O leitor interessado em IC, pode consultar os seguintes livros: [19, 31]

2

Redes Neurais Artificiais

Pode-se dizer que os estudos em redes neurais artificiais (RNAs) iniciaram em 1943 quando o biólogo McCulloch e o matemático Pitts apresentaram um modelo do neurônio biológico [41]. Em 1949, o neurofisiologista Donald Hebb publicou o livro “The Organization of Behavior” [24]. Neste livro, Hebb observou que as conexões sinápticas do cérebro são continuamente modificadas conforme um organismo aprende novas tarefas.

Aproximadamente 15 anos após a publicação do clássico artigo de McCulloch e Pitts, Rosenblatt e seus colegas introduziram o perceptron, a primeira RNA usada para o reconhecimento de padrões [48]. Na mesma época, Widrow e Hoff introduziram o chamado algoritmo do mínimo quadrado médio (LMS, Least Mean-Square) e usaram-no para formular o Adaline (Adaptive Linear Element) [56]. Infelizmente, o Adaline e o Peceptron (com uma única camada de neurônios) apresentam limitações severas e não conseguem resolver, em particular, o problema do ou-exclusivo [43]. Tanto Rosenblatt como Widrow estavam cientes destas limitações e apresentaram RNAs de múltiplas camadas que poderiam superar tais restrições, mas não conseguiram estender seus algoritmos de aprendizado para esses modelos mais complexas. Tais dificuldades e a falta de recursos tecnológicos nos anos 1960 proporcionou um adormecimento nas pesquisas em RNAs e poucos pesquisadores como Anderson [5, 7], Amari [1, 2], Cooper [16], Grossberg [20, 21] e Kohonen [34, 37, 35, 36] permaneceram no ramo.

Nos anos 1980s, a ausência de recursos tecnológicos foi superada e a pesquisa em redes neurais aumentou drastica-mente. Computadores pessoais e estações de trabalho, que cresciam em capacidade, tornaram-se vitais para o desenvol-vimento da pesquisa em RNAs. Além disso, novos conceitos foram introduzidos. Dois deles tiveram grande influência no meio científico. O primeiro foi o uso da mecânica estatística para explicar as operações e convergência de algumas redes neurais recorrentes. Este conceito foi introduzido pelo físico Hopfield em 1982 [27, 28, 29]. A segunda chave para o desenvolvimento foi o algoritmo de retropropagação (back-propagation), usado para treinar o perceptrons conectados

(2)

em múltiplas camadas. Este algoritmo foi descoberto independentemente por pesquisadores [15, 54, 55]. Entretanto, a publicação mais influente foram os livros [49, 50] editados por Rumelhart et al.. Estes livros exerceram uma grande influência na utilização do algoritmo de retropropagação, que emergiu como a técnica de aprendizagem mais popular para o treinamento de RNAs de múltiplas camadas devido a sua eficiência e simplicidade computacional.

A história das redes neurais segue com muitos capítulos desafiantes. O leitor interessado no assunto é convidado a consultar as seguintes referências: [3, 4, 8, 6, 14, 22, 23, 25, 47, 52, 53]. Os seguintes periódicos disponívels no portal CAPES publicam excelentes artigos científicos sobre RNAs: “IEEE Transactions on Neural Networks”, “Neural Networks” e “Neurocomputing”.

3

Teoria dos Conjuntos Nebulosos

A teoria dos conjuntos nebulosos, também conhecida por teoria dos conjuntos fuzzy, foi introduzida no início dos anos 1960s por Lotfi Zadeh1 como uma ferramenta para modelar a imprecisão e a ambiguidade que surge em sistemas

com-plexos [58, 59]. Um conjunto nebuloso, ou conjunto fuzzy, difere de um conjunto clássico ao atribuir a cada elemento um valor no intervalo unitário [0, 1]. Especificamente, um conjunto nebuloso é definido como uma função A de um conjunto X, chamado universo de discurso, para [0, 1]. A função A é referida como função de pertinência e o valor A(x) repre-senta o grau de pertinência – ou compatibilidade – do elemento x com o conceito reprerepre-sentado pelo conjunto nebuloso. Dessa forma, conjuntos nebulosos podem ser usados para representar conceitos imprecisos como “jovem”, “temperatura confortável” e “erro pequeno”. Note que um conjunto clássico pode ser visto como um caso particular de um conjunto nebuloso onde o valor da função de pertinência pertence ao conjunto {0, 1} para todo x ∈ X. O leitor interessado pode encontrar um bom material sobre a teoria dos conjuntos nebulosos nos livros: [13, 17, 33, 44, 45, 46, 57]. Excelentes artigos científicos sobre conjuntos nebulosos podem ser obtidos, em particular, nos seguintes periódicos disponíveis no portal CAPES: “Fuzzy Sets and Systems”, “IEEE Transactions on Fuzzy Systems” e “Information Sciences”.

A partir de 1965, a teoria dos conjuntos nebulosos foi desenvolvida consideravelmente por Zadeh e pesquisadores do mundo todo. Além disso, a teoria dos conjuntos nebulosos foi aplicada com sucesso em diferentes áreas. Por exemplo, em 1974, Ebrahim Mamdani2e seu aluno Seto Assilan usaram a teoria dos conjuntos nebuloso para projetar um sistema para controlar um processo industrial. Em 1983, Yasunobu usou conjuntos nebulosos para automatizar as operações do metrô de Sendai, no Japão.

É importante observar que muitos modelos envolvendo conjuntos nebulosos, incluindo os controladores desenvol-vidos por Mamdani e Assilan, são formulados utilizado regras nebulosas [13, 46, 57]. Chamamos de regra nebulosa qualquer sentença da forma SE-ENTÃO onde os antecedentes e/ou consequente são conjuntos nebulosos. Várias regras nebulosas formam um Sistema de Regras Nebulosas (SRN). Outras aplicações de sistemas de regras nebulosas podem ser encontrados nas seguintes referências: [30, 32, 39, 38, 51].

4

Computação Evolutiva

Computação evolutiva(CE) refere-se à um conjunto de técnicas de otimização inspiradas na teoria da evolução de Darwin [9, 18, 12]. Lembre-se que a teoria de Darwin está baseada no princípio de seleção natural onde os indivíduos de uma espécie competem entre si e somente os mais aptos sobrevivem e reproduzem. Outro ponto importante da teoria da evolução é que, durante a reprodução, os novos indivíduos herdam as características dos pais mas estão também sujeitos à mutações.

Alguns pesquisadores, como Friedbelg, Fraser, Bremermann e Box, aplicaram a teoria da evolução em meados dos anos 1950 [10, 12]. Todavia, seus trabalhos não foram bem recebidos pela comunidade cietífica na época.

Durante os anos 1960s, três diferentes linhas de pesquisa em CE surgiram em lugares distintos. Nos Estados Unidos, Fogel desenvolveu a chamada programação evolutiva em San Diego, Califórnia, enquanto que, na Universidade de Mi-chigan em Ann Arbor, Holland introduziu os algoritmos genéticos. Do outro lado do Atlântico, em Berlin, Alemanha, um grupo de três estudantes, Bienert, Rechenberg e Schwefel, desenvolveram o conceito de estratégias evolutivas [10, 12].

As três linhas de pesquisa mencionadas no parágrafo anterior seguiram caminhos independentes por aproximadamente 25 anos e, somente em 1990, foi organizado um evento, chamado “Parallel Problem Solving from Nature”, onde as três comunidades foram reunidas. Durante esse primeiro encontro, foi apresentado o termo computação evolutiva [18]. Em 1993 foi publicado pela MIT Press o primeiro periódico sobre CE. O interesse em CE aumentou ainda mais após o primeiro IEEE World Congress on Computational Intelligence em Junho de 1994.

1Zadeh nasceu em 1921 no Azerbaijão, um país localizado no Cáucaso, entre Europa e Ásia, ao sul da Rússia. Ele é atualmente pesquisador da Universidade da Califórnia, em Berkeley nos Estados Unidos.

2Naquela época, Mamdani atuava como professor da “Queen Mary College” em Londres. Hoje, ele é professor emérito do Colégio Imperial, na Inglaterra.

(3)

O leitor interessado em CE pode consultar os seguintes livros: [9, 10, 12, 11, 18, 26, 40, 42]. O periódico “IEEE Transactions on Evolutionary Computation”, disponível no portal CAPES, publica excelentes artigos sobre CE.

Referências

[1] S.-I Amari. Characteristics of randon nets of analog neuron-like elements. IEEE Transactions on Systems, Man, and Cybernetics, SMC-2:643–657, 1972.

[2] S.-I. Amari. Neural theory of association and concept-formulation. Biological Cybernetics, 26:175–185, 1977. [3] Daniel J. Amit. Modeling Brain Function – The World of Attractor Neural Network. Cambridge University Press,

1989.

[4] J. A. Anderson and E. Rosenfeld, editors. Neurocomputing: Foundations of Research, volume 1. MIT Press, Cambridge, MA, 1989.

[5] J.A. Anderson. A simple neural network generating interactive memory. Mathematical Biosciences, 14:197–220, 1972.

[6] J.A. Anderson. An Introduction to Neural Networks. MIT Press, MA, 1995.

[7] J.A. Anderson, J.W. Silverstein, S.A. Ritz, and R.S. Jones. Distinctive features, categorical perception, and probabi-lity learning: Some applications of a neural model. Psychology Review, 84:413–415, July 1977.

[8] James A. Anderson, Andras Pellionisz, and Edward Rosenfeld, editors. Neurocomputing: Directions for Research, volume 2. MIT Press, Cambridge, MA, 1990.

[9] Daniel Ashlock. Evolutionary Computation for Modeling and Optimization. Springer Verlag, 2006.

[10] Thomas Bäck, David B. Fogel, and Zbigniew Michalewicz, editors. Handbook of Evolutionary Computation. Insti-tute of Physics Publishing and Oxford University Press, 1997.

[11] Thomas Bäck, David B. Fogel, and Zbigniew Michalewicz, editors. Evolutionary Computation: Advanced Algo-rithms and Operations, volume 2. Taylor and Francis, 2000.

[12] Thomas Bäck, David B. Fogel, and Zbigniew Michalewicz, editors. Evolutionary Computation: Basic Algorithms and Operators, volume 1. Taylor and Francis, 1 edition, 2000.

[13] Laecio Barros and Rodney Bassanezi. Tópicos de Lógica Fuzzy e Biomatemática. Editora do Instituto de Matemá-tica, Estatística e Computação Científica (IMECC-Unicamp), Campinas, 2006.

[14] C.M. Bishop. Neural Networks for Pattern Recognition. Oxford University Press, Oxford, UK, 1995.

[15] Arthur E. Bryson and Yu-Chi Ho. Applied Optimal Control: Optimization, estimation, and control. Taylor and Francis, 1 edition, 1975.

[16] L.N. Cooper. A possible organization of animal memory and learning. Proceeding of the Nobel Symposium on Collective Properties of Physical Systems, pages 252–264, 1973.

[17] Didier Dubois and Henri Prade. Fuzzy sets and systems: theory and applications. Academic Press, New York, 1980. [18] A. E. Eiben and J. E. Smith. Introduction to Evolutionary Computing. Natural Computing. Springer, 2007.

[19] Andries P. Engelbrecht. Computational Intelligence: An Introduction. John Wiley and Sons, 2 edition, 2007. [20] S. Grossberg. Nonlinear difference-diferential equations in prediction and learning theory. Proceedings of the

National Academy of Sciences, 58:1329–1334, 1967.

[21] S. Grossberg. A prediction theory for some nonlinear functional-difference equations. Journal of Mathematical Analysis and Applications, 21:643–694, 1968.

[22] M. H. Hassoun. Fundamentals of Artificial Neural Networks. MIT Press, Cambridge, MA, 1995.

[23] S. Haykin. Neural Networks: A Comprehensive Foundation. Prentice Hall, Upper Saddle River, NJ, 1999. [24] D.O. Hebb. The Organization of Behavior. John Wiley & Sons, New York, 1949.

(4)

[25] R. Hecht-Nielsen. Neurocomputing. Addison-Wesley, Reading, MA, 1989.

[26] John H. Holland. Adaptation in Natural and Artificial Systems: An Introductory Analysis with Applications to Biology, Control, and Artificial Intelligence. MIT Press, 1992.

[27] J. J. Hopfield. Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences, 79:2554–2558, April 1982.

[28] J. J. Hopfield. Neurons with graded response have collective computational properties like those of two-state neu-rons. Proceedings of the National Academy of Sciences, 81:3088–3092, May 1984.

[29] J.J. Hopfield and D.W. Tank. Neural computation of decisions in optimization problems. Biological Cybernetics, 52:141–152, 1985.

[30] Jan Jantzen. Foundations of Fuzzy Control. John Wiley & Sons, New York, NY, 2007.

[31] Vassilis Kaburlasos and Gerhard Ritter, editors. Computational Intelligence Based on Lattice Theory. Springer-Verlag, Heidelberg, Germany, 2007.

[32] Nikola K. Kasabov. Foundations of Neural Networks, Fuzzy Systems, and Knowledge Engineering. MIT Press, Cambridge, MA, USA, 1996.

[33] Georg J. Klir and B. Yuan. Fuzzy Sets and Fuzzy Logic: Theory and Applications. Prentice Hall, Upper Saddle River, NY, 1995.

[34] T. Kohonen. Correlation matrix memory. IEEE Transactions on Computers, C-21:353–359, 1972. [35] T. Kohonen. Associative Memory – A System Theoric Approach. Berlin: Springer-Verlag, 1977.

[36] T. Kohonen. Self-organized formation of topologically correct feature maps. Biological Cybernetics, 43:59–69, 1982.

[37] T. Kohonen and M. Ruohonen. Representation of associated data by computers. IEEE Transactions on Computers, C-22:701–702, 1973.

[38] Seong-Gon Kong and Bart Kosko. Adaptive fuzzy systems for backing up a truck-and-trailer. IEEE Transactions on Neural Networks, 3(2):211–223, 1992.

[39] B. Kosko. Neural Networks and Fuzzy Systems: A Dynamical Systems Approach to Machine Intelligence. Prentice Hall, Englewood Cliffs, NJ, 1992.

[40] John R. Koza. Genetic Programming: On the Programming of Computers by Means of Natural Selection. MIT Press, 1992.

[41] W.S. McCulloch and W. Pitts. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5:115–133, 1943.

[42] Zbigniew Michalewicz. Genetic Algorithms + Data Structures = Evolution Programs. Springer, 1998. [43] M.L. Minsky and S.A. Papert. Perceptrons. MIT Press, Cambridge, MA, 1969.

[44] Hung T. Nguyen and Elbert A. Walker. A First Course in Fuzzy Logic. Chapman & Hall/CRC, Boca Raton, 2 edition, 2000.

[45] Witold Pedrycz and Fernando Gomide. An Introduction to Fuzzy Sets: Analysis and Design. MIT Press, Cambridge, Massachusetts, 1998.

[46] Witold Pedrycz and Fernando Gomide. Fuzzy Systems Engineering: Toward Human-Centric Computing. Wiley-IEEE Press, New York, 2007.

[47] B. D. Ripley. Pattern Recognition and Neural Networks. Cambridge University Press, Cambridge, 1996.

[48] F. Rosenblatt. The perceptron: A probabilistic model for information storage and organization in the brain. Psycho-logical Review, 65:386–408, 1958.

[49] D.E. Rumelhart, G.E. Hinton, and R.J. Williams. Learning internal representation by error propagation. Parallel Distributed Processing. MIT Press, Cambridge, MA, 1988.

(5)

[50] D.E. Rumelhart and J.L. McClelland. Parallel Distributed Processing: Explorations in the Microstrutures of Cog-nition, volume 1. MIT Press, Cambridge, MA, 1986.

[51] Marcos Eduadro Valle. Fundamentos e Aplicações de Memórias Associativas Morfológicas Nebulosas. PhD thesis, Universidade Estadual de Campinas (UNICAMP), Campinas, Brasil, Fevereiro 2007.

[52] Vladimir N. Vapnik. Statistical Learning Theory. John Wiley and Sons, 1998.

[53] Vladimir N. Vapnik. The Nature of Statistical Learning Theory. Springer, 2 edition, 1999.

[54] Paul John Werbos. Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences. PhD thesis, Committee on Applied Mathematics, Havard University, Cambridge, Mass, 1974.

[55] Paul John Werbos. The Roots of Backpropagation. John Wiley and Sons, 1994.

[56] W.B. Widrow and M.E. Hoff. Adaptive switching circuits. WESCON Convention Record, pages 96–104, 1960. [57] R. Yager and D. Filev. Essentials of Fuzzy Modeling and Control. John Wiley and Sons, 1994.

[58] L. A. Zadeh. Fuzzy sets. Information and Control, 8(3):338–353, 1965.

[59] L. A. Zadeh. Fuzzy sets and information granularity. In M. M. Gupta, R. K. Ragade, and R. R. Yager, editors, Advances in Fuzzy Set Theory and Applications, pages 3–18. North Holland, Amsterdam, 1979.

Referências

Documentos relacionados

Os dados foram coletados a partir dos materiais elaborados (unidades didáticas) pelos professores-cursistas. Foi feita, inicialmente, uma leitura desses materiais produzidos para que

15) A Farmacoeconomia foi definida como sendo a descrição e a análise dos custos da terapia farmacêutica para os sistemas de assistência à saúde e para a

Students should: acquire knowledge and develop skills about interpersonal communication in the context of community pharmacy, in order to properly advise patients,

Aprovado o montante global da remuneração dos integrantes da Diretoria Executiva, a ser paga no período compreendido entre esta Assembléia e a Assembléia Geral

Um projeto de investigação com uma abordagem qualitativa carece de uma clarificação sobre detalhes metodológicos que o investigador irá preconizar e, não menos relevante, a técnica

1º, a interrupção das atividades pelo empregador e a constituição de regime especial de compensação de jornada, por meio de banco de horas, em favor do empregador ou

21º - EM CASO DE FALTA DISCIPLINAR GRAVE, A CRITÉRIO DA COMISSÃO ORGANIZADORA, O ATLETA SERÁ EXCLUÍDO DA COMPETIÇÃO, PODENDO A PUNIÇÃO SER ESTENDIDA PARA A PRÓPRIA

u Regular a temperatura para um valor mais elevado (mais quente): Premir o botão de regulação Up do compartimento congelador Fig. A temperatura ajusta- -se gradualmente