• Nenhum resultado encontrado

A.1 Redes Neurais Artificiais

A.1.1 Breve Histórico

O termo “rede neural” é resultado de pesquisas em inteligência artificial (IA), na tentativa de entender e modelar o comportamento do cérebro humano. De

acordo com Barr e Feigenbaum, 1981, IA é um ramo da ciência da computação interessada em projetar sistemas computacionais inteligentes, isto é, sistemas que exibam as características que nós associamos com inteligência no comportamento humano − compreensão de linguagens, aprendizado, raciocínio, resolução de problemas entre outros. As maiores bases tecnológicas da IA com crescimento técnico e significância comercial são: sistemas especialistas, redes neurais e sistemas de lógica fuzzy 8.

A idéia de que a mente funciona como um computador digital e que este último pode servir de modelo para conceber a mente humana iniciou-se a partir da década de 40, quando o termo “inteligência artificial” sequer havia sido inventado. Naquela época, predominava um movimento chamado “cibernética”. Os ciberneticistas acreditavam que toda atividade psicológica humana poderia um dia ser estudada por meio de modelos matemáticos. A grande intuição que orientou este movimento científico foi à analogia entre sistema nervoso e circuitos elétricos. Sobressaindo-se no cenário da época estava Claude Shannon, o criador da teoria matemática da informação, que publicou, em 1938, a dissertação intitulada A symbolic analisis of relay and switching circuits e Warren McCulloch, um psiquiatra e neuroanatomista que junto com o matamático Walter Pitts, desenvolveram o primeiro modelo artificial de um neurônio biológico no trabalho publicado, em 1943, A logical callculus of the ideas immanent in nervous

activity 166.

Passados os anos, ganha força a idéia de que é possível modelar a mente, uma concepção que vai encontrar apoio na visão que existe uma independência entre o software e o hardware das máquinas utilizadas para simular a inteligência. Marco desta nova tendência são os trabalhos de Newell e Simon, com seu programa para provar teoremas lógicos, o Logical Theorist, desenvolvido em meados da década de 50. Este grupo sustentava que seria melhor simular os fenômenos mentais, já que o pensamento nada mais seria do que o resultado da ordenação mecânica de uma série de símbolos e, para obter esta ordenação não seria preciso, necessariamente, um cérebro.

Parte da discussão em RNAs gira em torno dos métodos de aprendizado para que os neurônios possam ser capazes de executar uma determinada função. O

trabalho de McCulloch e Pitts se concentra muito mais em descrever um modelo artificial de um neurônio e apresentar suas capacidades computacionais do que em apresentar técnicas de aprendizado. O primeiro trabalho de que se tem notícia que tem ligação direta com o aprendizado foi apresentado por Donald Hebb em 1949. Ele propôs uma teoria para explicar o apredizado em neurônios biológicos baseada no reforço das ligações sinápticas entre neurônios excitados. A regra de Hebb, como é conhecida a sua teoria na comunidade de RNAs, traduzida em termos matemáticos e é hoje utilizada em vários algoritmos de aprendizado. Mais terde, Widrow e Hoff sugeriram uma regra de aprendizado, conhecida como regra de Widrow-Hoff, ou regra delta, que é ainda hoje bastante utilizada. Esta, por sua vez, é baseada no método do gradiente para minimização do erro na saída de um neurônio com resposta linear 14.

Seguindo os passos de McCulloch e Pitts, Frank Rosenblatt, em 1958, demonstrou, com seu novo modelo, o perceptron, que RNAs poderiam ser treinadas para classificar certos tipos de padrões. O projeto de Rosenblatt foi fortemente criticado por Marvin Minsky e Seymour Papert − dois pesquisadores que lançaram as bases para o aparecimento do paradigma simbólico na Inteligência Artificial. Estes dois pesquisadores chamaram a atenção para algumas tarefas que o perceptron não era capaz de executar, já que este só era capaz de resolver problemas linearmente separáveis.

Nos anos 70, a abordagem conexionista ficou adormecida (em grande parte devido à repercussão do trabalho de Minsky e Papert), apesar de alguns pesquisadores continuarem na área. Sistemas conexionistas e simbólicos são sistemas computacionais, mas há uma grande diferença no tipo de computação que eles realizam. Na perspectiva simbólica, a computação é essencialmente a transformação de símbolos de acordo com regras – regras que estão estabelecidas num programa. A idéia de computação subjacente a um sistema conexionista é diferente: seu princípio é um conjunto de processos causais através dos quais as unidades se excitam ou se inibem, sem empregar símbolos ou regras para manipulá-los. Abandona-se a idéia de uma mente que executa passos algorítmicos discretos e a suposição de que processos mentais seriam uma justaposição

inferencial de raciocínios lógicos. Em vez, o que temos é um conjunto de neurônios artificiais para modelar a cognição 166.

O conexionismo não teve sucesso até o início da década de 80, quando surgiram os trabalhos de Hinton e Anderson (e, posteriormente, de Rumelhart e McClelland), tendo ficado abafado, principalmente, durante os anos 70, quando havia grande entusiasmo pelas possibilidades abertas pela IA simbólica. O conexionismo, funcionalismo neurocomputacional ou processamento paralelo distribuído (PDP, parallel distributed processing) não endossa a visão de que processos mentais possam ser estudados como computações abstratas, independentemente de sua base física e do meio ambiente onde se situa o organismo ou sistema onde elas ocorrem. Conhecimentos acerca do funcionamento do cérebro e conhecimentos sobre computação devem convergir no estudo da natureza dos estados mentais. O cérebro humano é visto como um dispositivo computacional em paralelo que opera com milhões de unidades computacionais chamadas neurônios.

Em 1982, John Hopfield publicou um artigo que chamou a atenção para as propriedades associativas das RNAs. Este artigo foi responsável por parte da retomada das pesquisas na área. O grande feito de Hopfield foi mostrar a relação entre redes recorrentes auto-associativas e sistemas físicos, o que também abriu espaço para a utilização de teorias correntes da Física para estudar tais modelos. Não obstante, a descrição do algoritmo de treinamento back-propagation alguns anos mais tarde mostrou que a visão de Minsky e Papert sobre o perceptron era bastante pessimista. As RNAs de múltiplas camadas são, sem dúvida, capazes de resolver “problemas difíceis de aprender”. A partir de meados da década de 80, houve nova explosão de interesse pelas RNAs na comunidade internacional. Dois outros fatores foram responsáveis pela retomada de interesse na área: em primeiro lugar, o avanço da tecnologia, sobretudo da microeletrônica, que vem permitindo a realização física de modelos de neurônios e sua interconexão de um modo antes impensável; em segundo, o fato de a escola simbolista, a despeito de seu sucesso na solução de determinados tipos de problemas, não ter conseguido avanços significativos na resolução de alguns problemas simples para o ser humano 14.

Documentos relacionados