• Nenhum resultado encontrado

CAPÍTULO 3 REDES NEURAIS ARTIFICIAIS

3.2 Definição de Redes Neurais Ariticiais

De acordo com Mehrotra (1997) e Chester (1993), redes neurais artificiais são técnicas computacionais que apresentam um modelo matemático análogo à estrutura neural dos seres vivos, adquirindo assim conhecimento mediante experiências. São modelos computacionais inspirados no cérebro humano e que possuem a capacidade de aquisição e manutenção do conhecimento. Consistem em um conjunto de unidades de processamento análogos ao neurônio biológico, que se interligam mediante a troca de sinais, também análoga à sinapse biológica.

Dentre as características distintivas dos modelos neurais computacionais apresentadas na literatura existente, as principais são as seguintes:

 Capacidade de aprender por meio de exemplos;  Capacidade de adaptação;

 Agrupamento e organização de dados;  Tolerância à falhas;

 Auto-organização;

Portanto, as redes neurais artificiais podem ser compreendidas como um sistema projetado para modelar problemas complexos lineares ou não lineares, com base no funcionamento do cérebro humano. A rede artificial é normalmente implantada utilizando-se componentes eletrônicos ou é simulada por programação em um computador digital (HAYKIN, 2001).

Dentre as propriedades circunscritas por redes neurais artificiais, merecem destaque a não-linearidade e a capacidade de aprendizado. A não-linearidade é a propriedade atribuída aos modelos neurais devido ao comportamento não-linear dos neurônios da rede, devido ao fato de grande parte dos problemas possuírem caráter não linear. Exemplos desses problemas podem ser atribuídos à solução de problemas voltados para reconhecimento de voz e memórias associativas, aplicações bem difundidas no assunto. A capacidade de aprendizado representa a capacidade da rede de aprender sobre os dados por ela manipulados durante um período de treinamento.

3.3 Evolução Histórica

As redes neurais artificiais surgiram da evolução dos estudos em Pesquisa Operacional e configuram um sub-ramo da Inteligência Artificial que, como já mencionado anteriormente, se dispõe a simular, em um ambiente computacional, o comportamento do cérebro humano. Segundo Kohonen (1987), modelos neurais análogos ao comportamento do cérebro humano eram inicialmente propostos como alinhados às teorias psicológicas e pesquisas neurofisiológicas. Mas foi a partir da pesquisa desenvolvida por McCulloch e Pitts (1943) que se começou a fundamentar com uma maior precisão o alinhamento entre computação e modelos neurais.

McCulloch e Pitts (1943) sugeriu a construção de uma máquina inspirada no cérebro humano, denominada Psychon, e que se baseava em um modelo matemático (artificial) do neurônio biológico. Os frutos da pesquisa de McCulloch e Pitts voltaram-se mais para a descrição de um modelo artificial de um neurônio e a apresentação de suas capacidades computacionais, deixando em segundo plano as técnicas de aprendizado.

Portanto, a literatura é unânime em considerar como marco inicial dos estudos sobre modelos computacionais baseados em sistemas neurais o trabalho de McCulloch e Pitts, publicado em 1943. Neste trabalho, os autores apresentaram o primeiro modelo de neurônio

artificial baseado em modelagem matemática para simular o comportamento do neurônio biológico. Tal modelo representa até hoje a principal ferramenta utilizada nas arquiteturas de redes neurais artificiais disponíveis.

De acordo com Hebb (1949), em “The Organization of Behaviour” foi proposto uma lei de aprendizagem específica para as sinapses dos neurônios. A partir de então, passou-se a buscar um modelo capaz de proporcionar similar capacidade de aprendizado às redes neurais artificiais.

Em 1951, Marvin Minsky construiu o primeiro neurocomputador, denominado Snark. Essa unidade não estava apta a executar qualquer função de processamento de informação pertinente, mas tinha bom desempenho na atividade de ajuste de pesos sinápticos, e serviu de parâmetro para as pesquisas que a sucederam. Já Farley e Clark (1954), apresentaram modelos para respostas aos estímulos adaptativos em redes aleatórias, o que significou uma evolução neste campo do conhecimento.

No ano de 1956, ocorreu a difundida reunião no Darthmouth College, que marcou o fim da Era Romântica da pesquisa sobre redes neurais artificiais e deu início à Era Barroca (BARRETO, 1997). Em tal evento, foi identificada a potencialidade dos modelos neurais em ambiente computacional e surgiram os dois paradigmas cultuados pela Inteligência Artificial. O primeiro deles consiste na Inteligência Artificial Simbólica que se propõe a simular o comportamento inteligente humano, desconsiderando os mecanismos pelo qual a inteligência biológica se apóia – capacidade e eficiência relativa do cérebro. O segundo paradigma, a Inteligência Artificial Conexionista, afirma que, uma vez construído um sistema que simule a estrutura do cérebro, este se mostra inteligente e, assim, capaz de errar, aprender e assimilar informações.

Posteriormente, Rosenblatt (1958) apresentou o primeiro neurocomputador a obter sucesso efetivo, denominado Mark I Perceptron, que dispunha de uma rede neural de duas camadas de neurônios capazes de aprender de acordo com a lei de Hebb. Em seguida vieram os trabalhos de Widrow e Hoff (1960), Caianiello (1961) e de Steinbuch (1961) que agregaram valor às pesquisas realizadas até então sobre o assunto. Contemporaneamente, foi desenvolvido por Widrow em 1962 a modelagem Adaptive Linear Element - Adaline, um tipo de processamento neural que possui uma lei de aprendizado eficaz e que é bastante usada até os dias de hoje. Tanto o Perceptron quanto o Adaline se baseiam no aprendizado supervisionado por correção de erros, forma de aprendizagem difundida entre diversas arquiteturas de modelos neurais e bastante aplicada atualmente.

Tais publicações parcialmente explicam o considerável número de trabalhos e aplicações em computação neural em torno da década de 60. Porém, vale ressaltar que as limitações tecnológicas limitavam o ritmo do avanço das pesquisas sobre o assunto objeto deste trabalho.

Minsky e Papert (1969) publicaram o livro intitulado “Perceptrons: An Introduction to

Computational Geometry”, no qual demonstraram matematicamente que a rede proposta

anteriormente por Rosenblatt (1958) não era capaz de distinguir padrões linearmente separáveis, como a solução de questões envolvendo o impasse OU-EXCLUSIVO

.

A obra desses autores funcionou como uma barreira para o ritmo em que as pesquisas em redes neurais artificiais vinham evoluindo, uma vez que questionou os fundamentos que embasavam as teorias existentes. Tal fato encerrou a Era Barroca e deu início a denominada Era das Trevas, que duraria até meados de 1981.

Como próximo evento relevante, tem-se o surgimento de um modelo de rede criado por John Hopfield, que operava de uma maneira diferente dos modelos oriundos do

Perceptron. A proposta de Hopfield consistiu em uma rede com conexões recorrentes e de

comportamento baseado na competição entre os neurônios e de aprendizado não supervisionado. Este modelo definiu as propriedades associativas de uma classe de redes neurais com fluxo de dados multidirecional e comportamento dinâmico (HOPFIELD, 1982).

Nos anos de 1986 e 1987 atinge-se o auge da era contemporânea, com o surgimento de contribuições relevantes como os trabalhos de Rumelhart, Hinton e Williams, Hopfield, Kohonen, dentre outros. A partir desses construtos, descobriu-se como treinar as redes neurais mediante o uso do algoritmo Back Propagation, proposto inicialmente por Paul Werbos em 1974, em sua dissertação para a obtenção do título de Ph.D na Universidade de Harvard.

Para solucionar o problema OU-EXCLUSIVO que havia ofuscado o modelo

Perceptron, em 1986 foram desenvolvidas as redes multicamadas. Nesta, seria utilizado o

algoritmo Back Propagation uma vez melhor fundamentado por Rumelhart, Hinton e Williams. Tal algoritmo solucionou diversos problemas de aprendizado surgidos ao longo da evolução da neurocomputação e veio a se tornar o algoritmo de aprendizagem mais popular para o treinamento de arquiteturas Perceptrons de múltiplas camadas.

Outros modelos pertinentes que contribuírem para o estado da arte da neurocomputação foram os modelos de Kohonen e os modelos Adaptative Ressonance Theory - ART. O modelo dos Mapas Auto-Organizáveis de Kohonen, ou ainda redes Self Organized

Maps – SOM, permite o aprendizado competitivo por meio da auto-organização da rede

neural ao criar os mapas de atributos auto-organizáveis. O modelo ART foi concebido por Gail Carpenter e Stephen Grossberg e possui um aprendizado do tipo não-supervisionado, criando clusters dos padrões aprendidos. Tal modelo teve diversas versões posteriores, entre elas versões do tipo semi-supervisionado e com uso de conceitos de lógica nebulosa (Fuzzy- ART).

Desde a década de 80, modelos neurais computacionais vêm ganhando popularidade e estão cada vez mais sendo utilizados em sistemas de apoio à decisão. Suas áreas de atuação variam desde filosofia, passando por estatística, reconhecimento de sinais, previsões e engenharia de uma forma geral. Em 1987, ocorreu a primeira conferência de redes neurais em tempos modernos, a International Conference on Neural Networks - IEEE. Formou-se também International Neural Networks Society – INNS e, como decorrência desse evento, foi fundado o INNS Journal.

Atualmente, os estudos em redes neurais artificiais encontram-se em estado avançado de evolução e um vasto campo de pesquisa pode se beneficiar de suas realizações. Existe uma vasta gama de arquiteturas, ferramentas de softwares e bibliografia informativa que auxiliam o processo de solução de problemas cada vez mais complexos, aumentando a eficiência do processo de tomada de decisão por parte das pessoas, organizações e países.

Documentos relacionados