• Nenhum resultado encontrado

2.4 Redes Neurais Artificiais

2.4.1 Introdução

Segundo Arbib (1987 apud HAYKIN, 1999), o sistema nervoso humano pode ser visto como um sistema de três estágios, conforme ilustrado pelo diagrama de blocos na Figura 2.7. No centro deste sistema situa-se o cérebro humano (Rede neural), o qual comunica-se de uma forma interativa com os demais subsistemas. Neste contexto, o subsistema de receptores converte os estímulos externos em sinais elétricos e os repassa adiante, enquanto o subsistema de atuadores transforma os sinais elétricos gerados pelo cérebro em respostas discerníveis de saída do sistema.

Figura 2.7 – Representação em diagrama de blocos do sistema nervoso humano.

No processo de compreensão da estrutura e funcionamento do cérebro humano, foi de grande relevância a pesquisa pioneira de Ramón e Cajál, publicada em 1910. Dentre os conceitos estabelecidos pelos mesmos está a idéia do neurônio como elemento estruturante do cérebro. Conforme a Figura 2.8, um neurônio é composto por quarto principais elementos: corpo celular, dendritos, axônio e terminais sinápticos. Os neurônios se comunicam por meio de ligações denominadas sinapses, onde os terminais sinápticos de um dado neurônio se “conectam” (não há conexão física na junção sináptica) aos dendritos (zonas receptoras) de

um ou mais neurônios vizinhos. A comunicação entre os neurônios se dá por meio de um processo tanto elétrico, quanto químico. De uma maneira simplificada, o processo de comunicação se inicia pela geração de um sinal elétrico no corpo celular (ou nas proximidades dele). Este sinal elétrico percorre o axônio e, ao chegar nos terminais sinápticos, causa a liberação de uma substância química denominada neurotransmissor. Os neurotransmissores repassam então a informação aos dendritos dos neurônios “conectados” e retornam, geralmente, aos terminais sinápticos de origem.

Figura 2.8 – Ilustração de um neurônio biológico e seus quatro principais elementos: corpo celular, dendritos, axônio e terminais sinápticos.

Segundo Shepherd e Kock (1990 apud HAYKIN, 1999), estima-se a existência de mais de 10 bilhões de neurônios no córtex humano, estando os mesmos interconectados por mais 60 trilhões de sinapses. Tal organização faz do cérebro um computador altamente complexo, não-linear e paralelo, possibilitando que o mesmo execute alguns tipos de tarefas (como reconhecimento de padrões, percepção, etc.) de uma forma muito mais eficiente do que um computador eletrônico. Como exemplo desta eficiência pode-se citar a tarefa de reconhecimento de uma face conhecida em um ambiente não-familiar, a qual é executada pelo cérebro num tempo não superior a 200 milésimos de segundo (ms). Tarefas de complexidade inferior podem tomar dias quando executadas num computador convencional (HAYKIN, 1999).

A ciência de que computadores eletrônicos possuem estrutura e funcionamento totalmente distintos de um cérebro humano foi justamente o que motivou o desenvolvimento de pesquisas na área de redes neurais artificiais. De uma forma geral, uma rede neural artificial (comumente denominada por rede neural) é uma máquina projetada para modelar a

maneira como o cérebro humano realiza uma determinada tarefa ou função de interesse. Este tipo de abordagem possibilita a construção de sistemas cuja modelagem é complexa do ponto de vista de métodos convencionais de engenharia. Dentre os elementos que viabilizam este tipo de modelagem, os quais são características inerentes do cérebro humano, pode-se citar os seguintes:

• Não-linearidade: propriedade inerente a sistemas de comportamento indeterminado, ou seja, cuja resposta não pode ser expressa na forma de uma soma linear de componentes independentes que formam o mesmo;

• Mapeamento de entrada/saída: a solução para um problema é determinada por meio do treinamento da rede neural, o qual consiste na apresentação de um conjunto de entradas e as respectivas saídas desejadas. O treinamento é interrompido quando o erro existente entre a saída desejada e a apurada pela rede é menor do que um limite estabelecido;

• Generalização: é a capacidade de um sistema de determinar uma resposta aceitável para uma entrada que ainda não havia sido apresentada ao mesmo, mas que possui semelhança com outras já apresentadas;

• Resposta evidencial: no contexto de reconhecimento de padrões, significa não apenas prover uma resposta para uma determinada entrada, mas também indicar o percentual de certeza sobre a mesma;

• Tolerância à falhas: o fato da informação contida numa rede neural estar dispersa nas inúmeras interconexões existentes entre os neurônios torna praticamente irrelevante o impacto da eventual “perda” de um deles em relação ao funcionamento do sistema.

A pesquisa conduzida por Ramón e Cajál serviu como base na elaboração da teoria sobre redes neurais artificiais, publicada em 1943 por McCulloch e Pitts. Neste trabalho foi demonstrado que, uma rede neural formada por um número suficiente de elementos, com os pesos das conexões ajustados adequadamente e operando de forma síncrona, em princípio, era capaz de implementar qualquer função computável.

Durante a década de 50, a área experimentou um considerável desenvolvimento, a partir de contribuições de nomes como Minsky, Rochester, Holland, Haibt, Duda e Rosenblat. Este último foi responsável pelo desenvolvimento de um novo método de aprendizado supervisionado aplicável ao problema do reconhecimento de padrões, denominado

Já na década de 60, o fato de maior impacto na área foi a publicação do livro

Perceptrons (1969), por Minsky e Papert. Esta publicação desmentiu matematicamente a falsa

impressão que havia surgido no sentido de que as redes neurais eram a solução para todos os problemas. Além disso, também sugeriu que as mesmas limitações enfrentadas pelas redes

perceptron de camada única se aplicavam às de múltiplas camadas, o que causou uma drástica

redução no volume de pesquisas nesta área. Tal suposição foi desmentida apenas em 1986, pela publicação do algoritmo de retropropagação de erro (backpropagation), cujos maiores créditos pelo desenvolvimento foram atribuídos a Rumelhart, Hinton e Willians. Nesta mesma década (80), Broomhead e Lowe (1988) propuseram um método alternativo ao perceptron multicamadas, denominado Radial Basis Function (RBF).

Mais recentemente, na década de 90, Vapnik e colegas desenvolveram uma poderosa classe de redes de aprendizagem supervisionada, denominada support vector machines, aplicada na solução de problemas de reconhecimento de padrões (1992), regressão (1995) e estimativa de densidade (1998).

Além dos modelos de redes neurais artificiais aqui mencionados, inúmeros outros existem. Apenas a título de esclarecimento, haja vista que o foco deste trabalho é outro, as redes neurais artificiais existentes podem ser categorizadas da seguinte maneira (NN FAQ, 2008):

• Aprendizado supervisionado

o Feedforward

 Hebbian, Perceptron, Adaline, backpropagation, Orthogonal

Least Squares, etc.;

o Feedback

 Bidimensional Associative Memory (BAM), Máquina de

Boltzman, Finite Impulse Response, Time Delay Neural

Network, etc.;

o Competitiva

 ARTMAP, Counterpropagation, Neocognitron, etc.; • Aprendizado não-supervisionado

o Competitiva

 Grossberg, Kohonen, ART1, ART2, Fuzzy ART, etc.;

o Redução de dimensão  Hebbian, Oja, etc.;

 Hopfield, Brain State in a Box (BSB), Auto-associador Linear; • Sem aprendizado

o Hopfield, várias redes neurais para otimização.