• Nenhum resultado encontrado

CAPÍTULO 2 FUNDAMENTAÇÃO TEÓRICA

2.7 AS REDES NEURAIS ARTIFICIAIS

De acordo com o que foi apresentado na seção 2.5 desse capítulo, mudanças no meio onde uma LPG está inserida alteram o índice de refração efetivo dos modos de casca que foram acoplados e provocam modificações no espectro de transmissão desse transdutor. As modificações do espectro de transmissão, que podem envolver tanto deslocamentos em comprimento de onda quanto alterações na transmitância da rede e alterações na largura de banda, podem ser resultado de efeitos simultâneos que agem sobre a LPG provocando sensibilidades cruzadas. Tais efeitos podem ser curvaturas juntamente com variações de temperatura (SUN, CHAN, TAN et al, 2007), curvaturas e sucessivas alterações do plano de curvatura, variações de temperatura e ao mesmo tempo tensões longitudinais (SUN, CHAN, DONG et al, 2007) e outras combinações de grandezas físico-químicas que possam ser alteradas. Para proporcionar uma correta interpretação da resposta espectral de uma LPG a análise direta dos espectros é complicada, já que eles podem representar alterações de mais de uma grandeza físico-química à qual a rede está exposta. Existe uma técnica, ainda incipiente na área de sensores com redes em fibras óticas, que busca associar as alterações do espectro das redes com um modelo matemático. Esse modelo matemático é denominado de rede neural artificial (RNA) (SUN, CHAN, TAN et al, 2007; SUN, CHAN, DONG et al, 2007; POSSETTI, CORADIN, CÔCCO et al, 2008a; POSSETTI, CORADIN, CÔCCO et al, 2008b).

A rede neural artificial é construída com a finalidade de simular o processamento de informações no cérebro biológico, já que esse é capaz de aprender e de realizar complexas funções. As RNA são compostas por camadas de neurônios, que são unidades de armazenamento e de transformação de informações. Tal como em um cérebro biológico, os neurônios de uma RNA se unem por meio de conexões sinápticas. A idéia de tais estruturas matemáticas é a de desenvolver

diâmetro reduzido após a corrosão com HF espiras metálicas núcleo casca casca Λ

automaticamente modelos implícitos que sejam capazes de programar padrões de associação. Uma RNA pode ser utilizada em procedimentos de classificação, agrupamentos e/ou correlações. As funções de tal modelo matemático o habilitam a relacionar variáveis de entrada e de saída de um sistema, independentemente da linearidade envolvida em tais associações (HAYKIN, 1999). As variáveis de entrada podem ser, por exemplo, as posições em comprimento de onda dos vales de atenuação de distintas bandas de uma LPG e, as variáveis de saída, por exemplo, a identificação de diferentes curvaturas e direções do plano de curvatura impostas a esse sensor ótico.

Assim como um cérebro biológico tem uma fase de aprendizado, também uma RNA tem uma etapa de treinamento na qual ela deve ser alimentada com dados. De acordo com a sua arquitetura e forma existem distintos tipos de RNA. Cada conexão da rede tem um peso que é ajustado durante o processo de aprendizado. Uma vez construída uma RNA a sua utilização fica restrita ao tipo de problema para o qual ela foi elaborada. O que define esse modelo matemático é o seu número de camadas, número de neurônios em cada camada, tipo de conexão entre os neurônios e a sua topologia (CHAN, JIN, RAD et al, 1998; HAYKIN, 1999).

A Figura 14 ilustra uma das arquiteturas mais comuns que é a Perceptron Multicamadas (MLP). Observa-se que ela é composta por um grupo de neurônios, ou nós, interconectados e distribuídos em camadas, quais sejam (i) uma camada de entrada, (ii) uma camada de saída e (iii) M camadas intermediárias ou ocultas (CHAN, JIN, RAD et al, 1998). Cada conexão, ou sinapse, tem um peso (wij, com i = 1,2,...,Nj e com j = 1,2,...,M). Para se propagar ao longo da MLP, o sinal de entrada apresentado para um determinado nó é, anteriormente, multiplicado por seu respectivo peso. Os nós da primeira camada recebem o sinal de entrada (x), advindo do ambiente externo.

Cada sinapse multiplica o sinal pelo seu peso e o propaga para a segunda camada, que é a camada oculta. Cada nó da camada oculta processa os valores a ela apresentados por meio de uma função de ativação ou de transferência (ϕij, com i = 1,2,...,Nj e com j = 1,2,...,M), como, por exemplo, a função tangente hiperbólica. A camada de saída, por sua vez, efetua uma combinação linear de todas as mudanças sofridas pelo sinal de entrada ao longo da estrutura matemática, gerando um sinal de saída (y). Termos de polarização (b0 ou bij, com i = 1,2,...,Nj e com j = 1,2,...,M) podem ser aplicados aos nós para aumentar ou diminuir o valor resultante de cada função de transferência. A boa eficiência de uma MLP em uma determinada aplicação depende fundamentalmente da escolha correta do número de neurônios da camada oculta (M), além do número de neurônios em cada camada (Ni, com i = 1,2,...,M) (HAYKIN, 1999).

Figura 24 - Diagrama esquemático de uma RNA: Perceptron Multicamadas (MLP).

Uma das mais valiosas características de uma RNA é a capacidade de aprender por meio de exemplos e fazer deduções sobre o que aprendeu, otimizando gradativamente o seu desempenho. Isso é possível porque as redes neurais empregam um algoritmo de aprendizagem cuja tarefa é ajustar os parâmetros de sua topologia, que são os pesos das sinapses bem como as polarizações aplicadas aos nós. O processo de aprendizagem da RNA pode ser supervisionado ou não- supervisionado. No processo supervisionado alguns conjuntos de padrões de entrada, juntamente com os padrões de saída esperados, são apresentados à rede neural por um agente externo (professor). O professor deverá indicar explicitamente se a resposta calculada pela rede é satisfatória ou não, comparando a resposta fornecida pela rede com a resposta esperada. Por essa razão é preciso ter informações preliminares a respeito da saída que é esperada através da RNA. Os erros ou discrepâncias detectadas são informados à RNA a fim de que sejam realizados ajustes para

diminuir os erros das próximas respostas. Essa tarefa é desempenhada de maneira eficaz pelo algoritmo de retro-propagação do erro, também denominado de “backpropagation” (PATTERSON, 1996; HAYKIN, 1999).

A aprendizagem da RNA requer que sejam feitas modificações nas sinapses dos neurônios. Tais modificações ocorrem de acordo com a ativação de tais neurônios. As conexões mais utilizadas são reforçadas e as menos utilizadas são enfraquecidas, através da atribuição de maiores ou menores pesos sinápticos. Por essa razão a escolha adequada dos parâmetros da arquitetura de uma rede neural necessita de tempo para que a mesma possa ser treinada. Mas uma vez concluído o processo de treinamento, a implementação do modelo matemático é simples e o seu processamento de dados é rápido.

CAPÍTULO 3

Documentos relacionados