• Nenhum resultado encontrado

Capítulo 2 – Deteção de dano

2.3 Redes Neuronais Artificiais

Uma alternativa aos AG são as redes neuronais, já mencionadas no capítulo introdutório desta dissertação. Estas redes simulam as redes neuronais biológicas do cérebro humano, possuindo neurónios artificiais ligados entre si de modo a receber uma dada informação de um problema e devolver a sua resposta.

O tipo de rede mais utilizado é a rede multicamadas (Multilayer Perceptron – MLP) (Doebling et

neurónios. Normalmente, as redes neuronais usadas para detetar, localizar e quantificar dano em estruturas têm 3 camadas de neurónios (camadas de entrada, saída e intermédia).

A camada de entradas é a responsável por receber os dados referentes ao problema, isto é, no presente estudo (deteção, localização e quantificação do dano) poderão ser as características dinâmicas de uma estrutura. No seu estudo, Mehrjoo et al, 2008 utilizam frequências naturais e modos de vibração como dados de entrada da rede, enumerando várias vantagens tais como as frequências naturais representarem o comportamento global da estrutura, enquanto os modos de vibração representam características locais, e estes dados podem ser obtidos tanto por via experimental como por via analítica. Bakhary et al (2007) usam também as frequências e modos de vibração natural da estrutura enquanto Lee et al (2005) usam apenas os modos de vibração ou o rácio entre os modos da estrutura antes e após ter sido danificada. Por seu turno, Fang et al em 2005 usa funções de resposta à frequência (FRF) para avaliar dano numa estrutura pois estas são fáceis de obter em tempo real e requer um número pequeno de sensores de medição, quando se objetiva a monitorização do estado da estrutura.

Ao receber os dados de entrada, espera-se que a rede neuronal devolva a resposta do problema através da camada de saída, que no presente problema poderão ser os EF danificados e a percentagem de dano ou até o estado de todos os EF da estrutura (esperando obter 0% de dano nos elementos intactos).

A relação entre a camada de neurónios de entrada e saída será feita através de uma ou mais camadas intermédias ou escondidas, compostas por um certo número de neurónios cuja quantidade deve ser descoberta por tentativa e erro (Mehrjoo et al, 2008). A figura 2.4 exemplifica um destes neurónios.

Figura 2.4 – Representação de um neurónio de uma camada interna (Masters, 1993)

Nestas camadas, os dados recebidos por cada neurónio (que na figura correspondem ao vetor

{ }) sujeitos a ponderações (representadas na figura pelo vetor

notar que o vetor dos fatores de ponderação tem mais um valor que o vetor de entradas. O fator de ponderação “a mais” vai estar relacionado com um valor de entrada assumido que terá sempre um valor unitário e é denominado por desvio ou bias (Masters, 1993).

Esta soma é depois introduzida numa função de ativação, denominada por ( ) na figura

2.4. A saída de cada neurónio das camadas intermédias e da própria camada de saída é determinado através destas funções. A maioria dos estudos recentes utiliza uma função sigmoide (um exemplo de uma função sigmoide é a função logística representada na equação 2.24), mas outras poderão ser usadas (Masters, 1993).

( ) (2.24)

Figura 2.5 – Gráfico da função logística (equação 2.24)

As RNA permitem resolver problemas de deteção, localização e quantificação de dano em estruturas (ou outros problemas) pois estas têm a capacidade de serem treinadas para o fazer, fazendo previsões do resultado baseadas em casos conhecidos previamente e apresentados à rede.

O treino da rede é efetuado através do ajuste dos fatores de ponderação presentes nos neurónios das camadas intermédias e de saída. Este ajuste é efetuado utilizando um conjunto de entradas e correspondentes saída previamente conhecidos e através da diminuição do erro da seguinte função (Fang et al., 2005):

∑ ∑( ( ) ( ))

(2.25)

Em que é o vetor de saída previamente conhecido (ao qual se pretende chegar), representa

saídas previamente conhecidos) utilizados e representa o tamanho dos vetores. Por outras palavras, o treino da rede efetua-se dando a esta um conjunto de entrada e, por sua vez, a rede devolve os resultados das saídas. Estes resultados são depois comparados com as saídas previamente conhecidos (e que correspondem às soluções das entradas dados à rede) através da equação 2.25. Depois, com base no valor do erro obtido nesta equação, os valores das ponderações são ajustados na tentativa de diminuir esse erro e portanto, de aproximar a rede aos resultados pretendidos e também de generalizar a rede para qualquer caso (estrutura danificada, no presente estudo) que se queira estudar (Mehrjoo et al, 2008). É importante salientar que não se deve reduzir demasiado o erro pois, na situação limite do erro ser igual a zero, a RNA iria funcionar como uma função de interpolação e perderia a sua capacidade de generalização (Fang et al., 2005). Este processo é repetido várias vezes, até que o valor do erro seja inferior a um certo valor estipulado previamente.

O ajuste das ponderações dos neurónios é efetuado por um algoritmo de treino. Devido à sua simplicidade, o tipo de algoritmo de treino mais utilizado é o algoritmo de propagação inversa do erro (Kao & Hung, 2003). Este tipo de algoritmo engloba o método do gradiente, que se pode explicar através da busca do maior passo descendente do gradiente do erro, em direção ao mínimo (Fang et al., 2005). No entanto, Fang et al (2005) afirmam que este método (ao qual

dá a denominação de Standard Steepest Descend Algorithm – SSD) tem as desvantagens de

poder ficar “preso” em mínimos locais, ser sensível às condições iniciais, ter uma convergência

lenta e poder tornar-se instável se (que representa a taxa de aprendizagem da rede

neuronal) for demasiado elevado. Na tentativa de tornar estas desvantagens menos evidentes, os autores apresentam algumas alternativas baseadas neste método: o método dinâmico do

gradiente (Dynamic Steepest Descend Algorithm – DSD), o método difuso do gradiente (Fuzzy

Steepest Descend Algorithm – FSD) e o método ajustável do gradiente (Tunable Steepest Descend Algorithm – TSD).

No SSD, os fatores de ponderação são atualizados da seguinte forma:

( ) ( ) ( ) ( ) (2.26)

Em que representa a iteração.

Enquanto no SSD a taxa de aprendizagem é constante, no DSD a taxa de erro entre duas

iterações consecutivas é considerado importante na busca pela solução correta e a taxa de

aprendizagem varia conforme esta taxa de erro da seguinte forma:

 Se o treino teve sucesso e o erro diminuiu e se a taxa de erro é menor que um certo

valor ε (definido previamente), então:

Em que é a constante de controlo do incremento definida previamente;  Se o treino não teve sucesso e o erro aumentou, então:

(2.28)

Em que é a constante de controlo do decremento definida previamente;

 Se não se verificar qualquer diferente no erro, então:

(2.29)

O FSD funciona de maneira semelhante ao DSD com a diferença de que tanto o erro como a taxa de erro não têm um valor certo mas sim um valor difuso (que deve cumprir certas regras definidas previamente). Este método pode ser complexo se não se tiver um conhecimento prévio da teoria da lógica difusa.

O TSD utiliza heurísticas para constringir a taxa de aprendizagem e funciona da seguinte forma:

 Se o treino teve sucesso então:

(2.30)

Em que é a constante de controlo do incremento definida previamente;

 Se o treino não teve sucesso e o erro aumentou, então:

(2.31)

Em que é a constante de controlo do decremento definida previamente;

 As ponderações só serão atualizadas se o erro decrescer, ou seja, se o novo erro for superior ao anterior, as novas ponderações são descartadas e a taxa de aprendizagem

decresce ao ser multiplicada por .

Desta forma, o TSD permite aumentar a velocidade de aprendizagem, mantendo a taxa de aprendizagem o maior possível e a aprendizagem estável.

Neste estudo não serão testadas as capacidades das RNA para detetar e avaliar o dano em estruturas. No entanto, em estudos futuros, este será certamente um método a ter em conta, tal

Documentos relacionados