• Nenhum resultado encontrado

2.3 Morfologia Matemática Fuzzy

2.3.2 Conceitos da Morfologia Matemática Fuzzy

pré-fixada, chamada de função de pertinência do subconjunto fuzzy 𝐹 . O índice 𝐹 na função de pertinência é usado em analogia à função característica de subconjunto clássico, conforme (2.3.1).

O valor 𝜙𝐹(𝑥) ∈ [0, 1] indica o grau com que o elemento 𝑥 de 𝑈 está no subconjunto fuzzy 𝐹 ;

𝜙𝐹(𝑥) = 0 e 𝜙𝐹(𝑥) = 1 indicam respectivamente, a não pertinência e a pertinência completa de 𝑥

ao conjunto fuzzy 𝐹 .

Observação 2.3.3. Seja ℱ(X) = [0, 1]X a classe dos conjuntos fuzzy em X. Matematicamente falando, ℱ(X) pode ser visto como o conjunto das funções a : X → [0, 1] e, portanto, por simpli- cidade utilizaremos a(x) em vez de 𝜙a(x).

Para realizar uma avaliação lógica dos conectivos ou (disjunção) e e (conjunção) no sentido fuzzy, devemos estendê-los. Tais extensões são obtidas por meio das normas e co-normas (s-normas) triangulares [22, 38, 50].

Definição 2.3.4 (Conjunção Fuzzy [22, 38, 50]). Uma conjunção fuzzy é um operador crescente

𝐶 : [0, 1] × [0, 1] → [0, 1] que satisfaz:

(2.3.3a) 𝐶(0, 0) = 𝐶(0, 1) = 𝐶(1, 0) = 0;

(2.3.3b) 𝐶(1, 1) = 1;

ou seja, 𝐶 estende a conjunção clássica.

Definição 2.3.5 (T-Norma [22, 38, 50]). Uma conjunção fuzzy 𝑇 : [0, 1] × [0, 1] → [0, 1] que

satisfaz as condições a seguir para quaisquer 𝑥, 𝑦, 𝑧, 𝑢, 𝑣 ∈ [0, 1], é chamada norma triangular ou simplesmente t-norma: (2.3.4a) elemento identidade: 𝑇(1, 𝑥) = 𝑥; (2.3.4b) comutatividade: 𝑇(𝑥, 𝑦) = 𝑇 (𝑦, 𝑥); (2.3.4c) associatividade: 𝑇(𝑥, 𝑇 (𝑦, 𝑧)) = 𝑇 (𝑇 (𝑥, 𝑦), 𝑧); (2.3.4d) monotonicidade: se 𝑥 ≤ 𝑢 e 𝑦 ≤ 𝑣, então 𝑇(𝑥, 𝑦) ≤ 𝑇 (𝑢, 𝑣).

Observação 2.3.6. A operação t-norma estende o operador ∧ que modela o conectivo e.

Exemplo 2.3.7 (Mínimo, Produto, Conjunção de Lukasiewicz e Conjunção de Kleene e Dienes [22]). Os operadores de mínimo e produto são alguns exemplos de conjunções fuzzy. Existem outras

conjunções fuzzy que foram introduzidas por Lukasiewicz e Kleene e Dienes.

(2.3.5a) 𝐶𝑀(𝑥, 𝑦) = 𝑥 ∧ 𝑦; (2.3.5b) 𝐶𝑃(𝑥, 𝑦) = 𝑥𝑦; (2.3.5c) 𝐶𝐿(𝑥, 𝑦) = 0 ∨ (𝑥 + 𝑦 − 1); (2.3.5d) 𝐶𝐾(𝑥, 𝑦) = {︃ 0, 𝑦 ≤ 1 − 𝑥 𝑦, 𝑦 >1 − 𝑥

As conjunções fuzzy 𝐶𝑀, 𝐶𝑃 e 𝐶𝐿 também são exemplos de t-normas. Por isso, a partir de

agora, denotaremos estas t-normas por 𝑇𝑀, 𝑇𝑃 e 𝑇𝐿 ao invés de 𝐶𝑀, 𝐶𝑃 e 𝐶𝐿.

Os conceitos de t-norma e s-norma [22, 38, 50] desempenham um papel importante na genera- lização dos operadores de agregação e e ou da lógica clássica. Estes operadores fuzzy, definidos no intervalo unitário, se diferenciam pelos elementos identidade, 1 para a t-norma e 0 para s-norma. Pretendendo unificar e generalizar estes operadores, Yager e Rybalov [88], desenvolveram o opera- dor chamado uninorma, em que o elemento identidade 𝑒 pode ser definido como qualquer elemento pertencente ao intervalo [0, 1]. Desde os anos 90 diversos autores vem estudando e desenvolvendo os conceitos de uninormas, assim como sua aplicação [28, 51, 85, 87].

Definição 2.3.8 (Uninorma [28, 51, 88]). Uma uninorma é uma operação binária 𝑈 : [0, 1] × [0, 1] → [0, 1] que satisfaz as seguintes propriedades para quaisquer 𝑥, 𝑦, 𝑧, 𝑝, 𝑞 ∈ [0, 1]:

(2.3.6a) comutatividade: 𝑈(𝑥, 𝑦) = 𝑈(𝑦, 𝑥); (2.3.6b) associatividade: 𝑈(𝑥, 𝑈(𝑦, 𝑧)) = 𝑈(𝑈(𝑥, 𝑦), 𝑧); (2.3.6c) monotonicidade: se 𝑥 ≤ 𝑝 e 𝑦 ≤ 𝑞, então 𝑈(𝑥, 𝑦) ≤ 𝑈(𝑝, 𝑞); (2.3.6d) elemento identidade: ∃ 𝑒 ∈[0, 1] tal que 𝑈(𝑥, 𝑒) = 𝑥.

Exemplo 2.3.9 (Uninorma Cross-Ratio [28]).

(2.3.7 ) 𝑈𝐶(𝑥, 𝑦) = {︃ 0, se (𝑥, 𝑦) = (0, 1) ou (𝑥, 𝑦) = (1, 0) 𝑥𝑦 𝑥𝑦+(1−𝑥)(1−𝑦), caso contrário

Definição 2.3.10 (Implicação Fuzzy [22, 50]). Um operador 𝐼 : [0, 1] × [0, 1] → [0, 1], decrescente

no primeiro argumento e crescente no segundo argumento é chamado implicação fuzzy 𝐼 se estende a implicação clássica usual em {0, 1} × {0, 1}, ou seja,

(2.3.8a) 𝐼(1, 1) = 𝐼(0, 1) = 𝐼(0, 0) = 1;

(2.3.8b) 𝐼(1, 0) = 0.

Exemplo 2.3.11 (Implicação de Gödel, Implicação de Goguen, Implicação de Lukasiewicz, Impli- cação de Kleene e Dienes e Implicação Cross-ratio [21, 22]). Alguns exemplos de implicações fuzzy

foram introduzidas por Gödel, Goguen, Lukasiewicz, Kleene e Dienes, De Baets e Fodor.

(2.3.9a) 𝐼𝑀(𝑥, 𝑦) = {︃ 1, 𝑥 ≤ 𝑦 𝑦, 𝑥 > 𝑦 (2.3.9b) 𝐼𝑃(𝑥, 𝑦) = {︃ 1, 𝑥 ≤ 𝑦 𝑦 𝑥, 𝑥 > 𝑦 (2.3.9c) 𝐼𝐿(𝑥, 𝑦) = 1 ∧ (1 − 𝑥 + 𝑦) (2.3.9d) 𝐼𝐾(𝑥, 𝑦) = (1 − 𝑥) ∨ 𝑦 (2.3.9e) 𝐼𝐶(𝑥, 𝑦) = {︃ 1, se (𝑥, 𝑦) = (0, 0) ou (𝑥, 𝑦) = (1, 1) (1−𝑥)𝑦 𝑦(1−𝑥)+𝑥(1−𝑦), caso contrário

Definição 2.3.12(Negação Fuzzy [22, 51]). Uma aplicação 𝑁 : [0, 1] → [0, 1] é uma negação fuzzy

se satisfizer as seguintes condições:

(2.3.10a) fronteiras: 𝑁(0) = 1 e 𝑁(1) = 0;

(2.3.10b) monotonicidade: 𝑁 é não-crescente.

Além disso, dizemos que 𝑁 é uma negação estrita se é estritamente decrescente. E uma negação estrita é uma negação forte se satisfizer:

(2.3.11 ) involução: 𝑁(𝑁(𝑥)) = 𝑥.

Exemplo 2.3.13 (Negações Fuzzy). (2.3.12a) 𝑁𝑆(𝑥) = 1 − 𝑥; (2.3.12b) 𝑁𝐷(𝑥) = 1 − 𝑥 1 + 𝑝𝑥; 𝑝 > −1; (2.3.12c) 𝑁𝑅(𝑥) = 𝑝1 − 𝑥𝑝; 𝑝 ∈ (0, ∞).

Uma conjunção fuzzy pode estar relacionada com uma implicação fuzzy através de uma relação de dualidade com respeito à adjunção [22]. Diz-se que uma conjunção fuzzy 𝐶 e uma implicação fuzzy 𝐼 formam uma adjunção se, e somente se, 𝐶(𝑥, ·) e 𝐼(𝑥, ·) for uma adjunção para todo

𝑥 ∈ [0, 1]. Nesse caso, 𝐶 e 𝐼 são ditos operadores adjuntos. Por exemplo, os pares (𝐼𝑀, 𝐶𝑀),

(𝐼𝑃, 𝐶𝑃), (𝐼𝐿, 𝐶𝐿), (𝐼𝐾, 𝐶𝐾) e (𝐼𝐶, 𝑈𝐶) formam adjunções [85].

Se 𝐶 é uma conjunção fuzzy e 𝐼 é uma implicação fuzzy tal que 𝐶 e 𝐼 formam uma adjunção, então, 𝐼(𝑥, ·) é uma erosão e 𝐶(𝑥, ·) é uma dilatação em [0, 1] para todo 𝑥 ∈ [0, 1]. Além disso, para toda implicação fuzzy 𝐼, existe no máximo uma conjunção fuzzy 𝐶 (e vice-versa), tal que 𝐼 e 𝐶 formam uma adjunção. Se o par (𝐼, 𝐶) formam uma adjunção, então:

(2.3.13)

𝐼(𝑥, 𝑦) = ⋁︁{𝑧 ∈[0, 1] : 𝐶(𝑥, 𝑧) ≤ 𝑦} ,

para todo 𝑥, 𝑦 ∈ [0, 1]. A implicação 𝐼 que satisfaz (2.3.13) é referida como a R-implicação associada à conjunção 𝐶 [49, 50]. Em particular, uma R-implicação sempre está bem definida se a conjunção fuzzy em (2.3.13) for uma t-norma contínua, pois um operador contínuo representa uma dilatação [33]. Resumidamente, dada uma t-norma contínua, determinamos a implicação adjunta através de (2.3.13). Denota-se por 𝐼𝑇 a R-implicação associada a uma t-norma contínua 𝑇 .

A abordagem mais geral da morfologia matemática fuzzy está fundamentada nos conceitos de medida de inclusão fuzzy e medida de intersecção fuzzy, que são definidas em função de implicações e conjunções fuzzy.

Definição 2.3.14 (Medida de Inclusão Fuzzy [80, 81]). Uma medida de inclusão fuzzy é uma

aplicação 𝐼𝑛𝑐 : ℱ(X) × ℱ(X) → [0, 1] tal que a restrição para 𝒫(X) × 𝒫(X) coincide com a inclusão para conjuntos clássicos.

Definição 2.3.15 (Medida de Intersecção Fuzzy [80, 81]). Uma medida de intersecção fuzzy é

definida como uma aplicação 𝑆𝑒𝑐 : ℱ(X) × ℱ(X) → [0, 1] tal que a restrição para 𝒫(X) × 𝒫(X) coincide com a inclusão para conjuntos clássicos.

Em poucas palavras, podemos dizer que o resultado de 𝐼𝑛𝑐(a, b) é interpretado como o grau de inclusão do conjunto fuzzy a no conjunto fuzzy b, entretanto o valor de 𝑆𝑒𝑐(a, b) representa o grau de intersecção dos conjuntos fuzzy a e b.

Definição 2.3.16 (Inclusão Inf-I [7]). Considere os conjuntos fuzzy a, b ∈ ℱ(X) e seja I uma

implicação fuzzy. Uma medida de inclusão fuzzy 𝐼𝑛𝑐: ℱ(X) × ℱ(X) → [0, 1] é dita uma inclusão Inf-I se, e somente se, é descrita pela equação:

(2.3.14 ) 𝐼𝑛𝑐(a, b) = ⋀︁

x∈𝑋

𝐼(a(x), b(x)).

Definição 2.3.17 (Intersecção Sup-C [7]). Sejam os conjuntos fuzzy a, b ∈ ℱ(X) e C uma con-

junção fuzzy. Uma medida de intersecção fuzzy 𝑆𝑒𝑐 : ℱ(X) × ℱ(X) → [0, 1] é uma intersecção Sup-C se, e somente se, Sec é dada pela equação:

(2.3.15 ) 𝑆𝑒𝑐(a, b) = ⋁︁

x∈𝑋

𝐶(a(x), b(x)).

Observe que diferentes implicações e conjunções fuzzy produzem diferentes inclusões Inf-I e intersecções Sup-C, respectivamente. Dada uma inclusão ou uma intersecção particular, indica-se a implicação fuzzy ou conjunção fuzzy utilizada através de um sub-índice. Por exemplo, 𝐼𝑛𝑐𝐿

denota a inclusão Inf-I baseada na implicação de Lukasiewicz.

2.3.2

Conceitos da Morfologia Matemática Fuzzy

Neste trabalho, utilizaremos as definições dos operadores de dilatação e erosão baseados em medidas de inclusão fuzzy e intersecção fuzzy. Para isto, com o auxílio das Equações (2.3.14), (2.3.15), definiremos o produto matriciail Sup-C, denotado por 𝐸 = 𝐴 ⊙ 𝐵 e o produto matricial Inf-I, denotado por 𝐺 = 𝐴~𝐵, que originam os operadores utilizados nas redes neurais morfológicas fuzzy.

Definição 2.3.18 (Produto Sup-C). Sejam 𝐶 uma conjunção fuzzy, 𝐴 ∈ [0, 1]𝑚×𝑘 e 𝐵 ∈[0, 1]𝑘×𝑛, então o produto sup-𝐶, 𝐸 = 𝐴 ⊙ 𝐵 é definido por:

(2.3.16 ) 𝑒𝑖𝑗 = 𝑘 ⋁︁ 𝜉=1 𝐶(𝑎𝑖𝜉, 𝑏𝜉𝑗).

Definição 2.3.19 (Produto Inf-I). Sejam 𝐼 uma implicação fuzzy, 𝐴 ∈ [0, 1]𝑚×𝑘 e 𝐵 ∈[0, 1]𝑘×𝑛, então o produto inf-𝐼, 𝐺= 𝐴 ~ 𝐵 é definido por:

(2.3.17 ) 𝑔𝑖𝑗 = 𝑘 ⋀︁ 𝜉=1 𝐼(𝑏𝜉𝑗, 𝑎𝑖𝜉).

Neste momento, com os produtos Sup-C e Inf-I bem definidos, é possível caracterizar uma erosão fuzzy e dilatação fuzzy, em termos de medidas de inclusão fuzzy e intersecção fuzzy. Também é possível determinar como estes operadores são representados e empregados nas redes neurais morfológicas fuzzy.

Definição 2.3.20 (Erosão Fuzzy [7, 48, 81, 84]). Seja 𝐼𝑛𝑐 uma medida de inclusão fuzzy tal que

𝐼(𝑠, ·) comuta com o ínfimo para todo s ∈ ℱ(X). Dados uma imagem fuzzy a ∈ ℱ(X), um elemento estruturante fuzzy s ∈ ℱ(X) e X = {x1, . . . , x𝑛}, define-se a erosão fuzzy ℰ : ℱ(X) × ℱ(X) →

(X) de a por s referente à 𝐼𝑛𝑐 através da seguinte equação:

(2.3.18 )(a, s)(x) = 𝐼𝑛𝑐(sx, a) = ⋀︁ y∈X 𝐼(sx(y), a(y)) = 𝜀v(z) = z𝑇 ~ v,

onde sx(y) = s(y − x), ∀y ∈ X, é a translação de s por x ∈ X, v𝑇 = (sx(x1), . . . , sx(x𝑛)) e z𝑇 = (a(x1), . . . , a(x𝑛)).

A Figura 2.3 é um exemplo de erosão fuzzy, dados a uma imagem fuzzy (256 × 256) e s um elemento estruturante (21 × 21).

Figura 2.3: Imagem Fuzzy a - Elemento Estruturante s - Erosão fuzzy (256 × 256) de a por s.

Definição 2.3.21 (Dilatação Fuzzy [7, 48, 81, 84]). Sejam uma imagem fuzzy a ∈ ℱ(X), um

elemento estruturante fuzzy s ∈ ℱ(X), X = {x1, . . . , x𝑛} e 𝑆𝑒𝑐 uma medida de intersecção fuzzy

tal que 𝐶(𝑠, ·) que comuta com o supremo para todo s ∈ ℱ(X). Então uma dilatação fuzzy 𝒟 :

(X) × ℱ(X) → ℱ(X) baseada em uma medida de intersecção fuzzy 𝑆𝑒𝑐 é definida através da

equação: (2.3.19 ) 𝒟(a, s)(x) = 𝑆𝑒𝑐(¯sx, a) = ⋁︁ y∈X 𝐶(¯sx(y), a(y)) = 𝛿v(z) = v𝑇 ⊙ z,

onde ¯sx(y) = s(x − y), ∀y ∈ X, é a reflexão de sx para todo x ∈ X, v𝑇 = (¯sx(x1), . . . , ¯sx(x𝑛)), e z𝑇 = (a(x1), . . . , a(x𝑛)).

Os operadores ℰ e 𝒟 baseados nas medidas de inclusão e de intersecção são chamados de erosões Inf-I e dilatações Sup-C, respectivamente.

Os operadores ℰ(·, 𝑠) : ℱ(X) → ℱ(X) representam uma erosão se, e somente se, 𝐼𝑛𝑐(𝑠, ·) comuta com o ínfimo para todo 𝑠 ∈ ℱ(X) [22]. Pode-se mostrar que esse fato é verdadeiro para inclusões Inf-I se, e somente se, 𝐼(𝑠, ·) é uma erosão para todo 𝑠 ∈ [0, 1]. Por esta razão, a definição de erosão fuzzy Inf-I contém a condição que 𝐼(𝑠, ·) representa uma erosão. Uma observação análoga pode ser feita para o operador 𝒟, representando uma dilatação.

O conceito de adjunção possui um papel importante na morfologia matemática fuzzy. Dados 𝐼 uma implicação fuzzy e 𝐶 uma conjunção fuzzy. O par (𝐼, 𝐶) forma uma adjunção em [0, 1] se, e somente se, o par (ℰ, 𝒟) dado pelas Equações (2.3.18) e (2.3.19) formar uma adjunção em ℱ(X). Agora que já temos definidos os conceitos da MM fuzzy, da MM em tons de cinza e como estas abordagens são tratadas numa estrutura de reticulados completos, é possível relacioná-las e,

consequentemente, aplicar seus conceitos para o desenvolvimento das redes neurais morfológicas e redes neurais morfológicas fuzzy.

Esta relação entre a MM fuzzy e a MM em tons de cinza está fundamentada na ligação que há entre os operadores ℰ𝒰 e 𝒟𝒰 da abordagem umbra da MM em tons de cinza e os operadores ℰ e 𝒟 baseados no par (𝐼𝐿, 𝑇𝐿) (2.3.9c),(2.3.5c) da FMM. Podemos afirmar que este operadores

são equivalentes, a menos de certas transformações [81]. Para demonstrar esta equivalência, dados a, s ∈ GX e x, y ∈ X basta definir um limiar nos operadores da abordagem umbra:

(2.3.20a) ℰ𝒰(a, s)(x) = 1, se s(x) − a(x) + 1 > 1, ∀x ∈ X,

(2.3.20b) 𝒟𝒰(a, s)(x) = 0, se a(x) + s(x) − 1 < 0, ∀x ∈ X.

Além da definição deste limiar, também é necessário introduzir uma transformação entre os reticulados completos [0, 1] e R±∞. Os detalhes destas transformações estão no artigo “Classifica- tion of Fuzzy Mathematical Morphologies Based on Concepts of Inclusion Measure and Duality” [81]. Portanto, é possível demonstrar que os operadores ℰ𝒰 e 𝒟𝒰 da abordagem umbra da MM em tons de cinza são equivalentes aos operadores da FMM, ℰ e 𝒟, baseados na t-norma e implicação de Lukasiewicz (𝐼𝐿, 𝑇𝐿).

Observação 2.3.22 (Extensão da MM em tons de cinza). A Morfologia Matemática Fuzzy é uma

extensão da Morfologia Matemática em Tons de Cinza.

Demonstração. Sabemos que os operadores da abordagem umbra da MM em tons de cinza, ℰ𝒰 e 𝒟𝒰, são equivalentes aos operadores da FMM, ℰ𝐿 e 𝒟𝐿. Mas o par de operadores ℰ𝐿 e 𝒟𝐿 é apenas

um dos pares adjuntos existentes na FMM. Portanto, os operadores da FMM são considerados uma extensão dos operadores da MM em tons de cinza e, consequentemente, a FMM estende a MM em tons de cinza.

Capítulo 3

Alguns Modelos de Redes Neurais

Artificiais

O modelo matemático que tem como objetivo descrever o comportamento do neurônio biológico é conhecido como neurônio artificial, ou de modo mais geral, o modelo que descreve o sistema nervoso biológico é conhecido como rede neural artificial [31]. Estes modelos são caracterizados pela sua arquitetura (topologia), sua função de agregação dos neurônios e suas regras de treinamento e aprendizado. É possível identificar três componentes básicos em sua composição: um conjunto de conexões sinápticas que são determinadas por pesos sinápticos (representado normalmente por

𝑤𝑖𝑗), uma regra de agregação que define as operações usadas para processar os sinais de entrada,

ponderados pelos pesos sinápticos (no modelo clássico é utilizado uma combinação linear) e uma função de ativação, que pode ser usada para introduzir não linearidade no modelo e restringir a amplitude da saída de um neurônio.

Neste capítulo serão apresentados alguns modelos de redes neurais, iniciando do modelo neural clássico e passando pelo modelo neural morfológico, além de apresentar alguns modelos híbridos, que serão serão desenvolvidos e aplicados neste trabalho.

3.1

Modelo Neural Clássico

Este modelo neural clássico foi proposto pelo biólogo Warren McCulloch e pelo matemático Walter Pitts por volta de 1943 [45]. Ele pode ser representado por estas duas equações, para cada neurônio: (3.1.1a) 𝑢= 𝑛 ∑︁ 𝑗=1 𝑤𝑗𝑥𝑗, (3.1.1b) 𝑦= 𝑓 (𝑢) .

Ou então pela forma simplificada:

(3.1.2) 𝑦 = 𝑓 ⎛ ⎝ 𝑛 ∑︁ 𝑗=1 𝑤𝑗𝑥𝑗 ⎞ ⎠, 20

(3.1.3)

𝑦= 𝑓(︁w𝑇 · x)︁.

Onde x = (𝑥1, 𝑥2, . . . , 𝑥𝑛)𝑇 é o sinal de entrada da rede, w = (𝑤1, 𝑤2, . . . , 𝑤𝑛)𝑇 é o peso

sináptico do neurônio, 𝑓(·) é a função de ativação (que pode ser uma função degrau ou do tipo sigmoidal por exemplo), 𝑢 é a ativação do neurônio e 𝑦 seu sinal de saída.

Exemplo 3.1.1 (Função de Ativação).

(3.1.4a) 𝑓(𝑥) = {︃ 1, se 𝑥 ≥ 0 0, se 𝑥 < 0 (3.1.4b) 𝑓(𝑥) = tanh(𝑥) (3.1.4c) 𝑓(𝑥) = 1 1 + exp(−𝑥)

Observação 3.1.2. Note que um conjunto com 𝑚 neurônios em paralelo pode ser representado

por uma forma matricial através da seguinte equação:

(3.1.5 )

y= 𝑓 (Wx) .

Em que x ∈ R𝑛 é o vetor coluna que contém o sinal de entrada, W ∈ R𝑚×𝑛 representa a matriz

de pesos sinápticos, 𝑓 é uma função vetorial com componentes 𝑓𝑖 : R → R e y é o vetor coluna

que contém a saída da rede.

Desta forma, podemos trabalhar com uma rede neural artificial de várias camadas, em que cada neurônio realiza uma operação de composição genérica, onde uma entrada no neurônio é primeiro processada por alguma função ℎ(., .) das entradas e dos pesos sinápticos (w) e então transformada por uma função de ativação 𝑓(.). A estrutura do neurônio é definida por uma função ℎ(., .), como na Equação (3.1.1a), além disso, para definir a saída do neurônio temos também uma função de ativação 𝑓(.). Matematicamente, podemos descrever uma rede neural do tipo alimentada adiante (feedforward) por meio das equações:

(3.1.6a) 𝑦(𝑙) ≡ 𝐹(︁𝑧(𝑙))︁ =(︁ 𝑓(︁𝑧1(𝑙))︁, 𝑓(︁𝑧2(𝑙))︁, . . . , 𝑓(︁𝑧𝑁(𝑙)𝑡)︁)︁, 𝑙 = 1, 2, . . . , 𝐿, (3.1.6b) 𝑧𝑛(𝑙) ≡ ℎ(︁𝑦(𝑙−1), 𝑤(𝑙)𝑛 )︁, 𝑛 = 1, 2, . . . , 𝑁𝑡,

onde 𝑙 é o número da camada, 𝑁𝑡 é o número de neurônios na camada 𝑙 e o vetor de pesos 𝑤(𝑙)𝑛

representa os parâmetros do sistema. Além disso, a entrada e saída do sistema são:

(3.1.7a) 𝑦(0) = 𝑥 = (𝑥1, 𝑥2, . . . , 𝑥𝑁0) (entrada), (3.1.7b) 𝑦(𝐿)= 𝑦 = (𝑦1, 𝑦2, . . . , 𝑦𝑁𝐿) (saída).

Em relação ao treinamento, aqui sempre utilizaremos redes do tipo alimentada adiante (feed-

forward). Além disso, podemos estender este modelo clássico utilizando perceptrons com múltiplas

camadas (MLPs), onde seu treinamento pode ser feito pelo algoritmo de retropropagação do erro (backpropagation) [64], que é essencialmente um algoritmo de retropropagação de primeira ordem, ou seja, leva em consideração o gradiente da função erro. Também podemos treinar a rede através das máquinas de aprendizado extremo (ELMs), que não utiliza o gradiente da função erro, ela apenas trabalha com quadrados mínimos para ajustar os pesos sinápticos da rede. A seguir, no Algoritmo 3.1, temos o exemplo de um algoritmo de treinamento (padrão-a-padrão) utilizando retropropagação do erro, para redes do tipo MLP.

Algoritmo 3.1 Treinamento MLP

1: Sejam 𝑥1, 𝑥2, . . . , 𝑥𝑀 os padrões de entrada, defina 𝑡 = 0 e inicialize os pesos w(0) =

(w(1)(0), w(2)(0), . . . , w(𝐿)(0)) aleatoriamente em [−1, 1].

2: while (𝑡 ≤iteração máxima) e (MSE>0.005) e (decréscimo no MSE>10−6) do

3: Ordene aleatoriamente os padrões de entrada-saída. 4: for 𝑚= 1, . . . , 𝑀 do

5: Apresente o padrão de entrada 𝑥𝑚à rede e determine a sua saída 𝑦𝑚utilizando as Equações

(3.1.5) e também (3.1.6).

6: Realize a fase de retropropagação do erro para calcular os gradientes ∇𝐸𝑚(w(𝑙)).

7: Atualize os pesos w(𝑡 + 1) = w(𝑡) + Δw(𝑡), com Δw(𝑡) = −𝜂∇𝐸𝑚 |𝑤(𝑡) +𝛼 · Δ𝑤(𝑡 − 1). 8: end for

9: 𝑡 ← 𝑡+ 1

10: end while

Documentos relacionados