• Nenhum resultado encontrado

Partial Technical Report -- Approved on September 2017.

N/A
N/A
Protected

Academic year: 2021

Share "Partial Technical Report -- Approved on September 2017."

Copied!
24
0
0

Texto

(1)

Universidade Estadual de Campinas

Instituto de Matemática, Estatística e Computação Científica Departamento de Matemática Aplicada

RELATÓRIO CIENTÍFICO PARCIAL 2

Título do Projeto:

Um Estudo Sobre Memórias Associativas Recorrentes

Exponenciais Fuzzy, Suas Generalizações e Aplicações.

Processo: 2015/00745-1

Vigência do projeto: 01/08/2015 a 31/03/2018

Período coberto pelo relatório: 11/07/2016 a 10/07/2017

———————————————————————-Aline Cristina de Souza

Beneficiária

———————————————————————-Marcos Eduardo Ribeiro do Valle Mesquita

Orientador

(2)

1

Resumo do Projeto

Memórias associativas (AMs, associative memories) são modelos matemáticos ins-pirados na capacidade do cérebro humano de armazenar e recuperar informação por associação. Tal como o cérebro, AMs são também capazes de recuperar uma certa in-formação armazenada mesmo quando a entrada corresponde à uma versão incompleta ou corrompida de um item memorizado. A classe das memórias associativas recorren-tes por correlação (RCAMs, recurrent correlation associative memories), introduzida por Chiueh e Goodman no início dos anos 90, pode ser usada para implementar AMs com grande capacidade de armazenamento e excelente tolerância a ruído. Todavia, as RCAMs são projetadas para armazenar e recuperar padrões bipolares. Neste projeto de pesquisa investigaremos uma versão fuzzy da classe das RCAMs, chamada classe das memórias associativas recorrentes exponenciais fuzzy (REFAMs, recurrent exponen-tial fuzzy associative memories). Uma REFAM define recursivamente uma sequência de conjuntos fuzzy obtidos pela soma dos itens memorizados ponderados por uma exponencial de uma medida de comparação. Experimentos computacionais relacio-nados à recuperação de imagens em tons de cinza corrompidas serão realizados com intuito de avaliar a capacidade de armazenamento e tolerância a ruído das REFAMs. O desempenho das REFAMs também será avaliado considerando aplicações tais como classificação, previsão, reconhecimento de padrões e controle.

Palavras-chave: Inteligência computacional, memórias associativas, redes neurais ar-tificiais, teoria dos conjuntos fuzzy , processamento de imagens e sinais.

2

Resumo das Atividades Desenvolvidas na Etapa

An-terior

Na etapa anterior, estudamos as memórias associativas recorrentes por correlação expo-nencial (ECAMs) [8] e as memórias associativas bidirecionais exponenciais (EBAMs) [17], modelos projetados para o armazenamento e recordação de vetores bipolares. Posteriormente, apresentamos a definição das memórias associativas recorrentes expo-nenciais fuzzy (REFAMs) [33, 35], as quais podem ser vistas como uma versão fuzzy da ECAM. Definimos, inspirados pela EBAM, a memória associativa bidirecional ex-ponencial fuzzy (EBFAM), modelo que estende a REFAM para o caso heteroassoci-ativo. Apresentamos a aplicação das EBFAMs a um problema de reconhecimento de faces e descrevemos os experimentos computacionais realizados para avaliar o desem-penho das EBFAMs em tal problema. De modo geral, as EBFAMs obtiveram melhores resultados para valores maiores do parâmetro α.

Além disso, iniciamos o estudo de uma classe de modelos que generalizam as RE-FAMs, as GREFAMs (do inglês, Generalized recurrent exponential fuzzy associative memories), e suas aplicações. Tivemos um trabalho aceito para o Congresso Naci-onal de Matemática Aplicada e ComputaciNaci-onal (XXXVI CNMAC), que ocorreu em setembro de 2016, um trabalho aceito para o Congresso Brasileiro de Sistemas Fuzzy (IV CBSF) que aconteceu em novembro de 2016 e um capítulo de livro aceito para

(3)

publicação [34].

3

Introdução

Memórias associativas são modelos matemáticos projetados com o objetivo de armaze-nar e recordar informações [16, 18]. Especificamente, dado um conjunto finito de pares que desejamos armazenar {(A1, B1), · · · , (Ap, Bp)}, chamado conjunto das

memó-rias fundamentais, o objetivo é determinar uma aplicação M tal que M (Aξ) = Bξou

M (Aξ) seja suficientemente próximo de Bξ. Além disso, espera-se que, tal como o

cérebro humano, a memória tenha certa capacidade de recordar uma informação arma-zenada a partir de dados incompletos. Em outras palavras, espera-se que a memória possua certa tolerância a ruídos, isto é, que seja capaz de recuperar um padrão armaze-nado Bξmesmo a partir de uma versão incompleta ou ruidosa de Aξ.

Uma memória associativa pode ser classificada em autoassociativa ou heteroasso-ciativa de acordo com o conjunto de memórias fundamentais considerado. De fato, dizemos que uma memória é autoassociativa se Aξ = Bξ para todo ξ = 1, · · · , p.

Nesse caso, o conjunto das memórias fundamentais pode ser escrito simplesmente na forma {A1, · · · , Ap}. Se Aξ 6= Bξ para algum índice ξ, a memória é dita

heteroasso-ciativa [16].

No início dos anos 1990, Chiueh e Goodman introduziram as memórias associati-vas recorrentes por correlação exponencial (ECAM, do inglês exponential correlation associative memory) [8], modelos autoassociativos bipolares com alta capacidade de armazenamento. Na mesma época, as memória associativa bidirecional exponencial (EBAM, do inglês exponential bidirectional associative memory) foram propostas por Chiueh et al. para armazenamento e recordação de vetores bipolares no caso heteroas-sociativo. [17].

No entanto, em algumas aplicações há a necessidade de armazenar vetores com co-ordenadas reais ou conjuntos fuzzy [5, 13, 19, 20, 28], o que motivou o surgimento das memórias associativas recorrentes exponenciais fuzzy, REFAMs, (do inglês recurrent exponential fuzzy associative memories) [33, 35] e das memórias associativas bidireci-onais exponenciais fuzzy, EBFAMs, (do inglês exponential bidirectional fuzzy associ-ative memories). De fato, as REFAMs, projetadas para o armazenamento e recordação de uma família finita de conjuntos fuzzy, podem ser vistas como uma versão fuzzy da ECAM de Chiueh e Goodman e as EBFAMs, inspiradas pela EBAM, estendem as REFAMs para o caso heteroassociativo. Posteriormente, definimos as memórias asso-ciativas recorrentes exponeniais fuzzy generelizadas [27], GRE-FAMs, e as memórias associativas bidireconais exponenciais fuzzy generalizadas [26], GEB-FAMs, modelos que generalizam as REFAMs e EBFAMs respectivamente.

Tanto as GRE-FAMs como as GEB-FAMs utilizam em sua definição uma medida de similaridade fuzzy, isto é, uma função que mede o grau de igualdade entre dois conjuntos fuzzy. Na literatura, existem várias definições de medida de similaridade [40, 3, 38]. Ao longo desse período, consideramos diferentes tipos de similaridade, dentre elas a medida de similaridade proposta por Xuecheng [40], as medidas de similaridade baseadas em cardinalidade propostas por De Beats e De Meyer em [3] e a medida de similaridade estrutural SSIM [38].

(4)

Estudamos também a aplicação das GRE-FAMs e GEB-FAMs a problemas de clas-sificação e a um problema de reconhecimento de faces. Para isto, propusemos duas abordagens. A primeira, baseada nas GRE-FAMs e inspirada pelos classificadores de representação esparsa [39] e a segunda baseada nas GEB-FAMs. Com o objetivo de avaliar o desempenho de tais classificadores e comparar as duas abordagens propostas, realizamos experimentos computacionais considerando vários problemas, dentre eles um problema de reconhecimento facial utilizando a base de dados AR [22], um pro-blema de classificação de árvores com base em um conjunto de dados extraídos a partir de algumas de suas características [6] e um conjunto de problemas de classificação disponíveis na base de dados KEEL [2].

Este relatório está organizado da seguinte maneira. Nas próximas seções apresenta-remos as principais contribuições desenvolvidas no período de 11/07/2016 a 10/07/2017. Especificamente, na Seção 4 faremos uma revisão sobre conjuntos fuzzy e medidas de similaridade. Na Seção 5, apresentaremos a definição das GRE-FAMs bem como alguns resultados teóricos sobre este modelo e, na Seção 6, a definição das GEB-FAMs, modelo que estende as GRE-FAMs para o caso heteroassociativo. Na Seção 7 descreveremos duas abordagens para problemas de classificação, a primeira utilizando as GRE-FAMs e segunda utilizando as GEB-FAMs. Na Seção 8 apresentaremos o desempenho dos classificadores propostos em alguns problemas de classificação. As considerações finais são apresentadas na Seção 9. Nas seções 10, 11 e 12, são citadas respectivamente, as participações em congressos, os trabalhos submetidos e as discipli-nas cursadas no período referente a este relatório. Finalmente, a Seção 13 refere-se a aplicação dos recursos e a Seção 14 ao plano de trabalho e cronograma para a próxima etapa.

Principais Contribuições Desenvolvidas no Período de

11/07/2016 a 10/07/2017

4

Conjuntos Fuzzy e Medidas de Similaridade

Iniciaremos essa seção recordando a definição de conjuntos fuzzy. Logo em seguida faremos uma revisão sobre medidas de similaridade.

A teoria dos conjuntos fuzzy foi introduzida em 1965 por L.A. Zadeh [41] com o objetivo de tratar matematicamente termos que expressam incerteza como "aproxima-damente", "em torno de", entre outros [41, 4]. Brevemente, dado um conjunto universo U , um subconjunto fuzzy A de U é caracterizado por sua função de pertinência, con-forme a seguinte definição [41, 4, 24]:

Definição 1. Seja U um conjunto. Um subconjunto fuzzy X de U é definido por meio de sua função de pertinênciaX : U → [0, 1], isto é, dado um elemento u ∈ U , X(u) indica o grau com o qualu pertence a X.

Observemos que, X(u) = 0 e X(u) = 1 indicam, respectivamente, a não perti-nência e a pertiperti-nência total de u a X. Observemos também que, nos casos em que o conjunto universo U é finito, digamos U = {u1, · · · , un}, cada subconjunto fuzzy

(5)

X de U pode ser associado a um vetor X = [X(u1), · · · , X(Un)]T pertencente ao

hipercubo unitário n-dimensional [0, 1]n.

Denotaremos por F (U ) o conjunto de todos os subconjuntos fuzzy de U e por P(U ) o conjunto das partes de U , ou seja, a família de todos os conjuntos clássicos (crisp) de U .

Outra definição muito importante para este tabalho é a de medida de similaridade fuzzy. De modo geral, uma medida de similaridade fuzzy (a qual chamaremos sim-plesmente de medida de similaridade), é uma função que associa a cada par (A,B) de subconjuntos fuzzy de U , um número real que indica o grau com que esses conjuntos são iguais. Existe uma vasta literatura sobre medidas de similaridade e sua defini-ção pode variar de acordo com o contexto. Neste período, baseados em vários artigos [40, 9, 3, 10, 38, 37], fizemos um estudo profundo sobre medidas de similaridade. Buscamos compreender como tais medidas influenciam o desempenho dos modelos e assim, obter um critério para a escolha da medida de similaridade. No entanto, experi-mentos computacionais mostraram que a medida de similaridade mais adequada pode depender do problema considerado. A seguir, descreveremos as pricipais medidas de similaridade estudadas neste período.

Inicialmente, consideramos uma versão normalizada da definição de medida de similaridade proposta por Xuecheng [40]. Segundo esta definição, uma medida de similaridade é uma função simétrica S : F (U ) × F (U ) → [0, 1] tal que:

i) S(A, A) = 1, para todo A ∈ F (U ) (reflexiva);

ii) S(A, A) = 0, para todo A ∈ P(U ), onde A denota o complementar de A em U . iii) para quaisquer A, B, C, D ∈ F (U ), se A ⊂ B ⊂ C ⊂ D então S(A, D) ≤

S(B, C);

Observemos que com esta definição os valores da similaridades entre os subconjuntos fuzzy de um conjunto universo U se distribuem por todo o intervalo [0,1], assumindo o valor 1 para pares de conjuntos iguais e valor 0 para pares de conjuntos clássicos complementares.

Um exemplo é dado pela medida de similaridade baseada na distância de Hamming, denotada por SH: SH(A, B) = 1 − 1 n n X j=1 |A(uj) − B(uj)|. (1)

Posteriormente, com o objetivo de investigar outras medidas de similaridade, ado-tamos uma definição mais abrangente proposta por De Baets e De Meyer [3]:

Definição 2. Uma medida de similaridade é uma relação fuzzy binária simétrica sobre F (U ), isto é, uma função simétrica S : F (U ) × F (U ) → [0, 1].

Além disso, uma medida de similaridade S : F (U ) × F (U ) → [0, 1] é dita re-flexiva se S(A, A) = 1, para todo A ∈ F (U ) e S é dita localmente rere-flexiva se S(A, A) ≥ S(A, B), para quaisquer A, B ∈ F (U ). Ainda, dizemos que uma medida de similaridade S é forte se S(A, B) = 1 se, e somente se, A = B.

(6)

Observemos que a versão normalizada da definição de medida de similaridade pro-posta por Xuecheng, considerada anteriormente, também satisfaz a Definição 2.

Outros exemplos são as medidas de similaridade racionais baseadas em cardinali-dade, propostas por De Baets e De Meyer em [3], definidas da seguinte forma:

S(A, B) = aαA,B+ bωA,B+ cδA,B+ dνA,B a0α

A,B+ b0ωA,B+ c0δA,B+ d0νA,B

. (2)

onde a, a0, b, b0, c, c0, d, d0 ∈ {0, 1} são parâmetros, #(A) denota a cardinalidade do conjunto fuzzy A, (A\B) denota a diferença entre os conjuntos fuzzy A e B, αA,B =

min{#(A\B), #(B\A)}, ωA,B = max{#(A\B), #(B\A)}, δA,B = #(A ∩ B) e

νA,B= #(A ∪ B)c.

A seguinte função é um exemplo de medida de similaridade forte baseada em cardinalidade[44, 12, 3]:

Exemplo 1 (Medida de similaridade de Gregson).

SG(A, B) = n X j=1 min(A(uj), B(uj)) n X j=1 max(A(uj), B(uj)) . (3)

Consideramos também a medida de similaridade estrutural (SSIM - Structural Si-milarity Index) [38]. Esta medida pode ser utilizada para avaliar a qualidade de ima-gens, uma vez que é menos sensível a distorções que não alteram a estrutura da imagem, como por exemplo mudanças na iluminação. Uma imagem em tons de cinza X, de di-mensões n×m pixels, pode ser associada ao subconjunto fuzzy de Z2, X : Z2→ [0, 1], em que X(i, j) representa o tom de cinza do pixel na posição (i, j), onde 1 ≤ i ≤ n e 1 ≤ j ≤ m. Assim, esta medida pode ser empregada para calcular a similaridade entre imagens e ser utilizada, por exemplo, em problemas de reconhecimento de faces. A medida de similaridade SSIM está baseada numa medida de similaridade estrutu-ral local, denotada por Sl[38]. Em termos gerais, Slbaseia-se nas comparações da

iluminação, do contraste e da estrutura das imagens numa certa janela. Formalmente, considere fragmentos X = {xi : i = 1, . . . , N } e Y = {yi : i = 1, . . . , N }

extraí-dos do mesmo local de duas imagens a serem comparadas. A medida de similaridade estrutural local é definida por:

Sl(X, Y ) =

(2µxµy+ C1)(2σxy+ C2)

(µ2

x+ µ2y+ C1)(σx2+ σ2y+ C2)

, (4)

onde C1e C2são constantes positivas,

µx= 1 N N X i=1 ωixi, σx= 1 N − 1 N X i=1 ωi(xi− µx)2 !12 , (5) σxy= 1 N − 1 N X i=1 ωi(xi− µx)(yi− µy) (6)

(7)

e Ω = {ωi: i = 1, . . . , N } é uma função de ponderação Gaussiana circular simétrica

11 × 11, normalizada de modo quePN

i=1ωi = 1, e com desvio padrão 1,5.

5

Memória Associativa Recorrente Exponencial Fuzzy

Generalizada

As memórias associativas recorrentes exponenciais fuzzy generalizadas, (GRE-FAMs, do inglês generalized recurrent exponential fuzzy associative memories) são memórias autoassociativas projetadas para o armazenamento e recordação de uma família finita de conjuntos fuzzy A = {Ai, i = 1, · · · , p} ⊂ F (U ). Especificamente, uma

GRE-FAM pode ser utilizada para recordar um conjunto fuzzy armazenado a partir de um conjunto fuzzy inicial X0. De fato, dado X0, a GRE-FAM produz uma sequência

de conjuntos fuzzy {Xt}t>0 ⊂ F (U ) definidos a partir de uma combinação linear

das memórias fundamentais cujos coeficientes envolvem exponenciais de medidas de similaridades. Formalmente, uma GRE-FAM é definida da seguinte forma:

Definição 3. Sejam A = {A1, A2, · · · , Ap} ⊂ F (U ) o conjunto das memórias

funda-mentais,S : F (U ) × F (U ) → [0, 1] uma medida de similaridade, α > 0 um número real eG uma matriz. Dado um conjunto fuzzy inicial X0∈ F (U ), a GRE-FAM produz

uma sequência de conjuntos fuzzyXt, definidos, para todot ≥ 0 e para todo u ∈ U ,

por: Xt+1(u) = ϕ        p X ξ=1 p X µ=1 gξµeαS(A µ,X t)Aξ(u) p X η=1 p X µ=1 gηµeαS(A µ,X t)        = ϕ   p X ξ=1 wξtAξ(u)  ,

em queϕ : R → [0, 1] é a função definida por ϕ(x) = max(0, min(1, x)) e os pesos wξtsão dados por:

wξt= p X µ=1 gξµeαS(A µ,Xt) p X η=1 p X µ=1 gηµeαS(A µ,X t) , ∀t ≥ 0. (7)

Observemos que a GRE-FAM pode ser vista como uma rede neural recorrente com quatro camadas [34]. A primeira camada calcula a exponencial da medida de similari-dade entre o conjunto fuzzy Xte as memórias fundamentais. A segunda é composta

por neurônios lineares, a terceira normaliza as saídas da camada anterior e a última camada produz uma combinação linear das memórias fundamentais seguida da função ϕ que garante que o padrão de saída seja um conjunto fuzzy.

A escolha da matriz G é de grande importância para a definição da GRE-FAM. Por exemplo, se considerarmos G = Id, a matriz identidade, obtemos a REFAM. Dessa

(8)

forma, temos que a GRE-FAM é uma generalização da REFAM. O Teorema 1 abaixo [27] nos mostra como definir a matriz G de forma que as memórias fundamentais sejam corretamente recuperadas, isto é, de modo que as memórias fundamentais sejam pontos fixos da GRE-FAM.

Teorema 1. Sejam A = {A1, A2, · · · , Ap} ⊂ F (U ) o conjunto das memórias

funda-mentais,S : F (U ) × F (U ) → [0, 1] uma medida de similaridade, α > 0 um número real eC = (cij) a matriz definida por:

cij = eαS(A

i,Aj)

, ∀i, j = 1, · · · , p. (8)

SeG = C−1 então as memórias fundamentaisAi,i = 1, · · · , p são pontos fixos da GRE-FAM.

A partir de agora, consideraremos G = C−1conforme Teorema 1.

Além da matriz G, para definir a GRE-FAM é necessário um número real α > 0 e, como podemos observar, a matriz G dada pelo Teorema 1 também depende deste parâmetro. Se considerarmos uma medida de similaridade forte, o próximo resultado nos fornece um limitante inferior para os valores de α a partir do qual a matriz C definida em (8) é definida positiva.

Teorema 2. Sejam A = {Ai, i = 1, · · · , p} ⊂ F (U ) o conjunto das memórias

fun-damentais,S : F (U ) × F (U ) −→ [0, 1] uma medida de similaridade forte, Sm =

max

i,j,i6=j{S(A

i, Aj)}, α > 0 um número real e C = (c

ij) a matriz definida por:

cij = eαS(A

i,Aj)

, ∀i, j = 1, · · · , p. (9)

Seα > ln(p − 1) 1 − Sm

, então a matrizC é definida positiva.

Demonstração. Primeiramente, observemos que uma matriz simétrica é definida po-sitiva se, e somente se, todos os seus autovalores são positivos [15]. Dessa forma, mostraremos que se α >−ln(p − 1)

Sm− 1

, todos os autovalores de C são positivos. De fato, seja λ autovalor qualquer de C. Aplicando o teorema dos discos de Gersh-gorin [23] à matriz C obtemos:

|eα− λ| ≤ p

X

j=1,j6=i

eαS(Ai,Aj), para algum i = 1, · · · , p. (10) De forma equivalente, temos

− p X j=1,j6=i eαS(Ai,Aj)≤ eα− λ ≤ p X j=1,j6=i

eαS(Ai,Aj), para algum i = 1, · · · , p. (11) Da segunda desigualdade acima, desde que Sm = max

i,j,i6=j{S(A

i, Aj)} ≥ S(Ai, Aj

), para quaisquer i, j ∈ {1, · · · , p}, i 6= j, segue que:

eα− λ ≤ p X j=1,j6=i eαS(Ai,Aj)≤ p X j=1,j6=i eαSm = (p − 1)eαSm. (12)

(9)

Assim, temos:

eα(1 − (p − 1)eα(Sm−1)) ≤ λ. (13)

Por hipótese, temos que α >−ln(p − 1) Sm− 1

. Assim, eα(Sm−1) < (p − 1)−1e, portanto,

(p − 1)eα(Sm−1)< 1. Logo, 1 − (p − 1)eα(Sm−1)> 0.

Desde que eα> 0, para todo α ∈ R, segue que eα(1 − (p − 1)eα(Sm−1)) > 0.

Logo, 0 < eα(1 − (p − 1)eα(Sm−1)) < λ.

Assim, desde que toda matriz definida positiva é inversível [15], temos que se α > −ln(p − 1)

Sm− 1

, a matriz G = C−1 está bem definida. Além disso, sendo C si-métrica e definida positiva, a matriz C admite fatoração de Cholesky, isto é, C pode ser escrita na forma C = RT ∗ R em que R é uma matriz triangular superior e RT denota

sua transposta [15]. Neste caso, não é necessário calcular a matriz G explicitamente. Dessa forma, é possível reduzir o custo computacional da GRE-FAM, principalmente para os casos em que C apresenta dimensão grande, isto é, nos casos em que estamos considerando muitas memórias fundamentais.

6

Memória Associativa Bidirecional Exponencial Fuzzy

Generalizada

Nesta seção recordaremos a definição das GEB-FAMs, modelo que estende as GRE-FAMs para o caso heteroassociativo.

As memórias associativas bidirecionais exponenciais fuzzy generalizadas (GEB-FAMs) são projetadas para o armazenamento e recordação de um família finita de pares de conjuntos fuzzy. Formalmente, seja {(Aξ, Bξ), ξ = 1, . . . , p} ⊂ F (U ) × F (V ) o conjunto das memórias fundamentais, α > 0 um número real, SU : F (U ) × F (U ) →

[0, 1] e SV : F (V ) × F (V ) → [0, 1] medidas de similaridade, G e H matrizes de

dimensão p × p. Dado um conjunto fuzzy de entrada X0 ∈ F (U ), uma GEB-FAM

produz recursivamente sequências de conjuntos fuzzy {Xt}t>0e {Yt}t≥0 definidos,

para todo t ≥ 0, u ∈ U e v ∈ V , pelas seguintes equações:

Yt(v) = ϕ        p X ξ=1 p X µ=1 gξµeαSU(A µ,X t)Bξ(v) p X η=1 p X µ=1 gηµeαSU(A µ,Xt)        e (14) Xt+1(u) = ϕ        p X ξ=1 p X µ=1 hξµeαSV(B µ,Y t)Aξ(u) p X η=1 p X µ=1 hηµeαSV(B µ,Yt)        , (15)

(10)

em que a função ϕ, dada por ϕ(x) = max(0, min(1, x)), garante que Yt(v), Xt+1(u) ∈

[0, 1], para todo v ∈ V , u ∈ U e para todo t > 0. Consideramos G = C−1, em que C = (cij)p×pé a matriz definida por cij = eαSU(A

i,Aj)

. Analogamente, H = D−1em que D = (dij)p×pé definida por dij= eαSV(B

i,Bj)

. Se considerarmos G = H = Id, a matriz identidade, obtemos as EBFAMs. Portanto, as GEB-FAMs generalizam as EBFAMs.

No caso de uma GEB-FAM de passo único, dado X0∈ F (U ), simplesmente

defi-nimos Y0∈ F (U ) através da equação

Y0(v) = ϕ   p X ξ=1 wAξ0Bξ(v)  , ∀v ∈ V, (16) em que wAξ0= p X µ=1 gξµeαS(A µ,X 0) p X η=1 p X µ=1 gηµeαS(A µ,X 0) , ∀ξ = 1, . . . , p. (17)

7

Problemas de Classificação de Padrões

Iniciaremos essa seção com uma breve revisão sobre classificadores baseados em re-presentação esparsa, uma vez que o classificador baseado nas GRE-FAMs, definido logo em seguida, é inspirado por tais modelos.

7.1

Classificadores baseados em representação esparsa

Seja AL = {(Aξ, lξ), ξ = 1, · · · , p} ⊂ F (U ) × L um conjunto de padrões de

trei-namento, em que Aξ são subconjuntos fuzzy de um conjunto U e l

ξ um rótulo que

indica a que classe o padrão Aξ pertence. Um classificador de representação esparsa

[39] se baseia na hipótese de que uma amostra Y pertencente a uma determinada classe i pode ser pode ser escrita aproximadamente como combinação linear dos padrões de treinamento desta classe i, isto é,

Y (u) ≈ X

ξ:lξ=i

αξAξ(u), ∀u ∈ U. (18)

Ou ainda, se definirmos αξ = 0, para todo ξ tal que lξ 6= i, podemos expressar Y como

combinação linear de todos padrões de treinamento Aξ, ξ = 1, · · · , p:

Y (u) ≈

p

X

ξ=1

(11)

7.2

Abordagem 1 - Classificação de Padrões Utilizando GRE-FAMs

Inspirados pelos classificadores de representação esparsa, definiremos um classificador utilizando a GRE-FAM. Seja X0 um padrão pertencente a uma determinada classe i,

ou uma versão ruidosa de um padrão da classe i. Por ser um modelo de memória associativa espera-se que o padrão X1produzido pela GRE-FAM em um único passo

também pertença a classe i. Por definição, X1satisfaz

X1(u) = ϕ   p X ξ=1 wξ0Aξ(u)  , ∀u ∈ U. (20)

Por outro lado, baseados nos classificadores de representação esparsa, esperamos que X1≈

p

X

ξ=1

αξAξ(u), ∀u ∈ U, (21)

em que αξ= 0, para todo ξ tal que lξ 6= i.

A menos da função ϕ, que pode ser desconsiderada se

p

X

ξ=1

wξ0Aξ(u) ∈ [0, 1], para

todo u ∈ U , as equações (20) e (21) sugerem que os pesos wξ0, ξ = 1, · · · , p também

são esparsos.

Dessa forma, podemos calcular os coeficientes αξ na equação (21) por:

αξ = wξ0χi(lξ), ∀ξ = 1, · · · , p (22)

onde χi: L → {0, 1}, para i ∈ L é a função definida por:

χi(x) =

(

1, se x = i

0, caso contrário. (23)

Em outras palavras, temos que αξ = wξ0se lξ = i e αξ = 0 caso contrário. Assim, se

o padrão de entrada X pertence a classe i, esperamos que X1≈

p

X

ξ=1

wξ0χi(lξ)Aξ(u), ∀u ∈ U, (24)

onde os pesos wξ0são dados pela equação (7) com t = 0.

No entanto, na prática, como não sabemos a priori a que classe o padrão inicial X0

pertence, atribuímos X0a classe l que minimiza a distância entre X1e a combinação

linear

p

X

ξ=1

wξ0χl(lξ)Aξ. Precisamente, atribuímos a X0a classe l ∈ L tal que

d2  X1, p X ξ=1 wξ0χl(lξ)Aξ  ≤  X1, p X ξ=1 wξ0χi(lξ)Aξ  , ∀i ∈ L, (25)

(12)

Figura 1: Imagens de um indivíduo do conjunto de treinamento.

7.3

Abordagem 2 - Classificação de Padrões Utilizando GEB-FAMs

A GEB-FAM pode ser aplicada a problemas de classificação de padrões da seguinte forma. Sejam {(Aξ, Bξ), ξ = 1, · · · , p} o conjunto das memórias fundamentais, S

uma medida de similaridade e α > 0 um número real. Dado um padrão de teste X0,

determinamos o conjunto fuzzy produzido pela GEB-FAM em um único passo, isto é, calculamos Y0usando (16): Y0(v) = ϕ   p X ξ=1 wAξ0Bξ(v)  , ∀v ∈ V.

Finalmente, associamos a padrão de teste X0à i-ésima classe, em que i é o primeiro

índice tal que Y0(i) ≥ Y0(j), para todo j = 1, · · · , p.

8

Experimentos Computacionais

8.1

Problema 1 - Reconhecimento de faces

Realizamos dois experimentos computacionais utilizando a base de imagens faciais AR [22]. Especificamente, consideramos os experimentos descritos por Luo et al. em [21]. Com o objetivo de associar uma dada imagem à pessoa a qual ela pertence, utilizamos como base um conjunto de imagens já rotuladas, ao qual chamaremos de conjunto de treinamento ou, equivalentemente, conjunto das memórias fundamentais.

Em ambos os experimentos, consideramos o conjunto de treinamento composto por pares (Aξ, Bξ), em que Aξrepresenta uma imagem em tons de cinza e Bξindica a qual

pessoa a imagem Aξpertence. Especificamente, o conjunto Bξ ∈ P({1, 2, . . . , 120})

satisfaz Bξ(i) = 1 e Bξ(j) = 0, para todo j 6= i, se a imagem Aξ pertence a

i-ésima pessoa. Para o conjunto de treinamento, consideramos 960 pares, referentes a 8 imagens de cada indivíduo de um grupo de 120 pessoas [22]. A Figura 1 representa um exemplo das imagens pertencentes ao conjunto de treinamento para um certo indivíduo. No primeiro experimento consideramos como conjunto de teste um conjunto com 4 imagens de cada um dos 120 indivíduos com óculos escuros e iluminação em diferentes posições. No segundo experimento, consideramos um conjunto de teste formado por 4 imagens de cada um dos 120 indivíduos com cachecol e iluminação. A Figura 2 contém as imagens do indivíduo da Figura 1 usadas no conjunto de teste dos experimentos: a) óculos+iluminação e b) cachecol+iluminação, respectivamente.

(13)

a) b)

Figura 2: Imagens de teste do indivíduo da Figura 1 nos experimentos a) e b).

Tabela 1:Porcentagem de acertos de diversos modelos aplicados ao reconhecimento de faces usando a base de dados AR.

LRC CRC SRC CESR RSC SSEC NMR SNL2R2 SNL1R1 DNL2R2 DNL1R1 a) 90,2 83,3 95,6 93,5 90,6 75,0 94,6 95,7 96,1 95,8 96,7 b) 30,4 54,6 54,8 34,8 39,8 23,1 70,4 70,2 71,2 70,4 72,3

GRE-FAM GRE-FAM GRE-FAM GEB-FAM GEB-FAM GEB-FAM

SG(α = 1) SG(α = 145) SSIM(α = 1) SG(α = 1) SG(α = 145) SSIM(α = 1)

a) 89,38 75,21 87,50 93,75 75,63 91,04

b) 51,67 46,25 79,37 55,83 47,08 81,67

Consideramos inicialmente a medida de similaridade de Gregson, SGe o parâmetro

α = 1 tanto para a GRE-FAM quanto para a GEB-FAM. Posteriomente, realizamos experimentos considerando, para ambos os modelos, o parâmetro α = 145, o menor número inteiro maior que ln(p − 1)

1 − Sm

, onde p é o número de memórias fundamentais consideradas e Sm = max

i,j,i6=j{SG(A i, Aj

)}, pois para esse valor de α, o Teorema 2 garante que a matriz C dada por (8) é definida positiva.

Também realizamos os experimentos com a medida de similaridade estrutural SSIM [36]. Destacamos que com esta medida de similaridade, tanto a GRE-FAM como a GEB-FAM obtiveram um ótimo desempenho no experimento com o conjunto de teste formado por imagens dos indivíduos com cachecol e iluminação, com uma acurácia de 79,37% e 81,67% respectivamente.

Para efeitos de comparação, a Tabela 1 mostra as porcentagens de acertos de vários modelos aplicados ao reconhecimento facial usando a base de dados AR, bem como os resultados obtidos pelo classificador baseado nas GRE-FAMs e nas GEB-FAMs. Observamos que, para assegurar uma comparação justa, realizamos os mesmos experi-mentos descritos em [21]. Os resultados dos onze primeiros modelos foram extraídos de [21].

Também investigamos o desempenho dos classificadores baseados nas GEB-FAMs neste problema de reconhecimento facial utilizando outras medidas de similaridade. De fato, considerando as medidas de similaridade baseadas em cardinalidade [3, 9], de modo geral, as GEBFAMs baseadas em medidas com certas propriedades, como a T-transitividade, definidas utilizando as t-normas do mínimo ou produto obtiveram re-sultados competitivos se comparados aos obtidos por outros modelos da literatura. Em particular, o melhor resultado foi obtido considerando medidas T-transitivas baseadas

(14)

na t-norma do mínimo.

8.2

Problema 2 - Classificação de Árvores

O problema consiste na classificação de espécies arbóreas com base em características extraídas a partir de imagens do tronco. As características foram extraídas de 2160 imagens do tronco das árvores, sendo 108 de cada uma das 20 espécies pertencentes a Floresta decídua nativa brasileira [6].

Nos experimentos computacionais, consideramos o conjunto de memórias funda-mentais composto por 70% dos dados selecionados aleatoriamente e as duas medidas de similaridade: a medida de similaridade de Gregson, SGe a medida de similaridade

baseada na distância de Hamming, SH.

Para a GRE-FAM e a GEB-FAM baseadas na medida de similaridade de Gregson, consideramos o parâmetro α = 314, o menor número inteiro maior queln(p − 1)

1 − Sm

, pois para esse valor de α, o Teorema 2 garante que a matriz C definida em (8) é definida positiva. Já para a GRE-FAM e a GEB-FAM baseadas na medida de similaridade SH,

utilizamos α = 600 em vez do maior inteiro menor queln(p − 1) 1 − Sm

para evitar overflow. A acurácia de classificação obtida tanto pelo classificador baseado na GRE-FAM como pelo classificador baseado na GEB-FAM, para ambas as medidas de similaridade SGe SH foi de 95, 61%. O mesmo resultado foi obtido quando consideramos vários

passos da GRE-FAM e não apenas um, conforme descrito na definição do classificador baseado na GRE-FAM. Observemos que, da maneira como definimos a GEB-FAM, não é possível considerar mais de um passo da GEB-FAM em problemas de classifica-ção nos casos em que o conjunto de memórias fundamentais contém mais de um padrão da mesma classe. De fato, para considerar mais um passo da GEB-FAM, precisamos primeiramente calcular o vetor X1, para então determinar Y1. No entanto, se tivermos

mais de um padrão da mesma classe no conjunto de memórias fundamentais, teremos que existem pelo menos dois indices i, j, com i 6= j, tais que Bi = Bje dessa forma, a matriz D considerada na definição é singular.

Para efeitos de comparação, a Tabela 2 contém também as acurácias de classifica-ção obtidas por outros modelos da literatura para este problema [6].

8.3

Outros Problemas de Classificação

Por fim, consideramos quinze problemas de classificação disponíveis no repositório de bases de dados (database repository) Knowledge Extraction Based on Evolutionary Learning (KEEL): Appendicitis, Cleveland, Crx, Ecoli, Glass, Heart, Iris, Monks, Mo-vementlibras, Pima, Sonar, Spectfheart, Vowel, Wdbc, e Wine [2]. A Tabela 3 resume algumas informações sobre os problemas de classificação.

Inicialmente, foi necessária uma etapa de pré-processamento para converter os da-dos originais em conjuntos fuzzy. Em seguida, de acordo com os experimentos des-critos na literatura [1, 13], calculamos a acurácia de classificação utilizando validação cruzada com 10 pastas, isto é, após dividir os dados em 10 conjuntos, realizamos 10 experimentos. Em cada experimento, um conjunto foi utilizado como conjunto de teste

(15)

Tabela 2:Porcentagem de acertos de diversos modelos aplicados ao problema de classificação de árvores.

Algoritmo Acurácia no conjunto de teste(%)

Fuzzy Rule-Based Classification System (FRBCS) 94

Boosted Rule-Based Model (C5) 86,5

Cascade-Correlation Neural Network (CNN) 78,5

k-Nearest Neighbors (KNN) 89,7

Probabilistic Neural Network (PNN) 96,1

Multilayer Perceptron Neural Network (MLP) 90,8 Random Decision Tree Forest (Random Forest) 89,5

Single Decision Tree (SDT) 72,3

Stochastic Gradient Boosting (TreeBoost) 87,3

Support Vector Machine (SVM) 96,2

GRE-FAM 95,6

GEB-FAM 95,6

Tabela 3: Descrição dos Problemas de Classificação

Exemplos Características Características Classes Categóricas Numericas Appendicitis 106 0 7 2 Cleveland 297 0 13 5 Crx 653 9 6 2 Ecoli 336 0 7 8 Glass 214 0 9 7 Heart 270 0 13 2 Iris 150 0 4 3 Monks 432 0 6 2 Movementlibras 360 0 90 15 Pima 768 0 8 2 Sonar 208 0 60 2 Spectfheart 267 0 44 2 Vowel 990 0 13 11 Wdbc 569 0 30 2 Wine 178 0 13 3

(16)

e a união dos 9 conjuntos restantes como conjunto de treinamento, de modo que cada conjunto foi utilizado uma única vez como conjunto de teste. Posteriormente, calcula-mos a média das acurácias obtidas nesses 10 experimentos.

Com relação ao parâmetro α, primeiramente utilizamos α = 30 para todos os problemas. Depois, consideramos α igual ao menor inteiro maior queln(p − 1)

1 − Sm

, onde p é o número de memórias fundamentais consideradas e Sm = max

i,j,i6=j{S(A i, Aj

)}. Além disso, consideramos a medida de similaridade de Gregson, SG e a medida de

similaridade baseada na distância de Hamming, SH.

A Figura 3 mostra os boxplot das diferenças entre a porcentagem de acertos ob-tida pelas GRE-FAMs e GEB-FAMs e a porcentagem de acertos obtido pela Θ-FAM [13], modelo da literatura com melhor porcentagem média de acertos para estes 15 problemas [13]. Para efeitos de comparação, a Figura 4 mostra, além dos boxplot re-ferentes a GRE-FAM e a GEB-FAM baseadas na medida de similaridade SH, ambas

com α = 30, o boxplot das diferenças entre a porcentagem de acertos obtida por outros modelos da literatura e a porcentagem de acertos obtido pela Θ-FAM.

Observamos que, no geral, as GRE-FAMs e GEB-FAMs obtiveram desempenho competitivos se comparados aos dos outros modelos da literarura. Em particular, o desempenho das GRE-FAMs e GEB-FAMs foram melhores para α = 30. Em especial, a GEB-FAM baseada na medida de similaridade SH com α = 30 obteve o melhor

resultado.

9

Considerações Finais

Neste relatório descrevemos as principais contribuições desenvolvidas no período de 01/08/2015 a 10/07/2016. Inicialmente, fizemos uma estudo aprofundado sobre medi-das de similaridade e como tais medimedi-das influenciam no desempenho medi-das GRE-FAMs e GEB-FAMs. Experimentos computacionais mostraram que a medida de similaridade mais adequada pode depender do problema considerado. As principais medidas de similaridade estudadas até o momento foram brevemente descritas na Seção 4. Poste-riormente apresentamos a definição das GRE-FAMs, memória autoassociativa para o armazenamento e recordação de conjunto fuzzy e das GEB-FAMs, modelo que estende as GRE-FAMs para o caso heteroassociativo.

Iniciamos o estudo das aplicações, atividade prevista para a próxima etapa do pro-jeto, descrevendo como as GRE-FAMs e GEB-FAMs podem ser aplicadas a problemas de classificação e a um problema de reconhecimento de faces. Apresentamos os resulta-dos de diversos experimentos realizaresulta-dos para avaliar o desempenho resulta-dos classificadores baseados nas GRE-FAMs e nas GEB-FAMs. Consideramos um problema de reconhe-cimento facial utilizando a base de dados AR [22, 21], um problema de classificação de árvores [6] e outros 15 problemas de classificação disponíveis no repositório KEEL [2].

Os experimentos mostraram que em geral, os classificadores baseados nas GRE-FAMs e GEB-GRE-FAMs obtiveram resultados competitivos se comparados aos resultados de outros modelos da literarura. Observamos que, para o problema de reconhecimento de faces, a GEB-FAM com a medida de similaridade estrutural SSIM obteve um ótimo

(17)

Figura 3: Boxplot das diferenças entre resultados obtidos pelas GRE-FAMs e GEB-FAMs e a porcentagem de acertos obtida pela Θ-FAM para estes 15 problemas de classificação.

desempenho, principalmente nos testes com as imagens dos indivíduos com cachecol e iluminação. Além disso, a GEB-FAM baseada na medida de similaridade SH com

α = 30, obteve o melhor desempenho geral nos 15 problemas de classificação. Quanto a escolha do parâmetro α, observamos nos experimentos que, na maioria dos casos, valores menores de α produzem melhores resultados. Como comentado anteriormente, em alguns experimentos computacionais, utilizamos a estimativa dada pelo Teorema 2 para escolher um valor de α para o qual a matriz C definida em 1 seja definida positiva. No entanto, apesar de não termos um resultado teórico que comprove este fato, em todos os testes realizados até o momento, as matrizes C obtidas são definidas positivas, independentemente do valor de α considerado. Assim sendo, pretendemos continuar investigando este ponto, para definir um critério melhor para a escolha deste parâmetro.

Neste período, tivemos um trabalho aceito para o XXXVII Congresso Nacional de Matemática Aplicada e Computacional (CNMAC), que ocorrerá de 19 a 22 de setem-bro de 2017 e submetemos um artigo para a Revista TEMA - Trends in Applied and

(18)

Figura 4: Boxplot das diferenças entre resultados obtidos por vários modelos da li-teratura e a porcentagem de acertos obtida pela Θ-FAM para estes 15 problemas de classificação. Observamos que os boxplot referentes à GRE-FAM e à GEB-FAM fo-ram obtidos considerando a medida de similaridade SHe α = 30.

Computational Mathematics. Além disso participamos do XXXVI CNMAC, no qual apresentamos o trabalho “Memórias Associativas Recorrentes Exponenciais Fuzzy Ge-neralizadas Aplicadas à Classificação De Padrões” e do IV Congresso Brasileiro de Sistemas Fuzzy, no qual apresentamos o trabalho “Memória Associativa Bidirecional Exponencial Fuzzy Generalizada Aplicada ao Reconhecimento de Faces”.

10

Participação em Congressos

• XXXVI Congresso Nacional de Matemática Aplicada e Computacional (CNMAC) Período: De 05 a 09 de setembro de 2016

Apresentação do Trabalho “Memórias Associativas Recorrentes Exponenciais Fuzzy Generalizadas Aplicadas à Classificação De Padrões”

.

(19)

Período: De 16 a 18 de novembro de 2016

Apresentação do Trabalho “Memória Associativa Bidirecional Exponencial Fuzzy Generalizada Aplicada ao Reconhecimento de Faces”

11

Trabalhos Submetidos

• Artigo Submetido para a Revista TEMA - Trends in Applied and Computational Mathematics

Título: “Generalized Exponential Bidirectional Fuzzy Associative Memory with Fuzzy Cardinality-Based Similarity Measures Applied to Face Recognition.”

• Trabalho aceito para o XXXVII Congresso Nacional de Matemática Aplicada e Computacional (CNMAC)

Período: De 19 a 22 de setembro de 2017

Título: “Memória Associativa Bidirecional Exponencial Fuzzy Generalizada com Medida de Similaridade Estrutural Aplicada a um Problema de Reconhecimento de Faces.”

12

Disciplinas Cursadas

As seguintes disciplinas completam o total de 32 créditos exigidos pelo programa de pós-graduação em Matemática Aplicada do Imecc - Unicamp.

• Conjuntos e Lógica Fuzzy: Teoria e Aplicações Período: Segundo Semestre de 2016

Créditos: 4 Conceito: A

• Tópicos em Matemática Aplicada Período: Primeiro Semestre de 2017 Créditos: 4

A disciplina está sendo cursada.

13

Aplicação dos Recursos

Neste período, os recursos da reserva técnica foram aplicados para a participação em dois congressos, conforme descrito a seguir.

O XXXVI Congresso Nacional de Matemática Aplicada e Computacional (CNMAC) ocorreu de 05/09/2016 à 09/09/2016, no Centro de Treinamento e Eventos FAURGS/UFRGS, na cidade de Gramado - RS. Os recursos utilizados para a partici-pação neste congresso estão detalhados a seguir:

(20)

• Cinco diárias (de 05/09/2016 à 09/09/2016): R$549,06

• Passagem (Rodoviária de Campinas para o Aeroporto de Congonhas): R$35,95 • Passagem (Aeroporto de Congonhas para a Rodoviária de Campinas): R$30,00 • Passagens Aéreas do Aeroporto de Congonhas para Porto Alegre (ida e volta): R$261,16

• Passagem (De Porto Alegre para Gramado): R$40,20

Observação Sobre as passagens para participação no XXXVI CNMAC, observa-mos que não há empresas de transporte rodoviário que fazem o trajeto direto entre as cidades de Campinas e Gramado. Por este motivo, utilizamos o trajeto: Campinas → Porto Alegre → Gramado. No entanto, o valor da passagem terrestre de Campinas para Porto Alegre é superior ao valor gasto com a passagem aérea e os deslocamentos para o Aeroporto. De fato, na época, o valor das passagens terrestres, pela empresa Kaissara, eram de R$227,21 de Campinas para Porto Alegre e de R$228,42 de Porto Alegre para Campinas, totalizando R$455,63. Como descrito acima, o valor total gasto no deslo-camento de Campinas a Porto Alegre, incluindo a passagem aérea e os deslodeslo-camentos para o Aeroporto foi de R$327,11.

Total ...R$1.251,37 O IV Congresso Brasileiro de Sistemas Fuzzy (CBSF) ocorreu de 16/11/2016 a 18/11/2016, no Instituto de Matemática, Estatística e Computação Científica (IMECC) - UNICAMP, na cidade de Campinas - SP. Os recursos utilizados para a participação neste congresso estão detalhados a seguir:

• Taxa de inscrição: R$150,00.

Total dos recursos aplicados no período:...R$1.401,37.

14

Plano de trabalho e cronograma para a próxima etapa

Até o momento, estudamos versões fuzzy das ECAMs. Na próxima etapa, continu-aremos investigando pontos importantes relacionados às GRE-FAMs e GEB-FAMs, como por exemplo, a escolha do parâmetro α, com o intuito de definir um critério me-lhor para determinar tal parâmentro. Estudaremos também outras generalizações da RCAMs. Em particular, consideraremos versões fuzzy da memória associativa de or-dem alta por correlação ( HOCAM, high-order correlation associative memory) e da memória associativa com função-potencial por correlação (PFCAM, potential-function correlation associative memory) [8, 7, 11, 25]. Nestes semestres também investigare-mos outras aplicações dos modelos estudados, como por exemplo em problemas de previsão previsão [30, 31, 32, 29], reconhecimento de padrões [42, 43] e controle e

(21)

guiagem autônoma [14, 19, 20, 28]. Por fim, a redação da tese será realizada em para-lelo com estas atividades.

Referências

[1] ALCALÁ-FDEZ, J., ALCALÁ, R.,ANDHERRERA, F. A fuzzy association rule-based classification model for high-dimensional problems with genetic rule se-lection and lateral tuning. IEEE Transactions on Fuzzy Systems 19, 5 (2011), 857–872.

[2] ALCALÁ-FDEZ, J., FERNÁNDEZ, A., LUENGO, J., DERRAC, J., GARCÍA, S., SÁNCHEZ, L.,ANDHERRERA, F. Keel data-mining software tool: Data set re-pository, integration of algorithms and experimental analysis framework. Journal of Multiple-Valued Logic and Soft Computing 17, 2-3 (2011), 255–287.

[3] BAETS, B. D.,AND MEYER, H. D. Transitivity-preserving fuzzification sche-mes for cardinality-based similarity measures. European Journal of Operational Research 160, 3 (2005), 726 – 740. DOI:10.1016/j.ejor.2003.06.036.

[4] BARROS, L.,ANDBASSANEZI, R. Tópicos de Lógica Fuzzy e Biomatemática. Editora do Instituto de Matemática, Estatística e Computação Científica (IMECC-Unicamp), Campinas, 2006.

[5] BINH, P.,ANDHOA, N. Compare effective fuzzy associative memories for grey-scale image recognition. In Context-Aware Systems and Applications, P. Vinh, N. Hung, N. Tung, and J. Suzuki, Eds., vol. 109 of Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering. Springer Berlin Heidelberg, 2013, pp. 258–267.

[6] BRESSANE, A. Identificação de espécies arbóreas apoiada por reconhecimento de padrões de textura no tronco usando inteligência computacional. PhD thesis, Universidade Estadual Paulista (UNESP), março 2017.

[7] CHIUEH, T.,AND GOODMAN, R. Recurrent Correlation Associative Memories and their VLSI Implementation. Oxford University Press, Oxford, U.K., 1993, ch. 16, pp. 276–287.

[8] CHIUEH, T. D., AND GOODMAN, R. M. Recurrent Correlation Associa-tive Memories. IEEE Transactions on Neural Networks 2, 2 (1991), 275–284. DOI:10.1109/72.80338.

[9] DE BAETS, B., DE MEYER, H., AND NAESSENS, H. A class of rational cardinality-based similarity measures. Journal of Computational and Applied Mathematics 132, 1 (2001), 51–69.

[10] DE BAETS, B., JANSSENS, S., AND DE MEYER, H. On the transitivity of a parametric family of cardinality-based similarity measures. International Journal of Approximate Reasoning 50, 1 (2009), 104–116.

(22)

[11] DEMBO, A., AND ZEITOUNI, O. General Potential Surfaces and Neural Networks. Physical Review A 37, 6 (1988), 2134–2143.

[12] DUBOIS, D.,ANDPRADE, H. Fuzzy sets and systems: theory and applications. Academic Press, New York, 1980.

[13] ESMI, E., SUSSNER, P., BUSTINCE, H., AND FERNANDEZ, J. Theta-fuzzy associative memories (theta-fams). IEEE Transactions on Fuzzy Systems 23, 2 (April 2015), 313–326.

[14] FREITAS, G. A.,ANDVALLE, M. E. Uma Breve Comparação de Modelos de Memórias Associativas Fuzzy em Problemas de Guiagem Autônoma. SEMINA: Ciências Exatas e Tecnológicas 32, 2 (2011), 151–166.

[15] GOLUB, G., AND VANLOAN, C. Matrix Computations, 3th ed. John Hopkins University Press, Baltimore, MD, 1996.

[16] HASSOUN, M. H.,ANDWATTA, P. B. Associative Memory Networks. In Hand-book of Neural Computation, E. Fiesler and R. Beale, Eds. Oxford University Press, 1997, pp. C1.3:1–C1.3:14.

[17] JENG, Y.-J., YEH, C. C., AND CHIUEH, T. D. Exponential bidirec-tional associative memories. Eletronics Letters 26, 11 (1990), 717–718. DOI:10.1049/el:19900468.

[18] KOHONEN, T. Self-organization and associative memory, 2rd edition ed.

Springer-Verlag New York, Inc., New York, NY, USA, 1987.

[19] KONG, S.-G.,ANDKOSKO, B. Adaptive Fuzzy Systems for Backing up a Truck-and-Trailer. IEEE Transactions on Neural Networks 3, 2 (1992), 211–223. [20] KOSKO, B. Neural Networks and Fuzzy Systems: A Dynamical Systems

Appro-ach to MAppro-achine Intelligence. Prentice Hall, Englewood Cliffs, NJ, 1992.

[21] LUO, L., YANG, J., QIAN, J.,ANDTAI, Y. Nuclear-l1 norm joint regression for face reconstruction and recognition with mixed noise. Pattern Recognition 48, 12 (2015), 3811 – 3824. DOI:10.1016/j.patcog.2015.06.012.

[22] MARTINEZ, A. M. The AR face database. CVC Technical Report 24 (1998). [23] MEYER, C. D. Matrix analysis and applied linear algebra. SIAM, 2000. [24] PEDRYCZ, W.,AND GOMIDE, F. Fuzzy Systems Engineering: Toward

Human-Centric Computing. Wiley-IEEE Press, New York, 2007.

[25] PSALTIS, D.,ANDPARK, C. H. Nonlinear Discriminant Functions and Associ-ative Memories, vol. 22D of Physica. 1986, pp. 370–375.

(23)

[26] SOUZA, A. C.,AND VALLE, M. E. Memória Associativa Bidirecional Expo-nencial Fuzzy Generalizada Aplicada ao Reconhecimento de Faces. In Recentes Avanços em Sistemas Fuzzy(2016), M. E. R. do Valle Mesquita; Graçaliz Pereira Dimuro; Regivan Hugo Nunes Santiago; Estevão Esmi Laureano, Ed., vol. 1, Sociedade Brasileira de Matemática Aplicada e Computacional (SBMAC), São Carlos - SP, pp. 503–514. ISBN: 978-85-8215-079-5.

[27] SOUZA, A. C., VALLE, M. E., AND SUSSNER, P. Generalized Recurrent Ex-ponential Fuzzy Associative Memories Based on Similarity Measures. In Pro-ceedings of the 16th World Congress of the International Fuzzy Systems Asso-ciation (IFSA) and the 9th Conference of the European Society for Fuzzy Logic and Technology (EUSFLAT)(2015), vol. 1, Atlantis Press, pp. 455–462. DOI: 10.2991/ifsa-eusflat-15.2015.66.

[28] SUSSNER, P., ESMI, E. L., VILLAVERDE, I., AND GRAÑA, M. The Kosko Subsethood Fuzzy Associative Memory (KS-FAM): Mathematical Background and Applications in Computer Vision. Journal of Mathematical Imaging and Vision 42, 2–3 (Feb. 2012), 134–149.

[29] SUSSNER, P., MIYASAKI, R.,ANDVALLE, M. E. An Introduction to Paramete-rized IFAM Models with Applications in Prediction. In Proceedings of the 2009 IFSA World Congress and 2009 EUSFLAT Conference(Lisbon, Portugal, July 2009), pp. 247–252.

[30] SUSSNER, P., AND VALLE, M. E. Implicative Fuzzy Associative Memories. IEEE Transactions on Fuzzy Systems 14, 6 (Dec. 2006), 793–807.

[31] SUSSNER, P., AND VALLE, M. E. Recall of Patterns Using Morphological and Certain Fuzzy Morphological Associative Memories. In Proceedings of the IEEE World Conference on Computational Intelligence 2006 (Vancouver, Ca-nada, 2006), pp. 209–216.

[32] SUSSNER, P.,ANDVALLE, M. E. Morphological and Certain Fuzzy Morpholo-gical Associative Memories for Classification and Prediction. In Computational Intelligence Based on Lattice Theory, V. Kaburlasos and G. Ritter, Eds. Springer-Verlag, Heidelberg, Germany, 2007, ch. 8, pp. 149–172.

[33] VALLE, M. E. Fuzzy Exponential Recurrent Neural Networks for Gray-scale Image Retrieval. In Proceedings of the Third Brazilian Conference on Fuzzy Systems (III CBSF)(João Pessoa, Brazil, August 2014).

[34] VALLE, M. E.,AND DESOUZA, A. C. Pattern classification using generalized

recurrent exponential fuzzy associative memories. In Handbook of Fuzzy Sets ComparisonHandbook of Fuzzy Sets Comparison Theory, Algorithms and Appli-cations Theory, Algorithms and AppliAppli-cations, A. G. H. George A. Papakostas and V. G. Kaburlasos, Eds., vol. 6. Science Gate Publishing, 2016, ch. 4, pp. 79–102. [35] VALLE, M. E.,ANDSOUZA, A. C. On the Recall Capability of Recurrent Ex-ponential Fuzzy Associative Memories Based on Similarity Measures. Mathware & Soft Computing Magazine 22, 1 (June 2015), 33–39.

(24)

[36] WANG, S.,AND LU, H. On New Fuzzy Morphological Associative Memories. IEEE Transactions on Fuzzy Systems 12, 3 (2004), 316–323.

[37] WANG, Z.,ANDBOVIK, A. C. Mean squared error: Love it or leave it? A new look at Signal Fidelity Measures. IEEE Signal Processing Magazine 26, 1 (Jan. 2009), 98–117.

[38] WANG, Z., BOVIK, A. C., SHEIKH, H. R.,ANDSIMONCELLI, E. P. Image qua-lity assessment: From error visibiqua-lity to structural similarity. IEEE Transactions on Image Processing 13, 4 (2004), 600–612. DOI:10.1109/TIP.2003.819861. [39] WRIGHT, J., YANG, A., GANESH, A., SASTRY, S., ANDMA, Y. Robust face

recognition via sparse representation. Pattern Analysis and Machine Intelligence, IEEE Transactions on 31, 2 (Feb 2009), 210–227.

[40] XUECHENG, L. Entropy, distance measure and similarity measure of fuzzy sets and their relations. Fuzzy Sets and Systems 52, 3 (1992), 305–318. DOI:10.1016/0165-0114(92)90239-Z.

[41] ZADEH, L. A. Fuzzy Sets. Information and Control 8, 3 (1965), 338–353. DOI:10.1016/S0019-9958(65)90241-X.

[42] ZHANG, B.-L., ZHANG, H., AND GE, S. S. Face Recognition by Applying Wavelet Subband Representation and Kernel Associative Memory. IEEE Tran-sactions on Neural Networks 15, 1 (Jan. 2004), 166–177.

[43] ZHANG, D.,ANDZUO, W. Computational Intelligence-Based Biometric Tech-nologies. IEEE Computational Intelligence Magazine 2, 2 (May 2007), 26–36. [44] ZWICK, R., CARISTEIN, E., AND BUDESCU, D. V. Measures of Similarity

Among Fuzzy Concepts: A Comparative Analysis. International Journal of Ap-proximate Reasoning 1, 2 (Apr. 1987), 221–242.

Referências

Documentos relacionados

[r]

No entanto, para aperfeiçoar uma equipe de trabalho comprometida com a qualidade e produtividade é necessário motivação, e, satisfação, através de incentivos e política de

Na cidade da Guarda foram criados dois Agrupamentos de Escolas: o Agrupamento de Escolas Afonso de Albuquerque, com sede na Escola Secundária Afonso de Albuquerque, e o Agrupamento

Já quando o casco convexo não está bem definido, os pontos candidatos a centro do maior círculo vazio de sítios são apenas os vértices de Voronoi, uma vez que as propriedades

O teste foi feito pela empresa USICAM® Indústria e Comércio Ltda, Diadema – São Paulo, que, utilizando uma CMM Figura 17, realizou um estudo de comparação entre os dados obtidos

Este trabalho tem como objetivo geral analisar o custo do ciclo de vida de uma ponte em concreto armado em ambiente marinho para uma vida útil de 100 anos, considerando

DA SILVA

+ Buzz nas redes sociais dos consumidores com a partilha de conteúdos e repost nos canais digitais Samsung..