• Nenhum resultado encontrado

Técnicas de combinação de evidências para problemas de reconhecimento em cenário aberto

N/A
N/A
Protected

Academic year: 2021

Share "Técnicas de combinação de evidências para problemas de reconhecimento em cenário aberto"

Copied!
83
0
0

Texto

(1)

INSTITUTO DE COMPUTAC¸ ˜AO

Manuel Alberto C´

ordova Neira

ecnicas de Combina¸

ao de Evidˆ

encias para

Problemas de Reconhecimento em Cen´

ario Aberto

CAMPINAS

2015

(2)
(3)

Ficha catalográfica

Universidade Estadual de Campinas

Biblioteca do Instituto de Matemática, Estatística e Computação Científica Ana Regina Machado - CRB 8/5467

Córdova Neira, Manuel Alberto, 1986-

C812t Técnicas de combinação de evidências para problemas de reconhecimento em cenário aberto / Manuel Alberto Córdova Neira. – Campinas, SP : [s.n.], 2015.

Orientador: Ricardo da Silva Torres.

Dissertação (mestrado) – Universidade Estadual de Campinas, Instituto de Computação.

1. Reconhecimento de padrões. 2. Reconhecimento em cenário aberto. 3. Fusão de dados (Computação). 4. Floresta de caminhos ótimos. 5. Programação genética (Computação). I. Torres, Ricardo da Silva,1977-. II. Universidade Estadual de Campinas. Instituto de Computação. III. Título.

Informações para Biblioteca Digital

Título em outro idioma: Data fusion techniques for open set recognition problems Palavras-chave em inglês:

Pattern recognition Open set recognition

Data fusion (Computer science) Optimum-path forest

Genetic programming (Computer science)

Área de concentração: Ciência da Computação Titulação: Mestre em Ciência da Computação Banca examinadora:

Ricardo da Silva Torres [Orientador] Anderson de Rezende Rocha Fernanda Alcântara Andaló

Data de defesa: 26-08-2015

(4)
(5)

Dedico este trabalho a Deus, aos meus pais, `a minha irm˜a e `a minha sobrinha. Amo muito vocˆes. Dedico tamb´em `a minha noiva Mar´ıa del Cisne. Minha Mashi, vocˆe ´e minha vida, eu te amo muito. Nesta vida, tudo ´e poss´ıvel.

(6)
(7)

Hoje estou realizando meu sonho de ser mestre em Ciˆencia da Computa¸c˜ao. Durante este tempo, tive o apoio sincero e a motiva¸c˜ao de muitas pessoas a quem quero agradecer por ter estado sempre comigo.

Primeiramente, quero agradecer a Deus pela vida, pela sa´ude, pelas oportunidades, pelos sonhos. Muito obrigado meu Deus por aqueles sonhos que pareciam inalcan¸c´aveis e que se fizeram realidade nestes dois ´ultimos anos.

Quero agradecer aos meus pais, Moises e Olga. Gra¸cas a vocˆes, eu sou quem sou; gra¸cas a vocˆes, estou tornando realidade meus sonhos, porque tudo come¸cou com vocˆes, com seu esfor¸co, seu sacrif´ıcio, seu exemplo, suas dicas, seu amor. Agrade¸co `a minha irm˜a Karina e `a minha sobrinha Salom´e por sempre acreditar em mim, e pelo apoio e preocupa¸c˜ao constante. A todos vocˆes, obrigado por me apoiar em tudo, vocˆes s˜ao minha inspira¸c˜ao, amo muito vocˆes.

N˜ao posso esquecer de agredecer a uma pessoa muito importante na minha vida, minha noiva Mar´ıa del Cisne. Minha Mashi, muito obrigado por tudo, pela sua ajuda, seu amor, seu apoio, por ser minha inspira¸c˜ao, minha for¸ca, minha luz. Apesar da distˆancia f´ısica, vocˆe foi sempre o meu apoio, eu te amo muito.

Gostaria tamb´em, agradecer ao meu orientador Prof. Ricardo Torres. Prof. Ricardo, durante este mestrado aprendi muito com vocˆe. Obrigado pelo apoio, pelas dicas, pela compreens˜ao, pelo seu ensino. Estendo meu agradecimento a Pedro Mendes e Ot´avio Pe-natti pela ajuda e disponibilidade no desenvolvimento desta pesquisa, e aos professores da Unicamp que foram parte da minha forma¸c˜ao durante este mestrado. Agrade¸co tamb´em a todos meus amigos que sempre esteveram me apoiando.

Quero agradecer `a Unicamp por ter aberto suas portas para realizar meus estudos, por ser uma universidade que sempre oferece o apoio necess´ario aos estudantes. Este trabalho tamb´em agradece a CAPES, CNPq (Processos # 484254/2012-0 e # 306580/2012-8), FAPESP, AMD e ao Instituto Virtual FAPESP-Microsoft (Processos #2013/50169-1 e # 2013/50155-0) pela viabiliza¸c˜ao da infraestrutura do Laborat´orio RECOD, onde a pesquisa foi desenvolvida. Finalmente, agrade¸co `a “Secretar´ıa de Educaci´on Superior, Ciencia, Tecnolog´ıa e Innovaci´on” do Equador pelo apoio financeiro sem o qual eu n˜ao poderia ter realizado este mestrado.

(8)

Na atualidade a maioria das t´ecnicas para classifica¸c˜ao de padr˜oes na ´area de aprendi-zado de m´aquina foca a resolu¸c˜ao de problemas de cen´ario fechado. Nestes problemas, o classificador ´e treinado com amostras de todas as classes que ser˜ao observadas na fase de teste. Em muitas situa¸c˜oes, no entanto, amostras de classes desconhecidas, i.e., classes n˜ao encontradas na fase de treino, necessitam ser tratadas. Este tipo de cen´ario ´e conhe-cido como um problema de reconhecimento em cen´ario aberto. Neste trabalho, propomos m´etodos que combinam diferentes tipos de caracter´ısticas para reconhecimento de obje-tos em cen´ario aberto. Os m´etodos s˜ao baseados no classificador Optimum-Path Forest (OPF) e utilizam Programa¸c˜ao Gen´etica (GP) e Contagem de Votos (Majority-Voting) como t´ecnicas de combina¸c˜ao de evidˆencias. O OPF ´e um classificador multiclasse, r´apido (especialmente durante a fase de treino) e ´e baseado em grafos. A GP ´e uma t´ecnica ins-pirada na evolu¸c˜ao biol´ogica que ´e usada para a descoberta de fun¸c˜oes de similaridade entre objetos. As fun¸c˜oes de similaridade baseadas na GP combinam diferentes tipos de caracter´ısticas visuais dos objetos (e.g., cor, textura, e forma). O Majority-Voting com-bina diferentes dados operando diretamente nas etiquetas atribu´ıdas por classificadores isolados que utilizam diferentes descritores de caracter´ısticas. Os experimentos realizados considerando dois conjuntos de imagens demonstram que os m´etodos propostos de fus˜ao de dados produzem resultados eficazes.

(9)

Nowadays, most of the techniques for pattern classification in the machine learning area are focused on solving closed-set problems. In these problems, the classifier is trained with samples of all the classes that will appear in the testing phase. In many situations, however, samples of unknown classes, i.e., classes not present in the training stage, need to be handled. This kind of scenario is known as an Open-set recognition problem. In this work, we propose methods that combine different types of features for object recognition in Open-set problems. Our methods are based on the Optimum-Path Forest (OPF) classifier combined with Genetic Programming (GP) and Majority Voting as data fusion techniques. The OPF is a fast (specially during the training phase) graph-based multiclass classifier. The GP is a technique inspired in the biological evolution, which is used to discover appropriate similarity functions among objects. The GP-based similarity functions combine different kinds of object visual properties (e.g., color, texture, and shape). The Majority-Voting method combines data working directly with the output (label) of isolate classifiers that use different kinds of features. Performed experiments considering two datasets demonstrate that the proposed data fusion approaches yield effective results in Open-set recognition problems.

(10)

2.1 Exemplo de um indiv´ıduo GP t´ıpico. . . 21

2.2 Exemplo de muta¸c˜ao em GP. . . 22

2.3 Exemplo de crossover em GP. As ´arvores a e b intercambiam sub-´arvores para formar a ´arvore c. . . 23

2.4 Classificador Optimum-Path Forest. No conjunto de dados temos duas classes (azul e verde). (a) Grafo completo, (b) Minimum Spanning Tree (MST) – Sele¸c˜ao de prot´otipos, os prot´otipos s˜ao as amostras que est˜ao na fronteira e envoltas em linha pontilhada. (c) Classifica¸c˜ao da amostra x que procura o caminho que oferece o menor custo, x ´e rotulada como da classe verde. . . 25

2.5 Problema de reconhecimento em cen´ario aberto (open set ). . . 26

4.1 Exemplos de imagens do dataset CALTECH-256. . . 38

4.2 Exemplos de imagens do dataset ALOI. . . 39

4.3 Particionamento das amostras em treino e teste. . . 40

4.4 Particionamento Open-GP das amostras do treino. v1, v2, v3 s˜ao os con-juntos validation1, validation2 e validation3, respectivamente. . . 41

4.5 Particionamento Closed-GP das amostras do treino. v1, v2 s˜ao os conjuntos validation1 e validation2, respectivamente. . . 42

4.6 Tukey’s HSD para sele¸c˜ao de parˆametros com 95% de n´ıvel de confian¸ca. Nesta figura ´e apresentada a diferen¸ca entre as m´edias de cada par de combina¸c˜oes de parˆametros. Existe diferen¸ca estat´ıstica significativa se a diferen¸ca das m´edias de cada par n˜ao contˆem o valor 0. Neste caso, todos os pares cont´em o valor 0, portanto n˜ao existe diferen¸ca estat´ıstica significativa entre nenhum par. . . 46

4.7 Evolu¸c˜ao da acur´acia normalizada do GP considerando os melhores 15 in-div´ıduos de cada gera¸c˜ao nos conjuntos: a) validation1, b) validation2 e c) teste. . . 47

4.8 Matriz de confus˜ao para problemas open set utilizada no c´alculo das medi-das precision e recall. Exemplo com 4 classes conhecimedi-das e com amostras de classes desconhecidas (U). S˜ao considerados os falsos desconhecidos (f ni na coluna U) e falsos conhecidos (f pi na linha U). No entanto, os valores da interse¸c˜ao da coluna U e linha U n˜ao s˜ao considerados como verdaderos desconhecidos (tp). . . 52

5.1 Resultados dos m´etodos GP no dataset ALOI. . . 54

5.2 Resultados dos m´etodos GP no dataset CALTECH-256. . . 54

5.3 Resultados dos m´etodos avaliados no dataset ALOI. . . 56

(11)

ren¸cas entre as m´edias de cada par de classificadores para 3, 6, 9, 12 e 15

classes conhecidas. . . 62

5.6 Resultados do Teste Estat´ıstico ANOVA – TUKEY’S HSD com 95% de n´ıvel de confian¸ca no dataset CALTECH. Nas figuras, s˜ao apresentadas as diferen¸cas entre as m´edias de cada par de classificadores para 3, 6, 9, 12 e 15 classes conhecidas. . . 66

A.1 Resultados do classificador OSOPF1 no dataset ALOI. . . . . 79

A.2 Resultados do classificador OSOPF1 no dataset CALTECH-256. . . . 81

A.3 Resultados do classificador OSOPF2 no dataset ALOI. . . 82

(12)

3.1 M´etodos open set propostos . . . 31

4.1 Caracteriza¸c˜ao dos datasets utilizados. . . 39

4.2 Openness dos datasets para 3, 6, 9, 12 e 15 classes conhecidas. . . 39

4.3 Valores (Alto e Baixo) dos parˆametros GP avaliados. . . 45

4.4 Modelo fatorial em dois n´ıveis. . . 45

4.5 Efeito dos parˆametros. . . 45

4.6 Configura¸c˜ao GP. . . 46

5.1 Teste Estat´ıstico – Dataset ALOI. cc ´e o n´umero de classes conhecidas. . . 63 5.2 Teste Estat´ıstico – Dataset CALTECH. cc ´e o n´umero de classes conhecidas. 67

(13)

1 Introdu¸c˜ao 15

2 Trabalhos Relacionados 19

2.1 Fus˜ao de Dados . . . 19

2.2 Programa¸c˜ao Gen´etica . . . 20

2.3 Floresta de Caminhos ´Otimos (Optimum-Path Forest) . . . 22

2.3.1 Fase de Treinamento . . . 23

2.3.2 Fase de Classifica¸c˜ao . . . 24

2.4 Reconhecimento em Cen´ario Aberto . . . 25

2.5 Reconhecimento em Cen´ario Aberto Utilizando Floresta de Caminhos ´Otimos 28 3 M´etodos para Fus˜ao de Dados em Problemas de Cen´ario Aberto 30 3.1 Open-GP . . . 31 3.1.1 OSOPF1-OGP . . . . 31 3.1.2 OSOPF2-OGP . . . 32 3.2 Closed-GP . . . 33 3.2.1 OSOPF1 Closed-GP . . . . 34 3.2.2 OSOPF2 Closed-GP . . . 34 3.3 Majority Voting . . . 34 4 Protocolo Experimental 38 4.1 Conjuntos de Dados . . . 38

4.2 Particionamento dos Conjunto de Dados . . . 40

4.2.1 Open-GP . . . 40 4.2.2 Closed-GP . . . 41 4.3 Descritores . . . 42 4.4 Configura¸c˜ao GP . . . 44 4.4.1 Testes Estat´ısticos . . . 45 4.5 Grid Search . . . 46 4.6 Medidas de Avalia¸c˜ao . . . 49

4.6.1 Acur´acia Normalizada . . . 49

4.6.2 F-Measure . . . 49

4.7 Testes Estat´ısticos para Avalia¸c˜ao dos M´etodos Propostos . . . 51

5 Resultados dos Experimentos e Discuss˜ao 53 5.1 Resultados dos M´etodos Propostos . . . 53

5.2 Testes Estat´ısticos . . . 58

(14)
(15)

Introdu¸

ao

Hoje em dia, a ´area de Aprendizado de M´aquina ´e um campo de pesquisa muito extenso, que se dedica a estudar t´ecnicas de aprendizagem atrav´es da experiˆencia adquirida a partir da realiza¸c˜ao de m´ultiplas tarefas [20]. Reconhecimento de padr˜oes ´e parte desta ´area e tem como objetivo realizar a classifica¸c˜ao de objetos, dando como resultado uma etiqueta ou r´otulo (valor alvo) que corresponde `a classe dos objetos.

Existem diferentes tipos de aprendizagem: supervisionado, n˜ao supervisionado e semi-supervisionado. No aprendizado supervisionado, os vetores de caracter´ısticas do conjunto de dados possuem r´otulos que indicam a classe `a que pertence cada objeto [9]. No apren-dizado n˜ao supervisionado, por sua vez, os vetores de caracter´ısticas dos objetos n˜ao est˜ao associados a r´otulos, ou seja, neste caso, n˜ao se sabem as classes `as quais pertencem os objetos [9]. No aprendizado semi-supervisionado, existem vetores de caracter´ısticas com e sem r´otulos definidos[52].

H´a muitos exemplos pr´aticos em aprendizado de m´aquina como reconhecimento de ob-jetos, clusteriza¸c˜ao, filtragem de spam, reconhecimento de fala, reconhecimento de escrita, sistemas de seguran¸ca com reconhecimento de padr˜oes, etc. A maior parte dos trabalhos que utilizam t´ecnicas de aprendizado de m´aquina trabalha em cen´ario de classifica¸c˜ao fechado, os chamados Closed Sets.

Por exemplo, suponha que uma empresa possui um sistema de reconhecimento de faces para identificar seus funcion´arios. Nesse tipo de sistema, todas as amostras que aparecem na fase de teste est˜ao associados a uma das faces que formam parte do conjunto de treinamento, porque se sabe que as faces que v˜ao ser reconhecidas pertencem a um dos funcion´arios da empresa (cen´ario fechado). Mas, esse tipo de sistema ´e inadequado no cen´ario em que um impostor tenta ser reconhecido pelo sistema, porque o sistema retornar´a como resultado um dos funcion´arios com os quais foi treinado. Neste caso, um classificador deve ser capaz de rejeitar exemplos, isto ´e, identificar quando um exemplo n˜ao pertence `as classes treinadas[63]. Este tipo de cen´ario ´e conhecido como cen´ario aberto (open set ). De fato, quase todos os problemas da vida real est˜ao dentro deste tipo de cen´ario de reconhecimento.

Em um cen´ario aberto, na fase de treinamento, n˜ao se conhece ou n˜ao se tem acesso a todas as classes existentes na fase de teste [15, 38, 63]. Essas classes poderiam, por exemplo, estar associadas a problemas de amostragem, ou poderiam estar mal defini-das ou mesmo serem indeterminadefini-das [19]. Al´em disso, em um cen´ario open set, mesmo

(16)

conhecendo todas as classes consideradas como desconhecidas dentro do problema que tentamos resolver, seria muito dif´ıcil obter uma quantidade consider´avel de objetos das classes conhecidas para ter um classificador balanceado [63].

Na atualidade existem muitos classificadores como Support Vector Machine (SVM), na¨ıve Bayes, regress˜ao log´ıstica, redes neurais, Floresta de Caminhos ´Otimos (do inglˆes Optimum-Path Forest – OPF), que permitem realizar classifica¸c˜ao de diferentes tipos de objetos como imagens, texto, ´audio, etc. [13, 35]. Em alguns casos, esses classificadores tamb´em foram testados em cen´arios abertos [15, 16, 28, 38, 41, 63].

H´a classificadores multiclasse da literatura que s˜ao baseados na combina¸c˜ao de classifi-cadores bin´arios utilizando enfoques como One-versus-all (OVA), One-versus-one (OVO) e Error Correcting Output Codes (ECOC)[5, 55]. A eficiˆencia destes tipos de t´ecnicas ´e afetada pelo n´umero de classes, dado que quanto maior o n´umero de classes, maior ser´a o n´umero de classificadores bin´arios necess´arios. Desta forma, se o n´umero de classes ´e muito grande, verificam-se problemas de eficiˆencia no processo de classifica¸c˜ao. Vale ressaltar que o enfoque ECOC apresenta uma melhor eficiˆencia nestes casos[55].

Um dos classificadores com bons resultados na literatura ´e o OPF [46]. O OPF [46] ´e um classificador inerentemente multiclasse que ´e r´apido (especialmente na fase de treino) e que pode tratar um certo grau de overlap nas classes no espa¸co de caracter´ısticas [19]. No OPF, o conjunto de treino ´e modelado como um grafo (geralmente um grafo com-pleto), em que cada n´o ´e um vetor de caracter´ısticas e cada aresta tem um peso (o peso ´e calculado como uma medida de similaridade entre os n´os). No grafo, ´e utilizado o algo-ritmo Minimum Spanning Tree (MST)[14] para obter um conjunto de prot´otipos que s˜ao representantes das classes. A fase de treino cria um conjunto de ´arvores (floresta) em que cada ´arvore tem como raiz um prot´otipo. Logo, na fase de teste, as amostras avaliadas s˜ao conectadas `a ´arvore que oferece o menor custo e s˜ao atribu´ıdas `a classe do prot´otipo daquela ´arvore.

Duas extens˜oes do OPF para reconhecimento em c´enario open set foram propostas por Mendes em [41, 42], sendo chamados de classificadores open set OPF: OSOPF1e OSOPF2. O OSOPF1 e OSOPF2 possuem a mesma fase de gera¸c˜ao da floresta de caminhos ´otimos a partir do conjunto de treino que ´e utilizada pelo OPF, mas diferem quanto ao crit´erio para rotular as amostras avaliadas na fase de teste. Experimentos reportados em [41, 42] mostram que o OSOPF obteve melhores resultados que outros m´etodos de cen´ario aberto da literatura.

Uma outra quest˜ao importante a ser considerada quando da concep¸c˜ao de sistemas de classifica¸c˜ao e reconhecimento diz respeito ao uso de bons descritores de dados. De fato, a acur´acia dos classificadores depende em grande medida da forma de descrever os dados do problema. Existem v´arios descritores que descrevem diferentes propriedades visuais dos objetos como cor, forma, textura, etc.[45]. Podem-se combinar estes tipos de carac-ter´ısticas para fazer uma melhor descri¸c˜ao dos objetos [7], mas nem todas as combina¸c˜oes de features oferecem bons resultados [61]. H´a t´ecnicas para combinar caracter´ısticas como early fusion e late fusion; entretanto, estas t´ecnicas est˜ao associadas a problemas de alto custo computacional e de armazenamento, ou ainda a problemas relacionados `a maldi¸c˜ao da alta dimensionalidade [34]. Duas abordagens que vˆem sendo usadas com sucesso para combinar diferentes tipos de carater´ısticas de objetos, e n˜ao enfrentam o problema da alta

(17)

dimesionalidade, s˜ao a GP [36] e Contagem de Votos (Majority Voting) [37].

A GP foi introduzida por Koza [36]. A GP ´e inspirada na evolu¸c˜ao biol´ogica, a partir do uso de opera¸c˜oes gen´eticas como reprodu¸c˜ao, muta¸c˜ao e intercˆambio gen´etico (crossover ) para evoluir os indiv´ıduos que formam parte de uma popula¸c˜ao. Os indiv´ıduos se adaptam ao longo das gera¸c˜oes ao problema que se tenta solucionar. Cada indiv´ıduo ´e usualmente representado como uma ´arvore, em que os n´os da ´arvore s˜ao operadores e os n´os folha s˜ao valores. O uso de GP apresenta muitas vantagens, incluindo uma alta efic´acia no descobrimento de fun¸c˜oes de similaridade entre objetos em um espa¸co de busca extenso [3, 7, 12, 28, 72, 73].

Por outro lado, uma t´ecnica que tem melhorado os resultados na ´area de reconhe-cimento e que tem sido t˜ao eficaz como outras t´ecnicas mais complicadas, ´e o Majority Voting [37]. Esta t´ecnica ´e uma das t´ecnicas mais antigas e simples para fus˜ao de in-forma¸c˜ao. A contagem de votos ´e baseada na utiliza¸c˜ao de v´arios classificadores, treina-dos para a mesma tarefa, em que cada classificador atribui como resultado uma etiqueta (classe) e a etiqueta final ser´a a classe que tenha sido dada como resultado mais vezes pelos classificadores.

Trabalhos pr´evios demonstram a efetividade do classificador OPF junto com a GP e Majority Voting. Godoi et al.[28], por exemplo, mostraram que a combina¸c˜ao de OPF e GP obteve bons resultados na solu¸c˜ao do problema da desambigua¸c˜ao de nomes de autores; nesse trabalho o OPF foi testado em conjunto com GP em um problema de cen´ario aberto. Dos Santos et al.[60], por sua vez, obtiveram bons resultados utilizando OPF e GP no reconhecimento de regi˜oes de sensoriamento remoto com Relevance Feedback (RF). Tavares et al.[72] provaram a efetividade ao utilizar OPF e GP de forma conjunta na recupera¸c˜ao de imagens por conte´udo (Content-based image retrieval – CBIR) usando RF.

Al´em da GP, o OPF tamb´em foi testado em problemas de fus˜ao de dados envolvendo Majority Voting. Ponti e Papa [51], por exemplo, obtiveram bons resultados ao propor um m´etodo para combinar classificadores OPF que trabalham com subconjuntos de dados disjuntos e a classifica¸c˜ao final est´a baseada no esquema Majority Voting. Por outro lado, Ponti e Rossi [50] mostraram a efetividade e eficiˆencia de m´etodos baseados na contagem de votos, utilizando como classificador base o OPF e manipulando o conjunto de treino para tentar diminuir a quantidade de amostras e, por conseguinte, diminuir o tempo de execu¸c˜ao. Este trabalho, no entanto, considerou um cen´ario fechado no protocolo experimental.

O objetivo principal desta pesquisa, ´e utilizar t´ecnicas de combina¸c˜ao de dados para conhecer o impacto ao utilizar diferentes tipos de descritores na resolu¸c˜ao de problemas de reconhecimento em cen´ario aberto. Neste trabalho, apresentam-se seis classificadores inerentemente multiclasse utilizando o classificador OPF, Programa¸c˜ao Gen´etica (GP) e Majority Voting. Os m´etodos propostos usam diferentes tipos de caracter´ısticas para obter uma melhor descri¸c˜ao/separa¸c˜ao das amostras e s˜ao capazes de rejeitar amostras que pertencem a classes que n˜ao foram observadas na fase de treinamento. At´e onde se sabe, este ´e o primeiro trabalho que est´a focado na combina¸c˜ao de diferentes tipos de dados para reconhecimento de objetos em cen´ario aberto.

(18)

utilizam os classificadores OSOPF para rotular as amostras. Sendo o OPF um m´etodo baseado em grafos, precisa-se de uma medida de similaridade/distˆancia para atribuir os pesos dos arcos entre os objetos. Essa medida ´e dada por uma fun¸c˜ao gerada pela GP. Em nossa implementa¸c˜ao, a GP procura o indiv´ıduo (´arvore) que, utilizado como fun¸c˜ao de distˆancia no classificador, permita uma melhor separa¸c˜ao das amostras das classes. Na gera¸c˜ao das fun¸c˜oes de distˆancia, utiliza-se um conjunto de descritores que geram caracter´ısticas diferentes dos objetos para obter uma melhor descri¸c˜ao de cada amostra. Al´em da GP, foram propostos m´etodos emsemble para cen´ario aberto quem combinam caracter´ısticas dos objetos, cuja rotula¸c˜ao final das amostras no teste ´e baseada na t´ecnica Majority Voting. A diferen¸ca dos metodos propostos em relacao `a implementa¸c˜ao do OPF com GP realizada por Godoi et al.[28] ´e que a implementa¸c˜ao proposta neste trabalho ´e uma vers˜ao gen´erica que pode ser utilizada em v´arios tipos de problemas de reconhe-cimento, enquanto ao trabalho do Godoi et al. ´e uma implementa¸c˜ao espec´ıfica para o problema de desambigua¸c˜ao de nomes de autores.

Para comparar os resultados dos classificadores neste trabalho foram empregados o An´alise de Variˆancia (ANOVA) e o teste Tukey-HSD. Os experimentos executados mos-tram que os resultados obtidos s˜ao promissores e que os m´etodos propostos superam, em alguns casos, os m´etodos propostos em [41, 42]. Al´em disso, mostra-se que a combina¸c˜ao de diferentes tipos de caracter´ısticas em cen´arios abertos permite obter resultados relati-vamente melhores do que aqueles obtidos por m´etodos em que foi utilizado somente um descritor.

O restante deste trabalho est´a organizado da seguinte forma. O Cap´ıtulo 2 apresenta a fundamenta¸c˜ao te´orica, assim como os trabalhos relacionados. O Cap´ıtulo 3 descreve os m´etodos propostos de fus˜ao de dados para reconhecimento em cen´ario aberto. Em seguida, o Cap´ıtulo 4 apresenta o protocolo experimental que foi utilizado neste trabalho. O Cap´ıtulo 5 mostra os resultados obtidos. Finalmente, o Cap´ıtulo 6 discute as conclus˜oes do trabalho e apresenta poss´ıveis dire¸c˜oes para trabalhos futuros.

(19)

Trabalhos Relacionados

Neste cap´ıtulo, apresentam-se t´ecnicas de fus˜ao de dados (Se¸c˜ao 2.1), conceitos e opera¸c˜oes da programa¸c˜ao gen´etica (Se¸c˜ao 2.2), o classificador Optimum-Path Forest (Se¸c˜ao 2.3) e abordagens usadas em problemas de reconhecimento em cen´ario aberto (Se¸c˜ao 2.4). Por fim, descrevem-se classificadores recentemente propostos para tratar problemas abertos a partir do uso de florestas de caminhos ´otimos (Se¸c˜ao 2.5).

2.1

Fus˜

ao de Dados

Na ´area de reconhecimentos de objetos, a acur´acia dos classificadores depende em grande medida da forma de descrever os dados do problema. Diversos descritores vˆem sendo propostos visando `a descri¸c˜ao de diferentes tipos de propriedades visuais (como cor, forma, textura) dos objetos [45] e cada tipo de descritor descreve os dados de uma forma distinta. Potencialmente existe complementaridade entre alguns tipos de descritores [7], mas nem todas as combina¸c˜oes de features oferecem bons resultados [61].

Dois enfoques populares de fus˜ao de dados s˜ao early fusion e late fusion [65]. O early fusion consiste em realizar uma integra¸c˜ao de v´arios tipos de features antes da intera¸c˜ao com algum algoritmo de aprendizado. Neste tipo de enfoque s˜ao extra´ıdos v´arios tipos de vetores de features de forma independente. Em seguida, todos esses vetores s˜ao concatenados em uma ´unica representa¸c˜ao que ser´a utilizada em algum tipo de algoritmo de aprendizado. Uma limita¸c˜ao deste tipo de fus˜ao refere-se ao problema da maldi¸c˜ao da dimensionalidade [34]. Por outro lado, o late fusion tamb´em come¸ca com a extra¸c˜ao de diferentes vetores de caracter´ısticas, mas diferentemente do early fusion, este tipo de enfoque utiliza conceitos de aprendizado sobre cada tipo de feature e, em seguida, os resultados parciais obtidos s˜ao combinados para obter um resultado final.

Outras t´ecnicas que tˆem sido usadas para fus˜ao de dados s˜ao os m´etodos ensemble [17]. Os m´etodos emsemble usam um esquema de voto entre um conjunto de classificadores treinados para a mesma tarefa. O resultado de cada classificador tem um peso associado que ser´a considerado na vota¸c˜ao para rotular uma determinada amostra. Alguns dos algoritmos que usam este tipo de esquema s˜ao Bayesian averaging [31], error-correcting output coding (ECOC) [55], Bagging [11] e Boosting [26].

Baseados na id´eia da complemetaridade das features, Lisin et al. [39] propuseram

(20)

dois m´etodos para combinar caracter´ısticas globais e locais na classifica¸c˜ao de objetos. O primeiro ´e um m´etodo ensemble que executa o SVM com as features globais e locais separadamente e no final combina esses resultados. O segundo m´etodo cria uma hierarquia de dois n´ıveis. No primeiro n´ıvel, as classes que est˜ao sendo confundidas (segundo as features globais) formam grupos. Em seguida, o SVM ´e treinado com G grupos de classes de modo que possa retornar como resultado um grupo de classes gi. No segundo n´ıvel, o metodo utiliza fun¸c˜oes de densidade de probabilidade que s˜ao estimadas de forma n˜ao param´etrica (NPD) para decidir a classe final que ser´a atribu´ıda dentre as x classes que pertencem ao grupo gi, baseando-se nas features locais.

Alguns trabalhos usaram t´ecnicas de otimiza¸c˜ao (e.g., Particle Swarm (PSO), Har-mony Search (HS) e Programa¸c˜ao Gen´etica (GP)) para combinar diferentes tipos de features. Faria et al. [22], por exemplo, utilizaram Particle Swarm junto ao classificador Optimum-Path Forest (OPF) na classifica¸c˜ao de objetos, combinando linearmente dife-rentes features de forma. O PSO procura a melhor solu¸c˜ao baseado no comportamento da dinˆamica social. Cada poss´ıvel solu¸c˜ao ´e considerada como uma part´ıcula que tenta imi-tar outras part´ıculas segundo a fun¸c˜ao de fitness (acur´acia do OPF). Mansano et al. [40] utilizaram tamb´em PSO com OPF para combinar features associadas a propriedades de forma, cor e textura de maneira n˜ao-linear. Al´em disso, usaram Harmony Search que ´e uma t´ecnica baseada no processo de improvisa¸c˜ao dos m´usicos, em que cada solu¸c˜ao ´e uma harmonia e cada parˆametro uma nota musical, para procurar a melhor harmonia que maximiza a acur´acia do OPF. A GP ´e uma t´ecnica inspirada na evolu¸c˜ao biol´ogica, cada indiv´ıvuo (solu¸c˜ao) ´e modelado como uma ´arvore, em que os n´os internos s˜ao operadores (×, +, −, /) e os n´os folha s˜ao valores. Esta t´ecnica foi usada em muitos trabalhos na com-bina¸c˜ao de diferentes features para tratar v´arios problemas de reconhecimento [58, 59, 60], recupera¸c˜ao de informa¸c˜ao [3, 4, 7, 23, 25, 57, 73], e recupera¸c˜ao multimodal [12].

2.2

Programa¸

ao Gen´

etica

A programa¸c˜ao gen´etica (GP) ´e uma extens˜ao dos algoritmos gen´eticos que foi introduzida por Koza [36]. Est´a baseada nos princ´ıpios da evolu¸c˜ao biol´ogica e utiliza opera¸c˜oes gen´eticas na procura da melhor solu¸c˜ao dentro de um espa¸co de busca determinado. A programa¸c˜ao gen´etica tem sido utilizada na gera¸c˜ao de fun¸c˜oes de ranking [3], recupera¸c˜ao de imagens [7, 23, 25, 57, 73], recupera¸c˜ao multimodal de imagens [12], desambigua¸c˜ao de nomes de autores [28], deriva¸c˜ao de ´ındices de vegeta¸c˜ao [4], classifica¸c˜ao em imagens de sensoriamento remoto [58, 59, 60], dentre outras aplica¸c˜oes.

O processo da programa¸c˜ao gen´etica come¸ca com a gera¸c˜ao aleat´oria de um conjunto de indiv´ıduos em que cada indiv´ıduo representa uma solu¸c˜ao ao problema que se tenta resolver. Cada indiv´ıduo ´e avaliado na solu¸c˜ao do problema e recebe um score (fitness) que ´e utilizado como uma estimativa de qu˜ao perto o indiv´ıduo est´a de conseguir resolver o problema alvo. Os indiv´ıduos com melhor fitness s˜ao evolu´ıdos com a finalidade de criar melhores popula¸c˜oes ao longo de gera¸c˜oes. O processo ´e repetido at´e que algum crit´erio de parada seja alcan¸cado.

(21)

(terminais) est˜ao relacionados com as vari´aveis e os n´os internos representam operadores. Na Figura 2.1, mostra-se um exemplo de um indiv´ıduo em programa¸c˜ao gen´etica. Nesta figura, os n´os folha (variables) s˜ao d1, d2 e d3; e os n´os internos (operadores) s˜ao ×, /, + e sqrt. Este indiv´ıduo est´a portanto associado `a fun¸c˜ao (sqrt(d3) + d1) × (d2/d3).

Figura 2.1: Exemplo de um indiv´ıduo GP t´ıpico.

Na programa¸c˜ao gen´etica, utilizam-se operadores gen´eticos para gerar variabilidade na popula¸c˜ao e tornar poss´ıvel sua evolu¸c˜ao com o objetivo de se obter melhores indiv´ıduos em gera¸c˜oes futuras. As estruturas dos indiv´ıduos s˜ao alteradas durante o processo de evolu¸c˜ao utilizando opera¸c˜oes gen´eticas, com o objetivo de procurar uma combina¸c˜ao ideal de fun¸c˜oes para solucionar o problema alvo. As opera¸c˜oes gen´eticas comumente utilizadas s˜ao: reprodu¸c˜ao, muta¸c˜ao e intercˆambio gen´etico (crossover ).

• Reprodu¸c˜ao: O operador reprodu¸c˜ao seleciona os melhores indiv´ıduos de uma gera¸c˜ao e faz uma c´opia deles para a gera¸c˜ao seguinte.

• Muta¸c˜ao: O operador muta¸c˜ao faz mudan¸cas aleat´orias nos indiv´ıduos. Na muta¸c˜ao, ´

e selecionado um ponto aleat´orio no indiv´ıduo (´arvore) e essa sub´arvore ´e substitu´ıda por outra sub´arvore gerada, aleatoriamente, conforme ilustra a Figura 2.2.

• Crossover : O operador intercˆambio gen´etico combina material gen´etico de dois pais. Basicamente, troca uma sub´arvore de um pai com uma parte de outro pai, conforme ilustrado na Figura 2.3.

O Algoritmo 1 apresenta o funcionamento t´ıpico do processo de busca de solu¸c˜oes na programa¸c˜ao gen´etica. Primeiramente, uma popula¸c˜ao de indiv´ıduos ´e gerada aleatoria-mente (Linha 1). Em seguida, ao longo de gera¸c˜oes, indiv´ıduos s˜ao avaliados (Linha 3) e s˜ao sujeitos a opera¸c˜oes gen´eticas (Linha 4). Ao final do processo, o melhor indiv´ıduo, ou seja, aquele que melhor resolve o problema alvo, ´e selecionado (Linha 6).

(22)

Figura 2.2: Exemplo de muta¸c˜ao em GP.

Algoritmo 1 Programa¸c˜ao Gen´etica

1: P ← Gerar popula¸c˜ao inicial aleat´oria.

2: for cada gera¸c˜ao g de N gera¸c˜oes do

3: Calcular o f itness de cada indiv´ıduo i que pertence a P

4: P ← Gerar nova popula¸c˜ao com os melhores indiv´ıduos da gera¸c˜ao g aplicando: reprodu¸c˜ao, muta¸c˜ao e crossover.

5: end for

6: Retornar o melhor indiv´ıduo i de todas as gera¸c˜oes.

2.3

Floresta de Caminhos ´

Otimos (Optimum-Path

Forest)

Optimum-Path Forest (OPF) ´e um classificador r´apido (especialmente na fase de treina-mento), multiclasse e pode tratar um certo grau de overlapping nas classes [46, 48]. OPF tem sido utilizado com sucesso em v´arios problemas de classifica¸c˜ao [1, 2, 6, 28, 44, 47, 54, 56, 67, 69, 71].

O classificador OPF ´e baseado na modelagem do problema de classifica¸c˜ao como um problema de particionamento em grafos. O particionamento ´e definido por prot´otipos das amostras, os quais v˜ao ser os representantes das classes. OPF cria um grafo G = {V, E} baseado nos dados de treino, em que V s˜ao os n´os que representam os vetores de carater´ısticas dos objetos e E ´e o conjunto de arestas que unem os n´os. O peso das arestas pode ser dado por uma medida de similaridade ou distˆancia entre os n´os. Para criar o grafo, precisa-se definir uma rela¸c˜ao de adjacˆencia, usualmente definida a partir dos k vizinhos mais pr´oximos (k-nearest neighbors – k-NN) ou grafo completo.

No OPF, as classes s˜ao representadas em uma ou mais optimum-path trees, as quais tˆem como raiz uma amostra que ´e chamada de prot´otipo. Os prot´otipos s˜ao amostras que representam cada classe e est˜ao na fronteira de separa¸c˜ao das diferentes classes. Uma amostra dentro do optimum-path tree ser´a da mesma classe que seu prot´otipo.

(23)

Figura 2.3: Exemplo de crossover em GP. As ´arvores a e b intercambiam sub-´arvores para formar a ´arvore c.

2.3.1

Fase de Treinamento

Seja G = (D1, A) um grafo completo em que qualquer par de n´os define um arco em A = D1× D1. D1 ´e o conjunto de dados de treinamento e ´e utilizado para criar o classifi-cador (ver Figura 2.4a). Seja λ(x) a fun¸c˜ao que atribui a etiqueta da classe `a amostra x. T ⊂ D1 ´e o conjunto dos prot´otipos das classes que s˜ao definidos utilizando o algoritmo Minimum Spanning Tree (MST) [14]. Na MST, uma amostra x ´e considerada prot´otipo se est´a conectada a uma amostra y, tal que λ(x) 6= λ(y) (ver Figura 2.4b). A distˆancia entre duas amostras x e y ´e calculada por d(x, y), em que d(x, y) ≥ 0. Um caminho que termina na amostra x ´e uma sequˆencia de n´os πx = hs, s1, s2, ..., xi que tem um custo dado pela fun¸c˜ao de conetividade f (πx). A concatena¸c˜ao do caminho πx e o arco (x, y), ´e dada por πx.hx, yi. Um caminho ´e trivial se πx = hxi. Um caminho πx ´e ´otimo se para qualquer outro caminho ςx, f (πx) ≤ f (ςx). O predecessor de x ´e definido por P (x).

No OPF, a fun¸c˜ao de conetividade fmax(π) ´e dada pelo maior arco no caminho π:

fmax(hxi) =

 0 if x ∈ T, +∞ caso contr´ario

fmax(πx.hx, yi) = max{fmax(πx), d(x, y)}. (2.1) Com a minimiza¸c˜ao de fmax, cada uma das amostras y ∈ D1 ter´a um caminho ´otimo P∗(y) desde o conjunto T , cujo custo minimo C(y) ´e:

(24)

C(y) = min ∀πy∈(D1,A)

{fmax(πy)} (2.2)

A raiz R(y) ∈ T de P∗(y) pode ser obtida desde P (y) seguindo os predecessores de y ao longo do caminho at´e chegar a um elemento t ∈ T . O custo e a etiqueta de y ´e dado por C(y) e L(y), respectivamente. No Algoritmo 2, apresenta-se a fase de treinamento do classificador OPF; este algoritmo estende o algoritmo Image-Forest Transform (IFT) [21]. Algoritmo 2 OPF: Fase de treinamento

Require: Dados de treino D1, prot´otipos T ⊂ D1 1: for cada x ∈ D1\T do

2: C(x) ← +∞

3: end for

4: for cada x ∈ T do

5: C(x) ← 0; P (x) ← nil; L(x) ← λ(x)

6: Inserir x em Q (Fila de prioridade)

7: end for

8: while Q 6= ∅ do

9: Remover x de Q tal que C(x) ≤ C(y), ∀y ∈ Q

10: for cada y ∈ D1 e x 6= y do 11: cst ← max{C(x), d(x, y)} 12: if cst < C(y) then 13: if C(y) 6= +∞ then 14: Remover y de Q 15: end if

16: C(y) ← cst; P (y) ← x; L(y) ← L(x) 17: Inserir y em Q

18: end if

19: end for

20: end while

2.3.2

Fase de Classifica¸

ao

Seja D2 o conjunto de avalia¸c˜ao. Para cada amostra y ∈ D2 conecta-se y a todas as amostras x ∈ D1 e procura-se o caminho ´otimo baseado na fun¸c˜ao de custo:

C2(y) = min{max{C(x), d(x, y)}}, ∀x ∈ D1. (2.3) Seja s a amostra que oferece o menor custo para y segundo a Equa¸c˜ao 2.3, ent˜ao a classe atribuida `a y ser´a L(y) = L(s) (ver Figura 2.4c). Papa et al. [48] apresentam uma melhoria para OPF chamado EOPF (Enhanced OPF ). Esta extens˜ao evita visitar todos os n´os das ´arvores durante a fase de classifica¸c˜ao. Para isto, ´e criado um conjunto D0 com todos os n´os do conjunto D1 de treino em uma ordem n˜ao decrescente da fun¸c˜ao de custo. D0 ajuda na poda dos n´os. Ao se evitar visitar todos os n´os, a visita termina

(25)

(a) (b) (c)

Figura 2.4: Classificador Optimum-Path Forest. No conjunto de dados temos duas classes (azul e verde). (a) Grafo completo, (b) Minimum Spanning Tree (MST) – Sele¸c˜ao de prot´otipos, os prot´otipos s˜ao as amostras que est˜ao na fronteira e envoltas em linha pontilhada. (c) Classifica¸c˜ao da amostra x que procura o caminho que oferece o menor custo, x ´e rotulada como da classe verde.

quando a fun¸c˜ao de custo do n´o seguinte em D0 ´e maior ou igual ao custo m´ınimo que j´a foi oferecido para a amostra y que est´a sendo classificada. EOPF ´e apresentado no Algoritmo 3.

Algoritmo 3 EOPF: Fase de classifica¸c˜ao. Require: Conjunto de avalia¸c˜ao D2.

Require: Dados de treino na ordem n˜ao decrescente da fun¸c˜ao de custo D0.

1: for cada x ∈ D2 do 2: i ← 1

3: menorCusto ← max{C(yi), d(yi, x)}, em que yi ∈ D0 4: L(x) ← L(yi); P (x) ← yi

5: while i < |D0| e menorCusto > C(yi+1) do 6: aux ← max{C(yi+1), d(yi+1, x)}

7: if aux < menorCusto then

8: menorCusto ← aux 9: L(x) ← L(yi+1) 10: P (x) ← yi+1 11: end if 12: i ← i + 1 13: end while 14: end for

2.4

Reconhecimento em Cen´

ario Aberto

A principal diferen¸ca entre a classifica¸c˜ao multiclasse de cen´ario fechado (closed set ) t´ıpica e o reconhecimento em cen´ario aberto (open set ) ´e que no open set o classificador deve ter a capacidade de retornar como resultado uma classe conhecida, ou apontar que um dado objeto de teste ´e de uma classe desconhecida [63]. No open set, durante a fase de teste

(26)

aparecem amostras de classes que n˜ao foram vistas na fase de treino. Para isso, precisa-se de t´ecnicas com forte generaliza¸c˜ao, ou seja, t´ecnicas que sejam capazes de determinar qu˜ao longe dos dados de uma classe c, uma amostra y pode estar para ser classificada como da classe c. Al´em da generaliza¸c˜ao, precisa-se tamb´em uma forte especializa¸c˜ao considerando o risco para o desconhecido [41, 63]. Na Figura 2.5 mostra-se um exemplo de um problema de cen´ario aberto em que se pode ver que existem classes desconhecidas e n˜ao somente amostras desconhecidas [41, 42].

Figura 2.5: Problema de reconhecimento em cen´ario aberto (open set ).

Nos ´ultimos anos, foram feitos alguns trabalhos direcionados a problemas open set. Estas t´ecnicas s˜ao baseadas em adapta¸c˜oes dos classificadores bem estabelecidos como Support Vector Machine (SVM) [15, 16, 63, 64], Transdu¸c˜ao [38] e Optimum-Path Forest (OPF) [28, 41] para reconhecimento em cen´ario aberto.

O classificador bin´ario 1-vs-Set Machine ´e proposto por Scheirer et al. [63] para cen´ario aberto. Este classificador utiliza um kernel linear, que pode ser aplicado a SVMs bin´arios ou one-class. Scheirer et al. [63] acreditam que no cen´ario open set, precisa-se minimizar o espa¸co aberto (evitar false positive). O 1-vs-Set Machine trata do reconhecimento open set considerando que os dados de treinamento da classe conhecida representam o “Set ”. Este m´etodo, al´em de um plano P (regula o espa¸co aberto) que separa as amostras positivas das negativas, acrescenta um segundo plano U (regula a generaliza¸c˜ao) para a separa¸c˜ao das amostras das classes n˜ao conhecidas. Em seguida, ajusta os planos P e U para procurar o equil´ıbrio entre o risco emp´ırico (medido nos dados de treino) e o risco do espa¸co aberto.

Para saber qu˜ao aberto ´e um problema de reconhecimento, Scheirer et al. [63] prop˜oem a Equa¸c˜ao 2.4 de openness. Para isto, utilizam o n´umero de classes alvo, o n´umero de classes usadas no treino e o n´umero de classes usadas no teste. A equa¸c˜ao ´e s´o utilizada no sentido acadˆemico, dado que na vida real, n˜ao se sabe o n´umero de classes que pode-riam aparecer na fase teste. Quando ´e um problema completamente fechado (closed set ) o openness ´e 0% e quando maior for o valor, ent˜ao mais aberto ser´a o problema (open set ).

(27)

openness = 1 − s

2 × |classes treino|

|classes teste| + |classes alvo| (2.4)

Existem alguns problemas de reconhecimento que foram tratados como de cen´ario Open Set. Costa et al. [15, 16] propuseram uma solu¸c˜ao para o problema de atribuir uma imagem a uma determinada cˆamera em um cen´ario open set. Eles analisam esse caso como open set pois consideram ter acesso a um n´umero limitado de cˆameras suspeitas e prop˜oem um classificador SVM bin´ario junto a um processo de busca chamado Decision Boundary Carving (DBC). O DBC procura o melhor valor do parˆametro ε para ajustar o hiperplano calculado pelo SVM e minimizar o risco para o desconhecido (risk for the unknown) baseado na taxa de erro dos dados de treino.

Li e Wechsler [38], por sua vez, propuseram um novo classificador chamado Open Set TCM — KNN (Transduction Confidence Machine – k vizinhos mais pr´oximos) para reconhecimento de faces em cen´arios open set, no qual, nem todas as faces do teste tinham amostras na fase de treino. Open Set TCM — KNN ´e um classificador multiclasse com a op¸c˜ao de rejeitar amostras de faces que n˜ao foram vistas na galeria (conjunto de treino) em que a transdu¸c˜ao ajuda no problema de poucos dados de treino e teste no reconhecimento de faces.

O reconhecimento de impress˜oes digitais ´e outro problema em cen´ario open set. Estes sistemas precisam ser robustos a tentativas de fraude ou falsifica¸c˜ao (spoof ), considerando que na fase de teste, ´e poss´ıvel que haja falsifica¸c˜oes feitas com materiais novos que n˜ao foram vistos no treinamento. Rattani et al. [53], por exemplo, propuseram um esquema para classificar e adaptar os novos materiais de fabrica¸c˜ao de digitais que aparecem na fase de teste. Os sistemas de detec¸c˜ao de falsifica¸c˜ao de digitais possuem pouca generaliza¸c˜ao j´a que o erro aumenta quando na fase de teste s˜ao encontradas falsifica¸c˜oes feitas com materiais novos n˜ao vistos na fase de treino. Rattani et al. [53] utilizaram Weibull-calibrated SVM (W-SVM) [64] que combina o 1-Class SVM com o SVM bin´ario, ambos com kernels n˜ao lineares. W-SVM ´e relativamente robusto para cen´ario aberto.

Godoi et al. [28] utilizaram o classificador OPF junto com programa¸c˜ao gen´etica (GP) para tratar o problema de ambiguidade de nomes em referˆencias. Este problema ocorre quando o mesmo autor faz publica¸c˜oes com nomes similares (sinˆonimos) ou autores dis-tintos fazem publica¸c˜oes com nomes semelhantes (homˆonimos). Trata-se de um problema open set, em que se conhecem alguns autores (classes) na fase de treinamento, mas n˜ao se conhecem todos os autores que podem estar na fase de teste. Durante a fase de treino n˜ao ´e poss´ıvel ter todos os autores, ent˜ao podem-se enfrentar problemas no reconheci-mento quando uma amostra x pertence a um novo autor. Na proposta deles, usaram um threshold para definir novas sub´arvores para os novos autores (novas classes). A pro-grama¸c˜ao gen´etica foi utilizada para procurar fun¸c˜oes de similaridade entre referˆencias a autores.

(28)

2.5

Reconhecimento em Cen´

ario Aberto Utilizando

Floresta de Caminhos ´

Otimos

Open-Set Optimum-Path Forest (OSOPF) ´e uma adapta¸c˜ao do classificador OPF para cen´arios abertos proposto por Mendes [41, 42]. Os m´etodos de reconhecimento OSOPF possuem a mesma fase de treino que o classificador OPF (ver Se¸c˜ao 3), na qual ´e gerada uma floresta de caminhos ´otimos (OPF). Entretanto, eles diferem na fase de reconheci-mento. Os m´etodos OSOPF tamb´em utilizam a mesma fun¸c˜ao de custo (Equa¸c˜ao 2.3) que o classificador OPF usa na escolha dos caminhos ´otimos. Foram propostos dois m´etodos OSOPF:

• OSOPF1: Dada uma amostra y, OSOPF1 procura os dois melhores caminhos (me-nor custo) oferecidos pela floresta de caminhos ´otimos (OPF) gerada na fase de treino. Em seguida, o m´etodo verifica as etiquetas das duas amostras que oferecem esses dois melhores caminhos, se ambas amostras s˜ao da mesma classe c, ent˜ao y ´e etiquetada com da classe c; caso contr´ario y pertence a uma classe desconhecida. A fase de reconhecimento com o m´etodo OSOPF1 ´e apresentada no Algoritmo 4. Algoritmo 4 OSOPF1 fase de reconhecimento.

Require: OP F floresta gerada na fase de treino. Require: x amostra que vai ser reconhecida.

1: s1 ← amostra que oferece o melhor caminho para x na OPF.

2: s2 ← amostra que oferece o segundo melhor caminho para x na OPF. 3: if L(s1) = L(s2) then

4: L(x) ← L(s1). 5: else

6: L(x) ← “classe desconhecida”.

7: end if

• OSOPF2: ´E um m´etodo baseado na compara¸c˜ao de um threshold t que ´e otimizado durante a fase de treino (grid search) e uma rela¸c˜ao de custo dos dois melhores ca-minhos de diferentes classes. Dada uma amostra y, procura c1 e c2 que s˜ao os custos dos melhores caminhos at´e prot´otipos de diferentes classes p1 e p2, respectivamente. Em seguida, o metodo calcula r = c1/c2 e se r ≤ t (0 < t < 1), ent˜ao y ´e classificada com a classe do prot´otipo p1; caso contr´ario, ´e classificada como desconhecida. A fase de reconhecimento do m´etodo OSOPF2 ´e apresentada no Algoritmo 5.

(29)

Algoritmo 5 OSOPF2 fase de reconhecimento. Require: OP F floresta gerada na fase de treino. Require: x amostra que vai ser reconhecida.

1: t ← threshold procurado na fase de treino.

2: π1 ← melhor caminho para x na OPF.

3: π2 ← segundo melhor caminho para x na OPF tal que L(R(π1)) 6= L(R(π2)). 4: r ← f (π1)/f (π2) 5: if r ≤ t then 6: L(x) ← L(R(π1)). 7: else 8: L(x) ← “classe desconhecida”. 9: end if

(30)

etodos para Fus˜

ao de Dados em

Problemas de Cen´

ario Aberto

Neste cap´ıtulo, apresentam-se seis m´etodos inerentemente multiclasse para reconheci-mento em cen´ario aberto baseados nos m´etodos Open-set Optimum-Path Forest (OSOPF) descritos na Se¸c˜ao 2.5. A id´eia principal ´e combinar diferentes tipos de caracter´ısticas ge-radas por v´arios descritores utilizando: i) Programa¸c˜ao Gen´etica (GP) e ii) um esquema de contagem de votos (Majority Voting). A id´eia geral dos classificadores propostos neste trabalho ´e procurar uma melhor separa¸c˜ao das amostras das classes, e assim melhorar a generaliza¸c˜ao e especializa¸c˜ao dos classificadores.

Na implementa¸c˜ao GP considerada, cada indiv´ıduo representa uma fun¸c˜ao de distˆancia entre duas amostras usando diferentes tipos de caracter´ısticas. A fun¸c˜ao de distˆancia de-fine os pesos dos arcos das ´arvores da floresta de caminhos ´otimos (OPF). No processo evo-lutivo, procura-se a fun¸c˜ao que melhor se adapta ao classificador na resolu¸c˜ao do problema de reconhecimento. Os classificadores baseados em GP, chamados de classificadores-GP, est˜ao representados pela tupla (γ, δ), em que:

• γ ´e um classificador. Os classificadores utilizados nesta pesquisa s˜ao: OSOPF1 e OSOPF2 apresentados na Se¸c˜ao 2.5.

• δ ´e um indiv´ıduo (fun¸c˜ao de distˆancia) gerado pela programa¸c˜ao gen´etica.

Para avaliar cada par (γ, δ), e criada uma floresta de caminhos ´otimos (OPF) uti-lizando um conjunto de amostras chamado de f itting. Em seguida dois conjuntos de amostras validation1 e validation2 sao utilizados. O conjunto validation1, usado durante as N gera¸c˜oes GP, serve para pr´e-selecionar os indiv´ıduos com melhor acur´acia junto a um determinado classificador. O conjunto validation2, por sua vez, ´e utilizado para avaliar a capacidade de generaliza¸c˜ao dos classificadores-GP tentando evitar o problema do overfitting. A escolha do melhor par (γ, δ) ´e baseada na acur´acia normalizada m´edia apresentada na Equa¸c˜ao 3.1, em que ac1 e ac2 s˜ao as acur´acias normalizadas obtidas pelo classificador nos conjuntos validation1 e validation2, respectivamente.

meanAccuracy = ac1+ ac2

2 (3.1)

(31)

Nas Se¸c˜oes 3.1 e 3.2, apresentam-se os m´etodos que realizam o treino com cen´ario aberto e cen´ario fechado, respectivamente. Em um treinamento de cen´ario aberto, nos conjuntos validation1 e validation2 aparecem amostras que pertencem a classes que n˜ao tem representantes no conjunto de f itting; e em um treinamento de cen´ario fechado todas as classes tˆem amostras tanto no f itting como nos conjuntos validation1 e validation2. Na Se¸c˜ao 3.3, apresentam-se os classificadores baseados em esquema de contagem de votos (Majority Voting). Os m´etodos desenvolvidos neste trabalho e o tipo de treino que utilizam cada um deles s˜ao apresentados na Tabela 3.1. Os m´etodos Majority Voting n˜ao utilizam conjuntos de valida¸c˜ao.

Tabela 3.1: M´etodos open set propostosa.

M´etodo Tipo de c´enario no treino

OSOPF1Open-GP Aberto

OSOPF1Closed-GP Fechado

OSOPF2Open-GP Aberto

OSOPF2Closed-GP Fechado

Majority Voting OSOPF1 —

Majority Voting OSOPF2 —

aNos m´etodos Majority Voting, n˜ao h´a particionamento das amostras na fase de treino porque n˜ao se

precisa da otimiza¸c˜ao de nenhum parˆametro.

3.1

Open-GP

A id´eia principal dos m´etodos Open-GP desenvolvidos neste trabalho ´e procurar o melhor par (γ, δ), considerando-se um c´enario aberto durante a fase de treino. Para isto, usa-se o particionamento apresentado na Se¸c˜ao 4.2.1. Dois m´etodos Open-GP s˜ao propostos: OSOPF1-OGP e OSOPF2-OGP.

Os m´etodos OGP procuram a generaliza¸c˜ao do classificador na classifica¸c˜ao das amos-tras, isto ´e, tenta-se saber at´e qu˜ao longe uma amostra poderia estar de uma ´arvore de amostras de uma classe x para poder ser etiquetada como da classe x.

3.1.1

OSOPF

1

-OGP

OSOPF1 Open-GP (OSOPF1-OGP) procura o melhor par (γ, δ) em que γ = OSOPF1. Procura-se o indiv´ıduo δ que em conjunto com o classificador OSOPF1 tenha a melhor acur´acia na fase de treino. Este m´etodo ´e detalhado no Algoritmo 6. Nas Linhas 1 e 2, cria-se um conjunto I para armazenar os melhores indiv´ıduos de cada gera¸c˜ao e gera-se a popula¸c˜ao GP inicial. Nas Linhas 3-11, os indiv´ıduos GP s˜ao evolu´ıdos ao londo de Nevolutions gera¸c˜oes. Durante as Nevolutions gera¸c˜oes, nas Linhas 4-7, avalia-se cada in-div´ıduo GP. Para isto, primeiro, na Linha 5, cria-se a floresta de ´arvores de caminhos ´

otimos utilizando o conjunto f itting utilizando-se cada indiv´ıduo GP como fun¸c˜ao de distˆancia. Em seguida, na Linha 6, avalia-se a floresta gerada na Linha 5 com um conjunto

(32)

de valida¸c˜ao validation1 usando OSOPF1 como classificador. Nas Linhas 8, 9 e 10 s˜ao selecionados os melhores NtopIndividuals de cada gera¸c˜ao e a popula¸c˜ao ´e evolu´ıda usando os operadores de Muta¸c˜ao, Reprodu¸c˜ao e Crossover. Em seguida, nas Linhas 12-16, cria-se a floresta de caminhos ´otimos usando o conjunto de f itting e cada um dos me-lhores indiv´ıduos i que foram armazenados no conjunto I, avaliam-se as florestas usando o classificador OSOPF1 e calcula-se a acur´acia normalizada m´edia para cada indiv´ıduo i baseando-se na acur´acia normalizada obtida nos conjuntos validation1 e validation2. Na Linha 17, seleciona-se o melhor indiv´ıduo ibest. Depois, na Linha 18, cria-se o conjunto de treino que ´e formado pelos conjuntos f itting, validation1, validation2 e validation3. Finalmente, cria-se a floresta definitiva com o conjunto training e o indiv´ıduo ibest (Li-nha 19), e avalia-se a floresta gerada no conjunto teste com o classificador OSOPF1 (Linha 20).

Algoritmo 6 Algoritmo OSOPF1-OGP

Require: f itting, validation1, validation2, validation3 (ver Se¸c˜ao 4.2.1) Require: Nevolutions, NtopIndividuals

1: I ← ∅.

2: A ← popula¸c˜ao inicial.

3: for cada gera¸c˜ao g de Nevolutions do 4: for cada i ∈ A do

5: f orest ← OP F (f itting, i).

6: i.f itnessV alue ← OSOP F1(f orest, i, validation

1) //acur´acia normalizada. 7: end for

8: Ig ← NtopIndividuals de g 9: I ← I ∪ Ig

10: A ← nova popula¸c˜ao (Reprodu¸c˜ao, Crossover e Muta¸c˜ao).

11: end for

12: for cada i ∈ I do

13: f orest ← OP F (f itting, i).

14: f itnessval2← OSOP F1(f orest, i, validation2) //acur´acia normalizada. 15: i.f itnessV alue ← (i.f itnessV alue + f itnessval2)/2

16: end for

17: ibest ← bestIndividual(I)

18: training ← f itting ∪ validation1∪ validation2∪ validation3 19: f orest ← OP F (training, ibest).

20: OSOP F1(f orest, ibest, testing) //classifica¸c˜ao no conjunto de teste.

3.1.2

OSOPF

2

-OGP

OSOPF2 Open-GP (OSOPF2-OGP) utiliza um cen´ario aberto na fase de treino. O obje-tivo ´e procurar o melhor indiv´ıduo (δ) para ser utilizado junto ao classificador OSOPF2 (γ). Este m´etodo ´e detalhado no Algoritmo 7.

(33)

´e utilizado o classificador OSOPF2 ao inv´es de o OSOPF1. Note que o OSOPF2 est´a associado ao parˆametro threshold. Desta forma, na Linha 18, o m´etodo OSOPF2-OGP executa um gridSearch para otimizar o valor do threshold que ser´a utilizado para avaliar o classificador na fase de teste (Linha 21).

Algoritmo 7 Algoritmo OSOPF2-OGP

Require: f itting, validation1, validation2, validation3 (ver Se¸c˜ao 4.2.1) Require: threshold

Require: Nevolutions, NtopIndividuals 1: I ← ∅.

2: A ← popula¸c˜ao inicial.

3: for cada gera¸c˜ao g de Nevolutions do 4: for cada i ∈ A do

5: f orest ← OP F (f itting, i).

6: i.f itnessV alue ← OSOP F2(f orest, i, threshold, validation

1) //acur´acia nor-malizada.

7: end for

8: Ig ← NtopIndividuals de g 9: I ← I ∪ Ig

10: A ← nova popula¸c˜ao (Reprodu¸c˜ao, Crossover e Muta¸c˜ao).

11: end for

12: for cada i ∈ I do

13: f orest ← OP F (f itting, i).

14: f itnessval2 ← OSOP F2(f orest, i, threshold, validation2) //acur´acia normalizada. 15: i.f itnessV alue ← (i.f itnessV alue + f itnessval2)/2

16: end for

17: ibest ← bestIndividual(I).

18: bestT hreshold ← gridSearch(OSOP F2, i, validation3) (ver Se¸c˜ao 4.5). 19: training ← f itting ∪ validation1∪ validation2∪ validation3

20: f orest ← OP F (training, ibest). 21: OSOP F2(f orest, i

best, bestT hreshold, testing) //classifica¸c˜ao no conjunto de teste.

3.2

Closed-GP

Os m´etodos Closed-GP utilizam um cen´ario fechado na fase de treino procurando o melhor par (γ, δ). O par (γ, δ) selecionado ser´a usado no conjunto de teste (cen´ario aberto). Dado que na fase de treino trabalha-se sob um cen´ario fechado, ent˜ao utiliza-se OPF como classificador nesta fase. O particionamento das amostras ´e apresentado na Se¸c˜ao 4.2.2.

Os m´etodos CGP procuram obter uma boa especializa¸c˜ao do classificador na classi-fica¸c˜ao das amostras, isto ´e, tenta-se melhorar a separa¸c˜ao entre as classes e obter uma melhor compacta¸c˜ao das amostras de uma mesma classe.

(34)

3.2.1

OSOPF

1

Closed-GP

OSOPF1 Closed-GP (OSOPF1-CGP) procura o par (γ, δ) com a melhor acur´acia na clas-sifica¸c˜ao das amostras no treino. Na fase de teste, utiliza-se o melhor indiv´ıduo δ junto com o classificador OSOPF1.

O Algoritmo 8 detalha este m´etodo. Nas Linhas 1 e 2, cria-se um conjunto I para armazenar os melhores indiv´ıduos de cada gera¸c˜ao e gera-se a popula¸c˜ao GP inicial. Nas Linhas 3-11, os indiv´ıduos GP s˜ao evolu´ıdos ao longo de Nevolutions gera¸c˜oes. Durante as Nevolutions gera¸c˜oes, nas Linhas 4-7, avalia-se cada indiv´ıduo GP. Para isto, primeiro, na Linha 5, cria-se a floresta de ´arvores de caminhos ´otimos utilizando o conjunto f itting utilizando-se cada indiv´ıduo GP como fun¸c˜ao de distˆancia. Em seguida, na Linha 6, avalia-se a floresta gerada na Linha 5 com um conjunto de valida¸c˜ao validation1 usando OPF como classificador. Nas Linhas 8, 9 e 10 s˜ao selecionados os melhores NtopIndividuals de cada gera¸c˜ao e a popula¸c˜ao ´e evolu´ıda usando os operadores de Muta¸c˜ao, Reprodu¸c˜ao e Crossover. Em seguida, nas Linhas 12-16, cria-se a floresta de caminhos ´otimos usando o conjunto de f itting e cada um dos melhores indiv´ıduos i que foram armazenados no conjunto I, avaliam-se as florestas usando o classificador OPF e calcula-se a acur´acia normalizada m´edia para cada indiv´ıduo i baseando-se na acur´acia normalizada obtida nos conjuntos validation1 e validation2. Na Linha 17, seleciona-se o melhor indiv´ıduo ibest. Depois, na Linha 18, cria-se o conjunto de treino que ´e formado pelos conjuntos f itting, validation1e validation2. Finalmente, cria-se a floresta definitiva com o conjunto training e o indiv´ıduo ibest, e avalia-se a floresta gerada no conjunto teste com o classificador OSOPF1.

3.2.2

OSOPF

2

Closed-GP

O m´etodo OSOPF2 Closed-GP (OSOPF2-CGP) tem como objetivo obter o melhor clas-sificador (γ, δ) durante a fase de treino. Em seguida, o melhor indiv´ıduo δ ´e utilizado na fase de teste junto com o classificador OSOPF2. Este m´etodo ´e detalhado no Algoritmo 9. O Algoritmo 9 difere do Algoritmo 8 na Linha 20 em que ´e utilizado o classificador OSOPF2 ao inv´es de o OSOPF1. Note que OSOPF2 precisa do parˆametro threshold.

3.3

Majority Voting

O Majority Voting ´e uma das t´ecnicas para fus˜ao de informa¸c˜ao mais antiga, simples e que tem sido t˜ao eficaz como outras t´ecnicas mais complicadas. Esta se¸c˜ao apresenta dois classificadores: Voting-OSOPF1e Voting-OSOPF2. Estes m´etodos diferem apenas quanto ao classificador base que ´e utilizado. Nesta abordagem, cada classificador ´e definido pelo par (γ, D), em que:

• γ ´e um classificador base (OSOPF1 ou OSOPF2 – Se¸c˜ao 2.5). • D ´e um conjunto de descritores.

No Majority Voting, objetiva-se combinar diferentes tipos de features usando um es-quema de contagem de votos baseado nos r´otulos atribu´ıdos a uma amostra por cada

(35)

Algoritmo 8 Algoritmo OSOPF1-CGP

Require: f itting, validation1, validation2 (ver Se¸c˜ao 4.2.2) Require: Nevolutions, NtopIndividuals

1: I ← ∅.

2: A ← popula¸c˜ao inicial.

3: for cada gera¸c˜ao g de Nevolutions do 4: for cada i ∈ A do

5: f orest ← OP F (f itting, i).

6: i.f itnessV alue ← OP F (f orest, i, validation1) //acur´acia normalizada. 7: end for

8: Ig ← NtopIndividuals de g 9: I ← I ∪ Ig

10: A ← nova popula¸c˜ao(Reprodu¸c˜ao, Crossover e Muta¸c˜ao).

11: end for

12: for cada i ∈ I do

13: f orest ← OP F (f itting, i).

14: f itnessval2← OP F (f orest, i, validation2) //acur´acia normalizada. 15: i.f itnessV alue ← (i.f itnessV alue + f itnessval2)/2

16: end for

17: ibest ← bestIndividual(I).

18: training ← f itting ∪ validation1∪ validation2 19: f orest ← OP F (training, ibest).

(36)

Algoritmo 9 Algoritmo OSOPF2-CGP

Require: f itting, validation1, validation2 (ver Se¸c˜ao 4.2.2) Require: threshold

Require: Nevolutions, NtopIndividuals 1: I ← ∅.

2: A ← popula¸c˜ao inicial.

3: for cada gera¸c˜ao g de Nevolutions do 4: for cada i ∈ A do

5: f orest ← OP F (f itting, i).

6: i.f itnessV alue ← OP F (f orest, i, validation1) //acur´acia normalizada. 7: end for

8: Ig ← NtopIndividuals de g 9: I ← I ∪ Ig

10: A ← nova popula¸c˜ao(Reprodu¸c˜ao, Crossover e Muta¸c˜ao).

11: end for

12: for cada i ∈ I do

13: f orest ← OP F (f itting, i).

14: f itnessval2← OP F (f orest, i, validation2) //acur´acia normalizada. 15: i.f itnessV alue ← (i.f itnessV alue + f itnessval2)/2

16: end for

17: ibest ← bestIndividual(I).

18: training ← f itting ∪ validation1 ∪ validation2 19: f orest ← OP F (training, ibest).

20: OSOP F2(f orest, i

(37)

par (γ, Di) em que Di ∈ D. O r´otulo definitivo da amostra ser´a aquele que tenha um maior n´umero de votos. No caso de empate, seleciona-se aleatoriamente um dos r´otulos empatados.

A abordagem Majority Voting ´e apresentada no Algoritmo 10. Na Linha 1, inicializa-se F que ´e utilizado para armazenar a floresta gerada a prtir do uso de cada descritor. Em seguida, nas Linhas 2-5, com o conjunto training, gera-se uma floresta para cada descritor, armazenando-as em F . A atribui¸c˜ao das classes para cada amostra ´e feita nas Linhas 6-13 (fase de teste). Finalmente, com cada floresta em F , atribui-se um label `

as amostras usando um determinado classificador (OSOPF1 ou OSOPF2) – Linhas 8-11, armazenando-se o resultado em P . Por fim, na Linha 12, ´e atribu´ıdo o label que mais se repete em P . Em caso de empate, seleciona-se aleatoriamente um dos labels das classes para as quais verifica-se o empate.

Algoritmo 10 Algoritmo Majority Voting Require: classif ier

Require: training Require: testing

Require: conjunto de descritores D

1: F (descriptor, f orest) ← ∅.

2: for cada descriptor ∈ D do

3: f orest ← OP F (training, descriptor).

4: F ← F ∪ (descriptor, f orest).

5: end for

6: for cada x ∈ testing do

7: P ← ∅

8: for cada (descriptor, f orest) ∈ F do

9: label ← classif ier(f orest, descriptor, x).

10: P ← P ∪ label .

11: end for

12: x.label ← atribuir o label que mais se repete em P ; em caso de empate atribuir aleatoriamente um dos labels das classes para as quais verifica-se o empate.

(38)

Protocolo Experimental

Este cap´ıtulo apresenta o protocolo experimental usado neste trabalho, descrevendo os datasets utilizados (Se¸c˜ao 4.1), m´etodos para o particionamento das amostras (Se¸c˜ao 4.2), descritores para extra¸c˜ao das features das imagens (Se¸c˜ao 4.3), configura¸c˜ao dos parˆametros do arcabou¸co GP (Se¸c˜ao 4.4), grid search para otimiza¸c˜ao de parˆametros (Se¸c˜ao 4.5), me-didas de avalia¸c˜ao (Se¸c˜ao 4.6) e os testes estat´ısticos que foram utilizados para comparar os resultados obtidos (Se¸c˜ao 4.7).

4.1

Conjuntos de Dados

Para avaliar as abordagens de fus˜ao de dados que foram desenvolvidas neste trabalho dois datasets foram utilizados: Caltech-256 [29] e ALOI [27].

• Caltech-256 ´e um conjunto de imagens utilizado para reconhecimento de objetos que cont´em 256 classes com um total de 29780 imagens. Possui uma grande varie-dade de objetos naturais e artificiais. Mostram-se alguns exemplos deste dataset na Figura 4.1.

Figura 4.1: Exemplos de imagens do dataset CALTECH-256.

(39)

• ALOI ´e um dataset de imagens de objetos que cont´em 1000 classes com um total de 110250 imagens. Cada objeto possui imagens com diferentes ˆangulos de vis˜ao e ilumina¸c˜ao, e cen´arios nos quais a cor dos objetos ´e afetada pela ilumina¸c˜ao. Algumas imagens do dataset ALOI s˜ao apresentadas na Figura 4.2.

Figura 4.2: Exemplos de imagens do dataset ALOI.

Na Tabela 4.1 caracteriza-se cada dataset, considerando-se o n´umero de classes, n´umero de amostras, al´em do n´umero m´ınimo, m´aximo e m´edio de elementos por classe. O openness (ver Equa¸c˜ao 2.4 da Se¸c˜ao 2.4) de cada dataset para 3, 6, 9, 12 e 15 classes conhecidas ´e apresentado na Tabela 4.2.

Tabela 4.1: Caracteriza¸c˜ao dos datasets utilizados. DataSet # classes # amostras Imagens por classe

min max m´edia

CALTECH 256 29780 80 800 116

ALOI 1000 110250 108 111 110

Tabela 4.2: Openness dos datasets para 3, 6, 9, 12 e 15 classes conhecidas. # classes conhecidas Openness ALOI (1000 classes) CALTECH-256 (256 classes) 3 0,9452 0,8917 6 0,9225 0,8469 9 0,9051 0,8125 12 0,8905 0,7835 15 0,8775 0,7579

(40)

4.2

Particionamento dos Conjunto de Dados

O particionamento dos conjuntos de amostras ´e baseado na metodologia proposta em [41, 42]. A seguinte metodologia foi adotada:

1. Aleatoriamente s˜ao escolhidas x classes do dataset que ser˜ao consideradas como classes conhecidas. Neste trabalho x = 3, 6, 9, 12 e 15 classes.

2. As amostras das x classes conhecidas s˜ao particionadas de modo que 80% e 20% s˜ao utilizadas no conjunto de treino e teste, respectivamente.

3. Todas as amostras das classes desconhecidas fazem parte do conjunto de teste. A Figura 4.3 mostra como se d´a o partitionamento das amostras no conjunto de treino e teste.

Figura 4.3: Particionamento das amostras em treino e teste.

Para os m´etodos Majority Voting, n˜ao h´a particionamento das amostras na fase de treino porque n˜ao se precisa da otimiza¸c˜ao de nenhum parˆametro, a floresta de cami-nhos ´otimos ´e gerada com todas as amostras do conjunto. Para os m´etodos Open-GP e Closed-GP foram simulados cen´arios de treino aberto e fechado, respectivamente. Para isto, foram feitos particionamentos nas amostras do treino, conforme apresentado nas Se¸c˜oes 4.2.1 e 4.2.2. Para todos os m´etodos, na fase de treinamento, o conjunto completo de amostras do treino ´e utilizado para gerar a floresta do classificador OPF e o conjunto de teste para avaliar o classificador.

4.2.1

Open-GP

Para os m´etodos Open-GP foi simulado um cen´ario aberto durante a fase de treino. Para isto faz-se o seguinte particionamento das amostras do conjunto de treino:

1. Das x classes conhecidas do treino, toma-se a metade delas como classes conhecidas (y classes) e a outra metade como desconhecidas (z classes).

2. O conjunto de f itting ´e formado pelo 40% das amostras das y classes conhecidas e ´

(41)

3. O conjunto validation1(v1) ´e utilizado para validar a floresta gerada nas gera¸c˜oes da programa¸c˜ao gen´etica e ´e composto por 30% das amostras das y classes conhecidas e o 50% das amostras das z classes desconhecidas.

4. O conjunto validation2 (v2) ´e usado para tratar o problema de overfitting. Este conjunto cont´em 20% das amostras das y classes conhecidas e 35% das amostras das z classes desconhecidas.

5. O conjunto validation3 (v3) ´e utilizado para procurar o melhor threshold no classi-ficador OSOPF2-OGP (Se¸c˜ao 3.1.2). Este conjunto cont´em 10% das amostras das y classes conhecidas e 15% das amostras das z classes desconhecidas.

O particionamento das amostras do treino para criar um cen´ario aberto ´e apresentando na Figura 4.4.

Figura 4.4: Particionamento Open-GP das amostras do treino. v1, v2, v3 s˜ao os conjuntos validation1, validation2 e validation3, respectivamente.

4.2.2

Closed-GP

Nos m´etodos Closed-GP ´e feito um treinamento considerando um cen´ario de classifica¸c˜ao fechado. Portanto, todas amostras do conjunto de treino foram particionadas conforme ilustrado na Figura 4.5 e descrito a seguir.

• 40% das amostras das x classes conhecidas formam o f itting que ´e usado na gera¸c˜ao da floresta do classificador OPF.

• O primeiro conjunto de valida¸c˜ao (v1 na figura) cont´em 30% das amostras das x classes e ´e utilizado para validar a floresta gerada.

• Para tratar o problema do overfitting, utiliza-se um segundo conjunto de valida¸c˜ao (v2 na figura). Este conjunto cont´em 30% das amostras das x classes.

(42)

Figura 4.5: Particionamento Closed-GP das amostras do treino. v1, v2 s˜ao os conjuntos validation1 e validation2, respectivamente.

4.3

Descritores

Neste trabalho, n˜ao se buscaram os melhores descritores para cada dataset. Foram utiliza-dos descritores de cor e textura, considerando que s˜ao tipos de descritores que contribuem com caracter´ısticas diferentes dos objetos. Os descritores usados para extra¸c˜ao de carac-ter´ıstica foram Border/Interior Pixel Classification (BIC), Color Autocorrelogram (ACC), Color Coherence Vector (CCV), Quantized Compound Change Histogram(QCCH) e Local Activity Spectrum(LAS), sendo os trˆes primeiros de cor e os dois ´ultimos de textura.

• Border/Interior Pixel Classification (BIC) [68]: A id´eia principal do descritor BIC ´

e classificar cada pixel da imagem como pixel de borda ou interior. ´E um m´etodo muito simples, eficiente, n˜ao custoso em tempo computacional e gera uma repre-senta¸c˜ao compacta (features) da imagem. Depois da quantiza¸c˜ao dos pixels das imagens, os pixels s˜ao classificados como pixels de interior se seus vizinhos tˆem a mesma cor; caso contr´ario ´e classificado como pixel de borda. Para obter a re-presenta¸c˜ao, uma vez classificados os pixels, cria-se um histograma considerando apenas os pixels de borda e um outro considerando apenas os pixels de interior. O tamanho do vetor de features gerado pelo descritor ´e 128 (64 bins para o histograma de pixels de borda e 64 para o histograma referente aos pixels de interior).

• Color Autocorrelogram (ACC) [33]: Este descritor ´e utilizado para comparar ima-gens a partir da an´alise da correla¸c˜ao espacial das cores a diferentes distˆancias. ´E um descritor eficaz, eficiente, r´apido e gera um vetor de caracter´ısticas relativamente pequeno. ´E baseado na probabilidade de encontrar um pixel de cor x a partir de um pixel de cor y a uma certa distˆancia d em uma imagem. Possui tolerˆancia a mudan¸cas em pontos de vis˜ao, diferentes tipos de ilumina¸c˜ao e altera¸c˜oes na forma. Os histogramas tradicionais de cor n˜ao contemplam nenhum tipo de informa¸c˜ao espacial. O descritor ACC por sua vez considera a correla¸c˜ao espacial local de cor e tamb´em a distribui¸c˜ao global da correla¸c˜ao espacial da imagem. O vetor gerado por este descritor possui 256 bins.

• Color Coherence Vector (CCV) [49]: O descritor CCV considera informa¸c˜ao espacial da imagem e classifica cada pixel como coerente ou incorente. Os histogramas de cor n˜ao analisam informa¸c˜ao espacial e por isto, existem imagens com aparˆencias totalmente diferentes que podem ter histogramas de cor similares. No descritor

Referências

Documentos relacionados

A espectrofotometria é uma técnica quantitativa e qualitativa, a qual se A espectrofotometria é uma técnica quantitativa e qualitativa, a qual se baseia no fato de que uma

[40] Uma hipótese implícita quando o método de captura-recaptura é usado para estimar o tamanho de uma população é a de que quando os indivíduos são marcados no processo de

Na apresentação dos dados estatísticos, ficou demonstrada à todos os participantes a dimensão da pesquisa, abrangendo o setor produtivo como um todo, enfocando a produção

Por esta razão, objetivamos analisar a política de expansão da Igreja Católica na Bahia, na década de 1950, e sua correlação com a criação do Primeiro Bispado em Vitória

De seguida, vamos adaptar a nossa demonstrac¸ ˜ao da f ´ormula de M ¨untz, partindo de outras transformadas aritm ´eticas diferentes da transformada de M ¨obius, para dedu-

Os Oficiais de Registro Civil das Pessoas Na- turais do Estado de São Paulo também têm competência para os atos notariais de reconhecimento de firma, autenticação de cópia

Ainda que hajam progressos marginais em fontes de energias alternativas, a economia energética do mundo industrial é tão profundamente dependente dos combustíveis fósseis

Código Descrição Atributo Saldo Anterior D/C Débito Crédito Saldo Final D/C. Este demonstrativo apresenta os dados consolidados da(s)