• Nenhum resultado encontrado

A seleção e extração de características tem o mesmo objetivo final, que é reduzir a dimensionalidade do conjunto de dados. Optar por uma dessas abordagens é algo que depende do problema aplicado e dos tipos de dados disponíveis. A seleção reduz o espaço de características escolhendo um subconjunto dos dados originais. Já a extração executa uma transformação nos dados com o objetivo de obter atributos que podem classificar melhor os padrões do que um subconjunto dos dados originais.

A técnica de extração desenvolvida, chamada de Extraction with Mutual Information

Based K-Medoids, apresenta uma proposta de realizar uma extração em vez da seleção

de uma característica em cada grupo, como é feito no algoritmo MIKM. Na proposta apresentada pelo método MIKM, as características são agrupadas de maneira que ao final do processo os atributos mais redundantes entre si vão estar contidos no mesmo grupo. Para isso, a técnica utiliza um algoritmo K-Medoids que baseia-se na informação mútua entre cada atributo para realizar a tarefa de agrupamento. No final do processo, são selecionadas as características que estão no centro de cada grupo. Já o EMIKM realiza uma extração em cada grupo, onde um novo atributo corresponde a média de todas as características contidas no grupo.

A extração é realizada da seguinte forma: Sendo F = f1, f2, . . . , fn o espaço de

Capítulo 4. Trabalho Desenvolvido 37

f

i é calculado usando a equação (4.1).

fi′ =

P

fj∈Cifj

|Ci|

(4.1) Essa extração pode ser definida como uma projeção linear, seja e = {e1, . . . , ek},

onde ek corresponde ao k-ésimo vetor de projeção para a k-ésima característica extraída

de Ck, a matriz de transformação W é construída de acordo com a Equação 4.2.

W = [e1, . . . , ek] (4.2) ek = [wk1, . . . , wkn]T wkj =    1/|Ck| se fj ∈ Ck; 0 caso contrário.

Dessa forma a redução de dimensionalidade em qualquer padrão xi = [f1, . . . , fn]

do conjunto de treino ou teste, pode ser feita com a multiplicação xiW.

A proposta tem o objetivo de maximar a quantidade de informação carregada sobre o conjunto original de dados na redução de dimensionalidade, para melhorar o desempenho do espaço de características reduzido na classificação de padrões.

Um pseudocódigo da extração de características é mostrado no Algoritmo 6. O método recebe como entrada um conjunto de padrões X, que pode ser tanto o conjunto de treino quanto o de teste, C como os grupos de características F formados pelo MIKM no conjunto de treino. Nas linhas 1 a 10 são calculados os vetores de projeção. Na linha 11 é construída a matriz de projeção. Por fim, a redução dimensionalidade é feita na linha 12 e Xé retornado como novo espaço de características.

Jiang et al. (2011) ao propor o MIKM não executou experimentos em bases com imagens, um dos objetivos do EMIKM é apresentar melhorias em relação ao MIKM no reconhecimento facial. Algumas bases com imagens de face podem apresentar padrões com ruídos, ao realizar o agrupamento os atributos que representam um ruído podem ficar no centro de cada grupo (CARVALHO, 2015). Executando a seleção pelo algoritmo MIKM esses atributos iriam compor o espaço reduzido de características, prejudicando o desempenho do subconjunto na classificação. Ao realizar a extração proposta pelo EMIKM, esses ruídos seriam atenuados ao tirar a média dos elementos contidos no grupo.

Algoritmo 6EMIKM

Entrada: Padrões: X = { ~x1, . . . , ~xm} com características F = {f1, f2, . . . , fn}; Grupos

Cj,∀j = 1, . . . , k gerados pelo algoritmo MIKM.

Saída: X= { ~x

1, . . . , ~xk} são os padrões com atributos extraídos de cada grupo C.

1: E ← {e1, . . . , ek} onde ek = [0, . . . , 0], |ek| = |F |;

2: Para cada Ci ∈ C faça

3: Para cadafj ∈ F faça

4: se fj ∈ Ci então 5: ei(j) ← 1/|Ci|; 6: senão 7: ei(j) ← 0; 8: fim se 9: fim para 10: fim para 11: W ← [eT 1, . . . , eTk]; 12: X← XW ; 13: Devolva X′;

39

5 Experimentos e Resultados

Este capítulo descreve os experimentos executados para avaliar o desempenho dos métodos estudados e realizar um comparativo com as técnicas propostas, que foram derivadas a partir desses métodos encontrados no estudo.

Esses experimentos, que podem ser divididos em quantitativos e qualitativos, foram executados em diversas bases de dados reais e bases com imagens de faces. Nos experimentos quantitativos foram avaliados aspectos como precisão de classificação e tempo de execução. Já nos experimentos qualitativos foi avaliado através de projeções dos dados no espaço bidimensional, a habilidade de separação dos dados de diferentes classes dos algoritmos testados.

A metodologia adotada em todos os experimentos para avaliar a precisão de classificação nos espaços de caraterísticas reduzidos por cada técnica, consistiu em executar dez validações Holdouts (com proporção de 50% dos padrões para treino e 50% para teste) e extrair a média e o desvio padrão das dez acurácias obtidas com os classificadores 1-NN e SVM. Em cada Holdout, o algoritmo para redução de dimensionalidade é executado no conjunto de treino. Após a redução do espaço de características, é calculada a acurácia no conjunto de teste com cada classificador usado.

É importante destacar que nos experimentos comparativos todos algoritmos são executados sob as mesmas condições para garantir a confiabilidade dos resultados. Em cada etapa de experimento, os dez Holdouts são os mesmos para cada algoritmo, assim como os parâmetros de cada classificador.

O classificador K-NN não possui outro parâmetro além da quantidade de vizinhos mais próximos, que foi fixada com valor 1, dessa forma podemos chamar o classificador de 1-NN. No SVM foi usada a famosa função de Kernel Gaussiano (RBF) (apresentada na Tabela 1), esse classificador depende de dois parâmetros C e γ, que foram fixados nos valores C = 1 e γ = 1/m, sendo m o número de atributos. Esses valores escolhidos são definidos por padrão em algumas bibliotecas, embora esses parâmetros possam ser ajustados para melhorar o desempenho em cada base de dados, foi decidido usar os valores padrões para facilitar a reprodução do trabalho e garantir que os algoritmos sempre sejam comparados com classificadores nas mesmas condições.

O desenvolvimento desses experimentos foi auxiliado pelo software Matlab1, que

utiliza uma linguagem de programação script própria. A maior parte dos algoritmos usados nos experimentos foi implementada pelo autor do presente trabalho, com exceção do mRMR, que foi utilizada uma implementação fornecida por (BROWN et al., 2012), e do

1

SVM, que foi utilizada a biblioteca LIBSVM (CHANG; LIN, 2011).

O capítulo está organizado da seguinte maneira: A Seção 5.1, descreve as bases de dados usadas nos experimentos. A Seção 5.2.1 apresenta um experimento visual com o algoritmo DSFFC. A Seção 5.2, descreve os experimentos realizados com o método FDSFFC e mostra os resultados dos experimentos comparativos com a técnica DSFFC. E por fim, na Seção 5.3 é apresentado os experimentos executados com o método EMIKM e um comparativo com o algoritmo EMIKM.

Documentos relacionados