• Nenhum resultado encontrado

Paradigmas para selec¸˜ao de atributos

7.2 Conceitos B´asicos em Selec¸˜ao de Atributos

7.2.1 Paradigmas para selec¸˜ao de atributos

Algoritmos que realizam selec¸˜ao de atributos podem ser classificados em trˆes principais categorias, dependendo deles utilizarem ou n˜ao o algoritmo que constr´oi o modelo de predic¸˜ao no

96 CAP´ITULO 7. EXPERIMENTOS COM SELEC¸ ˜AO DE ATRIBUTOS

momento de selecionar os atributos (Kohavi & John, 1997): (i) abordagem filtro; (ii) abordagem

wrapper; e (iii) m´etodos embutidos (do inglˆes, embedded). Existem tamb´em abordagens h´ıbridas,

envolvendo mais de uma categoria ao mesmo tempo (Das, 2001; Liu & Yu, 2005).

∙ Abordagem Filtro

Os algoritmos pertencentes `a primeira categoria s˜ao independentes do modelo que ser´a empregado posteriormente. Esses algoritmos trabalham com propriedades estat´ısticas intr´ınsecas dos dados, como a correlac¸˜ao, informac¸˜ao m´utua e entropia cruzada, na tentativa de identificar a relevˆancia e/ou redundˆancia de cada atributo.

Mesmo sem considerar o impacto do uso efetivo do subconjunto de atributos selecionados, a selec¸˜ao ´e realizada com a expectativa de melhorar o desempenho e facilitar o treinamento do modelo. Por ela ser considerada como uma etapa de filtragem do conjunto de dados, vem a denominac¸˜ao filtro. O sucesso desse tipo de m´etodo geralmente decorre do fato de se utilizar uma medida de correlac¸˜ao linear/n˜ao-linear robusta, assim como uma estrat´egia de busca capaz de fugir de m´ınimos locais.

Uma vantagem dos algoritmos na categoria filtro ´e que a selec¸˜ao de atributos precisa ser executada apenas uma vez e, ent˜ao, diferentes modelos podem ser empregados. Outras vantagens s˜ao seu baixo custo computacional e sua capacidade de lidar com conjuntos de dados de dimens˜ao elevada (Saeys et al., 2007). Algoritmos pertencentes a essa abordagem s˜ao muito utilizados atualmente, principalmente na estat´ıstica.

Uma desvantagem ´e que a abordagem filtro negligencia a interac¸˜ao com o modelo, o que n˜ao garante bons resultados finais para qualquer tipo de classificador ou regressor.

Desta forma, a abordagem filtro ´e mais indicada quando existe um interesse maior na obtenc¸˜ao de um conjunto de dados simplificado e quando os recursos computacionais dispon´ıveis s˜ao limitados em comparac¸˜ao com a dimens˜ao do problema.

Exemplos cl´assicos de algoritmos nessa categoria s˜ao o FOCUS (Almuallim & Dietterich, 1991), o RELIEF (Kira & Rendell, 1992) e aqueles baseados no conceito de Markov blanket (Castro & Von Zuben, 2009b).

∙ Abordagem Wrapper

A abordagem wrapper seleciona atributos de acordo com sua utilidade para um dado modelo de predic¸˜ao. Para cada subconjunto de atributos a ser avaliado ´e treinado um classificador ou regressor, representando o modelo, e seu desempenho ´e utilizado como medida de qualidade desse subconjunto. O nome vem do fato do algoritmo envolver (do inglˆes, wrap) o modelo (classificador ou regressor) como parte do processo de selec¸˜ao dos atributos.

7.3. EXPERIMENTOS COMPUTACIONAIS 97

Usualmente, os modelos empregados para avaliar subconjuntos de atributos, os quais exercem o papel de classificador ou regressor, s˜ao ´arvores de decis˜ao (Bala et al., 1996), k-vizinhos mais pr´oximos (Punch et al., 1993), sistemas de regras (Vafaie & DeJong, 1993), na¨ıve Bayes (Cant´u-Paz, 2002), redes neurais (Brotherton & Simpson, 1995) e sistemas fuzzy (Castro et al., 2004).

Essa estrutura permite que as t´ecnicas wrappers busquem atributos que sejam relevantes para um modelo espec´ıfico. Desta forma, os resultados de um wrapper n˜ao possuem garantias de bom desempenho quando aproveitados para um outro tipo de modelo.

Esta abordagem requer maior esforc¸o computacional que as t´ecnicas da abordagem filtro, especialmente quando a construc¸˜ao do modelo ´e computacionalmente intensiva. Entretanto, resultados reportados na literatura indicam que ela apresenta melhor desempenho quando comparada com a abordagem filtro (Cant´u-Paz, 2002). Um outro ponto desfavor´avel ´e a tendˆencia de sobre-ajuste (overfitting) dos dados, principalmente quando o n´umero de instˆancias ´e pequeno.

Apesar das desvantagens, o uso da abordagem wrapper justifica-se devido ao seu objetivo prim´ario: o de obter um subconjunto de atributos que seja o mais indicado para o modelo a ser empregado na resoluc¸˜ao do problema. ´E importante ressaltar que, al´em de selecionar o subconjunto de atributos, a abordagem wrapper tamb´em permite obter o pr´oprio modelo j´a treinado como consequˆencia do processo de selec¸˜ao de atributos.

O uso de wrappers ´e indicado para casos em que o n´umero de amostras ´e reduzido e quando o modelo a ser empregado j´a est´a bem definido.

∙ M´etodos embutidos

Os m´etodos embutidos envolvem a selec¸˜ao de atributos como parte integrante de algum algoritmo de aprendizado de m´aquina. Nesses algoritmos, o processo de selec¸˜ao n˜ao ´e claramente diferenci´avel do treinamento do modelo e, assim como no caso da abordagem wrapper, os resultados obtidos s˜ao calibrados em relac¸˜ao a um classificador ou regressor espec´ıfico.

Esta classe de algoritmos ´e comparativamente pouco discutida na literatura geral de selec¸˜ao de atributos. Os algoritmos possuem poucas propriedades em comum e, por isso, s˜ao melhor explorados na literatura de aprendizado de m´aquina. Exemplos de m´etodos embutidos s˜ao ´arvores de decis˜ao, como o CART (Classification and Regression Trees), proposto por Breiman et al. (1984), e as M´aquinas de Vetores-Suporte (Rakotomamonjy, 2003).

7.3

Experimentos Computacionais

Nesta sec¸˜ao, s˜ao descritos os experimentos realizados para avaliar a viabilidade dos algoritmos BAIS e MOBAIS na tarefa de selec¸˜ao de atributos para problemas de classificac¸˜ao de padr˜oes.

98 CAP´ITULO 7. EXPERIMENTOS COM SELEC¸ ˜AO DE ATRIBUTOS

Os experimentos est˜ao divididos e ser˜ao apresentados em duas partes (Subsec¸˜oes 7.3.2 e 7.3.3). Em ambos os experimentos, foi utilizada a abordagem wrapper, ou seja, cada soluc¸˜ao candidata foi avaliada mediante a acuidade de um classificador. A diferenc¸a ´e que, na primeira parte dos experimentos, a selec¸˜ao de atributos ´e uma tarefa de otimizac¸˜ao mono-objetivo (maximizar acuidade do classificador) e, portanto, o BAIS foi aplicado. J´a na segunda parte, ela ´e multi-objetivo (maximizar acuidade do classificador e minimizar n´umero de atributos selecionados) e, por isso, MOBAIS foi utilizado.

Os principais objetivos dos experimentos s˜ao: (i) analisar a escalabilidade dos algoritmos propostos quando aplicados a conjuntos de dados de alta dimens˜ao, e (ii) comparar os resultados obtidos com os resultados produzidos por outros algoritmos da literatura.

Nas subsec¸˜oes seguintes, s˜ao apresentados os conjuntos de dados utilizados e os resultados obtidos.

7.3.1

Descric¸˜ao dos conjuntos de dados

Foram considerados 10 problemas de classificac¸˜ao, obtidos do UCI Repository of Machine

Learning Databases (Asunci´on & Newman, 2007): WDBC, Bupa, Ionosphere, Pima, Wine, Iris,

Mushroom, Sonar, Card e Vote. Na Tabela 7.1, s˜ao apresentadas as caracter´ısticas de cada um deles, com n´umero total de instˆancias, n´umero de atributos e n´umero de classes. Estes conjuntos de dados s˜ao amplamente utilizados na literatura e, por isso, foram utilizados nos experimentos.

Tabela 7.1: Caracter´ısticas dos conjuntos de dados.

Conjunto de dados # Instˆancias # Atributos # Classes

WDBC 569 30 2 Bupa 345 6 2 Ionosphere 350 34 2 Pima 768 8 2 Wine 178 13 3 Iris 150 4 3 Mushroom 8124 22 2 Sonar 208 60 2 Card 690 15 2 Vote 435 16 2

Os atributos cont´ınuos foram discretizados usando um procedimento proposto por Dougherty et al. (1995), o qual aplica a m´etrica Comprimento M´ınimo de Descric¸˜ao (MDL, do inglˆes Minimum

7.3. EXPERIMENTOS COMPUTACIONAIS 99

Bayes) pudesse manipular os dados de forma mais eficiente. Embora existam vers˜oes do na¨ıve Bayes para lidar tanto com atributos discretos como cont´ınuos, melhores desempenhos s˜ao obtidos quando os dados s˜ao discretizados (Dougherty et al., 1995).

Os conjuntos de dados foram testados utilizando a validac¸˜ao cruzada de 10 pastas. O conjunto de dados ´e dividido em 10 subconjuntos disjuntos de igual tamanho, sendo 9 subconjuntos para treinamento e 1 para teste. Esse procedimento ´e realizado dez vezes, permutando-se todos os subconjuntos. A capacidade de generalizac¸˜ao do classificador ´e estimada tomando-se a m´edia da taxa de classificac¸˜ao correta sobre os 10 subconjuntos de teste.

A validac¸˜ao cruzada de 10 pastas foi realizada 10 vezes. Portanto, os algoritmos foram executados 100 vezes e o resultado da classificac¸˜ao ´e a m´edia sobre essas 100 execuc¸˜oes usando os conjuntos de teste.