• Nenhum resultado encontrado

Comparando Metaheurísticas para Treinamento de AdaBoost Aplicadas à Detecção de Plaquetas

N/A
N/A
Protected

Academic year: 2021

Share "Comparando Metaheurísticas para Treinamento de AdaBoost Aplicadas à Detecção de Plaquetas"

Copied!
8
0
0

Texto

(1)

Resumo — Este artigo se propõe a comparar o desempenho de metaheurísticas utilizadas para otimização do treinamento de uma máquina de classificação AdaBoost aplicada à detecção de plaquetas. Classificadores AdaBoost são capazes de detectar objetos com padrões complexos baseados em características simples. Foram testadas três técnicas mono-objetivos: Otimização por Enxame de Partículas, Busca por Cardumes e Algoritmos Genéticos. Os resultados obtidos mostram que o algoritmo genético obteve melhores resultados para poucas características, enquanto que Otimização por Enxame de Partículas obteve melhores resultados quando um maior número de características é utilizado. Também foram testados dois algoritmos de otimização multi-objetivos, um baseado em computação evolucionária e outro baseado em inteligência de enxames. Os algoritmos Multi-objetivos conseguiram melhores resultados do que os mono-objetivos.

Palavras-chave — Classificadores AdaBoost, Reconhecimento de

padrões, Otimização por Enxame de Partículas, Busca por Cardumes, Algoritmos Genéticos, Elementos figurados do sangue.

Abstract— This paper aims to compare the performance of different population-based meta-heuristics to train AdaBoost classifiers applied to detect platelets. AdaBoost classifiers are able to recognize complex patterns based on simple characteristics. We assessed three mono-objective techniques for AdaBoost training: Particle Swarm Optimization, Fish School Search and Genetic Algorithms. Our results show that the Genetic Algorithms outperformed the other two techniques for classifiers with just some few weak classifiers, while Particle Swarm Optimization achieved better results for classifiers with a higher number of weak classifiers, such as for twenty characteristics. We also tested two multi-objective optimizers, one based on Evolutionary Computation and another one based on Swarm Intelligence. The Multi-objective optimizers outperformed the mono-objective optimizers.

Keywords— AdaBoost classifiers, Pattern Recognition, Particle

Swarm Optimization, Fish School Search, Genetic Algorithms, Platelets detection.

I. INTRODUÇÃO

identificação e contagem de células sanguíneas é um problema importante para a análise clínica. Processos automatizados podem ajudar no aumento e na qualidade de hemogramas. Plaquetas são células sanguíneas produzidas na medula óssea através da fragmentação dos megacariócitos e

Carmelo J. A. Bastos-Filho, Universidade de Pernambuco (UPE), Recife, Pernambuco, Brasil, carmelofilho@ieee.org

Willamos A. S. Silva, Universidade de Pernambuco (UPE), Recife, Pernambuco, Brasil, wass@ecomp.poli.br

Lizandra R. M. Lira, Universidade de Pernambuco (UPE), Recife, Pernambuco, Brasil, lrml@ecomp.poli.br

sua principal função é ajudar a coagulação sanguínea em casos de ferimentos. As plaquetas podem rapidamente criar uma barreira para impedir que se perca muito sangue devido a um ferimento [1].

A baixa quantidade de plaquetas em um hemograma é chamada trombocitopenia e suas principais causas são leucemia aguda, SIDA e viroses em geral. Por outro lado, a um alto número de plaquetas é chamado trombocitose e tem como principais causas leucemia mielóide crônica, sangramentos pós-hemorrágicos e doenças infecciosas crônicas [2].

A contagem de células sanguíneas pode ser feita tanto manualmente (fazendo uso do método de Fonio, por exemplo) quanto automaticamente, usando técnicas como dispersão de luz, tecnologia de impedância ou ainda uma combinação dessas duas técnicas [2]. Métodos automatizados podem ser afetados por algumas características que podem induzir a erros, como por exemplo aglomerados plaquetários e plaquetas gigantes. Esses tipos de erros podem levar a falsos diagnósticos de trombocitopenia. Por conta disso, a acurácia na detecção de plaquetas varia entre 22% e 66% [3].

Técnicas de reconhecimento de padrão podem ser utilizadas para automatizar o reconhecimento de células sanguíneas. Neste artigo foi aplicado um tipo de classificador chamado AdaBoost [4], que tem como objetivo reconhecer padrões complexos a partir de combinações de características simples baseadas em forma que podem estar presentes nas plaquetas. A hipótese é que o uso de técnicas de inteligência computacional pode otimizar o treino do classificador, aumentando a acurácia do classificador e minimizando a quantidade de falso positivos [5]. Neste artigo, foram testados três técnicas de otimização mono-objetivos adaptadas para este propósito: Otimização por enxame de partículas (PSO - Particle Swarm Optimization), Algoritmos genéticos (GA - Genetic Algorithm) e Busca por cardume (FSS - Fish School Search); e duas técnicas de otimização multi-objetivos considerando como objetivos de otimização a taxa de falsos positivos e a miss rate (taxa de verdadeiros positivos não identificados). Os algoritmos multi-objetivos testados foram o SPEA2 e o DFMOPSO.

Este artigo está organizado da seguinte maneira: a Seção II apresenta conceitos básicos sobre o AdaBoost. Na Seção III apresentamos uma breve descrição das técnicas de inteligência computacional aplicadas neste artigo. As Seções IV e V apresentam o arranjo experimental e os resultados para a detecção de plaquetas. Por fim, na Seção VI são apresentadas as conclusões e trabalhos futuros.

Carmelo J. A. Bastos-Filho, Senior Member, IEEE, Willamos A. S. Silva, Lizandra R. M. Lira

Comparando Metaheurísticas para Treinamento

de AdaBoost Aplicadas à Detecção de Plaquetas

(2)

II. ADABOOST

AdaBoost é um algoritmo baseado em uma técnica proposta por Freund e Scaphire [6]. Um classificador AdaBoost é uma cascata de classificadores fracos na qual o erro dessa cascata decai através de seus estágios [7].

Um classificador fraco é composto por um vetor de características de Haar , um limiar e uma paridade . O objetivo é encontrar uma combinação de característica e limiar de forma a separar os exemplo positivos dos negativos. Para cada característica (classificador fraco), deve ser definido um limiar que evite a classificação incorreta. Um classificador fraco pode ser entendido como uma regra simples, mostrada em (1).

.

(1) Carbonetto [8] propôs uma equação (2) para calcular o limiar para cada classificador fraco. Esta abordagem considera o valor das características para um dado exemplo e os conjuntos de exemplos positivos ( ) e negativos ( ).

. (2) Um classificador forte pode ser entendido como uma composição de classificadores fracos, como é mostrado em (3), ou pode ser visto como uma cascata de classificadores, tal qual é mostrado na Figura 1.

. (3) A cascata rejeita uma entrada se um dos classificadores fracos decidir descartá-la. A principal vantagem de usar uma cascata de classificadores é que a imagem testada pode ser rejeitada em um estágio inicial da cascata sem precisar passar pelos estágios restantes. Isto permite uma alta velocidade computacional se os estágios estiverem definidos de maneira correta. Isto ocorre porque a grande maioria das imagens neste tipo de aplicação são negativas. Deve ser observado que as características que rejeitam a maioria das imagens devem estar localizadas no inicio da cascata para otimizar a velocidade do processo.

Figura 1. Esquema de cascata AdaBoost.

III. METAHEURÍSTICAS DE OTIMIZAÇÃO

Esta seção apresenta uma breve descrição dos algoritmos

utilizados para treinar o classificador AdaBoost. Primeiro é apresentado o Algoritmo Genético. Em seguida, a Otimização por Enxames de Partícula e o algoritmo de Busca por Cardumes. Por fim, os algoritmos multi-objetivos SPEA2 e DFMOPSO.

A. Algoritmo Genético:

Algoritmos Genéticos (GA) são inspirados na teoria da evolução de Darwin. No GA, todos os indivíduos da população possuem informação genética que descrevem suas características. GA foi proposto inicialmente por Fraser, mas foi popularizado por John Holland [8]. Este algoritmo é composto basicamente por três tipos de operadores: seleção, mutação e cruzamento. Para cada iteração, novos indivíduos são criados através da combinação da informação genética de dois pais selecionados dentre o indivíduos que pertencem à população da iteração atual. Esses indivíduos gerados formam uma população de candidatos para a próxima geração. O processo de combinação é chamado de cruzamento. Dois processos de seleção estão presentes no GA. Um é usado para selecionar os pais que serão utilizados no processo de cruzamento e o outro para selecionar quais indivíduos farão parte da população para a próxima geração. Seleção aleatória é utilizada geralmente quando o objetivo é garantir que cada indivíduo tenha a mesma probabilidade de ser escolhido. Seleção proporcional, proposta por Holland [8], usa limiares para selecionar os indivíduos que apresentam um melhor resultado para função objetivo. Seleção por torneio pode ser utilizada para evitar a seleção por roleta, já que a seleção por roleta apresenta um maior custo computacional.

O operador de mutação permite que o algoritmo escape de mínimos locais, já que adiciona novo material genético à população, aumentando assim sua diversidade. Há algumas formas de efetuar o processo de mutação: mutação uniforme (aleatória), inorder e Gaussiana. Na mutação uniforme algumas posições do vetor de genes são escolhidas em um indivíduo gerado e seus valores são alterados. Na mutação inorder, dois genes são selecionados aleatoriamente e a informação entre eles é trocada. Na mutação Gaussiana, proposta por Hinterding [9], valores em um intervalo predefinido são gerados através de uma distribuição gaussiana para decidir quais genes sofrerão mutação.

B. Otimização por enxame de Partículas:

O algoritmo de Otimização por Enxame de Partículas (PSO) foi proposto por Kennedy e Ebehart em 1995 [10]. PSO é um algoritmo composto por agentes reativos simples, chamados partículas. A principal diferença entre uma partícula e um indivíduo é que uma partícula não é descartada ao longo do processo de otimização. A partícula apenas altera sua posição dentro do espaço de busca. Cada partícula possui quatro atributos. A posição no espaço de busca, sua velocidade atual, a melhor posição visitada pela própria partícula e a melhor posição visitada por seus vizinhos até então.

A inteligência do enxame emerge da comunicação entre as partículas. Esta comunicação ocorre de acordo com a

(3)

topologia do enxame. Além disso, a topologia determina como a velocidade da partícula será calculada. As duas topologias mais comuns são a local e a global. Na topologia local, a partícula sabe apenas seu melhor resultado e a melhor posição dos seus dois vizinhos adjacentes. Por outro lado, na topologia global, cada partícula tem informação sobre todas as demais. A escolha da topologia tem um grande impacto na velocidade de convergência e na qualidade da solução encontrada pelo algoritmo. Usando o PSO local, o fluxo de informação é mais lento, causando uma convergência mais lenta. Por outro lado, essa topologia é menos susceptível à ficar preso em mínimos locais. Ao usar o PSO global se tem uma convergência mais lenta, porém é mais sujeito a problemas com mínimos locais.

Para cada iteração, a velocidade de cada partícula é calculada de acordo com (4). Após esse passo, ocorre a atualização da posição de acordo com (5).

, (4) , (5) em que e são ditas constantes de aceleração, e são valores gerados aleatoriamente por uma distribuição uniforme entre [0,1], é a melhor posição encontrada pela partícula i e é a melhor posição encontrada pela vizinhança da partícula i.

C. Busca Por Cardume:

O algoritmo de busca por cardume (FSS) foi proposto por Bastos-Filho e colaboradores em 2008 [11]. FSS foi inspirado em cardumes. Quatro operadores fazem parte deste algoritmo: movimento individual, alimentação, movimento coletivo instintivo e movimento coletivo volitivo. O movimento individual é aplicado para mover aleatoriamente o peixe para outra posição na sua vizinhança, adicionando para cada dimensão um valor gerado aleatoriamente por uma distribuição uniforme no intervalo [-1,1] multiplicado por um passo pré definido ( ) de acordo com (6). Esta nova posição é uma posição candidata e o movimento acontece apenas se a posição candidata é melhor do que a posição atual. A diferença na função objetivo e o deslocamento são avaliados de acordo com (7) e (8).

, (6) , (7) . (8) O operador de alimentação aumenta ou diminui o peso do peixe ( ) baseado no sucesso após o movimento individual. O novo peso do peixe é calculado usando a diferença da função objetivo normalizada pela variação máxima dessa função na iteração atual, mostrado em (9).

. (9) O movimento coletivo instintivo é influenciado pelos peixes que melhoraram sua função objetivo no movimento individual. Deve-se determinar a direção para onde o cardume,

como um todo, foi movido e, após determinar, os peixes devem ser deslocados conforme a equação (11).

, (10)

. (11) O movimento volitivo coletivo, por sua vez, deve ocorrer após o coletivo instintivo. Esse movimento ocorre de acordo com a média do peso do cardume. Se o peso do cardume aumentou, significa que este obteve sucesso na sua busca, então o cardume deve contrair em torno do baricentro de acordo com a equação (13). Caso contrário, deve expandir de acordo com a equação (14).

(12)

, (13) , (14) D. SPEA2:

Do inglês Strenght Pareto Evolutionary Algorithm 2, foi proposto por Zitzler [12] e trata-se de um algoritmo de otimização multi-objetivos evolucionário com comportamento elitista. Esse algoritmo faz uso de duas populações, uma interna ( ) e um arquivo externo ( ). Em serão armazenadas apenas soluções ditas não dominadas encontradas pelo algoritmo. É dito que uma solução domina a outra se para todos os objetivos do problema em questão for melhor do que .

O SPEA2 faz uso da função da força de Pareto, que corresponde ao número de indivíduos que o indivíduo i consegue dominar, de acordo com (15):

, (15) onde o símbolo representa a relação de dominância de Pareto e o número de soluções em e dominadas pela solução i é representado pelo próprio valor i, ou seja, S(i)=0 para as soluções que não dominam nenhuma outra.

Além disso, em alguns casos se faz necessário o corte de elementos não dominados nos casos onde esta quantidade ultrapassa o tamanho máximo do arquivo externo. A cada iteração do algoritmo de corte de soluções a solução com a menor distância para seu vizinho é removida e, em caso de empate, usa-se a segunda menor distância para a realização do cálculo, e assim sucessivamente.

E. DFMOPSO:

Do inglês Diversity Factor Multi-Objective Particle Swarm Optimization, o DFMOPSO [13] também é um algoritmo de otimização multi-objetivos baseado em inteligência de

(4)

enxames (mais especificamente o PSO) e no critério de dominância. Também faz uso de um arquivo externo para armazenar as soluções não dominadas. Este algoritmo faz uso de torneio binário entre duas soluções não dominadas selecionadas do arquivo externo considerando o DF (fator de diversidade) de cada solução para seleção de um líder cognitivo que só será atualizado caso haja uma nova solução que domine o atual líder.

O mecanismo de corte de soluções para limitar o tamanho do arquivo externo utiliza o crowding distance (CD), descartando as soluções com piores valores para esta métrica. Este valor pode ser calculado ao se estimar o tamanho do maior cubóide em torno da solução i sem que qualquer outra solução se encontre neste cubóide.

A velocidade da partícula no DFMOPSO depende do líder social , também possui coeficientes de aceleração e valores aleatórios tal qual o PSO e um fator de constrição para ponderar a equação de atualização de velocidade das partículas, como mostrado em (16).

.(16) IV. ABORDAGENS PARA OTREINAMENTO ADABOOST

Para as metaheurísticas consideradas, foi usada a mesma representação de conhecimento. O indivíduo, partícula ou peixe é representado por um vetor que contem um conjunto de classificadores fracos. Cada classificador fraco deve ser considerado como um estágio da cascata. Cada classificador fraco i é composto por seu tipo (o tipo da característica de Haar), a posição de referência do classificador na imagem (Xi,Yi), o tamanho do classificador nos dois eixos (dXi,dYi) e

seu limiar, como pode ser visto na Figura 2. Nas subseções a seguir são apresentados os esquemas de treinamento da cascata pelo treinamento usando as meta-heurísticas.

Figura 1. Esquema de cascata AdaBoost. A. Detecção de plaquetas usando GA:

O Algoritmo 1 apresenta o pseudocódigo do GA-AdaBoost. A taxa de cruzamento é de 50% com a seleção dos pais feita aleatoriamente. A taxa de mutação foi inicializada em 5% e decrementada em 1% a cada 1.000 iterações. O processo de seleção de cada geração selecionou aleatoriamente 27 indivíduos (pertencendo tanto à geração atual quanto às soluções geradas por cruzamento) mais os dois melhores indivíduos da população atual e o melhor indivíduo gerado pelo processo de cruzamento. Foram usados 30 indivíduos.

B. Detecção de plaquetas usando PSO:

O Algoritmo 2 apresenta o pseudocódigo para o PSO-AdaBoost. O tipo dos classificadores foi limitado entre [0,3]. O limite das posições e velocidade para os eixos X e Y foram limitados em [-10, 10], bem como o tamanho do classificador. Os valores para as constantes de aceleração são 2,05 e ao fator de constrição igual a 0,72984. As velocidades passara a ser

calculadas de acordo com as equações (17) e (18). Foram usadas 30 partículas.

,(17)

. (18)

C. Detecção de plaquetas usando FSS:

O Algoritmo 3 apresenta o pseudocódigo do FSS-AdaBoost. Os pesos dos peixes foram limitados no intervalo [1,20]. Os peixes foram inicializados com peso 10. Tal qual na abordagem do PSO, foi limitado o movimento nos classificadores fracos. o passo individual foi definido como 1 para o tipo da característica e 2 para os demais parâmetros. O passo volitivo, por sua vez, foi definido como 1 para o tipo da característica e 3 para os demais parâmetros. Foram usados 30 peixes.

D. Detecção de plaquetas usando SPEA2:

O treinamento do SPEA2-AdaBoost teve o número de iterações limitado em 1.000. As partículas foram inicializadas com valores aleatórios. O tamanho da população e o tamanho máximo do arquivo externo foram definidos como 100. O Algoritmo 4 apresenta o pseudocódigo SPEA2-AdaBoost.

(5)

E. Detecção de plaquetas usando DFMOPSO:

O treinamento do DFMOPSO-AdaBoost contou também com 1.000 iterações, 100 partículas na população e arquivo externo limitado em 100 partículas. Os valores das constantes de aceleração foram definidas aleatoriamente com valores entre 1,5 e 2,5. Clerc [14] demonstrou que quando há convergência. Caso contrário, as partículas movem-se em espiral e de forma lenta. No caso dessa condição não ser satisfeita, o fator de constrição assume valor 1. O percentual de mutação do DFMOPSO foi definido como 0,5.

V. ARRANJO EXPERIMENTAL

Foi utilizado um conjunto de imagens gerado de repositórios hematológicos com 147 plaquetas e 556 não-plaquetas. Cada conjunto foi dividido em dois sub-grupos: o

subconjunto de teste e o de treinamento. O subconjunto de treinamento detinha 75% das imagens (110 plaquetas e 417 não plaquetas), enquanto que o restante formou o subconjunto de teste (37 plaquetas e 139 não plaquetas).

Foram utilizados quatro tipos de características de Haar que podem ser vistos na Figura 3. Para os algoritmos mono-objetivos, foram utilizadas 10.000 iterações e a função objetivos sendo a diferença entre a taxa de classificação e a taxa de falso positivo.

Figura 3. Características de Haar.

VI. RESULTADOS

As Figuras 4, 5 e 6 mostram as curvas de convergência dos algoritmos de otimização mono-objetivos ao longo das iterações para 5, 10 e 20 estágios, respectivamente. Para 5 estágios todos os algoritmos obtiveram praticamente o mesmo resultado, porém o GA-AdaBoost apresentou um resultado um pouco melhor. Deve-se observar que a curva de convergência do GA-AdaBoost ainda não apresentou parada no seu crescimento enquanto as demais apresentaram estagnação em um máximo local. Para 10 estágios, FSS-AdaBoost apresentou o pior resultado. PSO-AdaBoost e GA-AdaBoost atingiram os melhores resultados, porém o PSO-AdaBoost convergiu bem mais rápido, tendo precisado de apenas 2.000 iterações para convergir. Para 20 estágios, o PSO-AdaBoost apresentou o melhor resultado. A hipótese é que o GA-AdaBoost não conseguiu lidar com a alta dimensionalidade deste problema. Deve-se observar que para 20 estágios são 120 variáveis a serem otimizadas.

As Figuras 7 e 8 representam os boxplots para a taxa de classificação e de falso positivo, respectivamente, para 5 classificadores. O FSS-AdaBoost obteve a maior taxa de acerto, porém também obteve a maior taxa de falso positivo. GA-AdaBoost obteve a melhor taxa de falso positivo.

(6)

Figura 4. Evolução do fitness para 5 classificadores fracos.

Figura 5. Evolução do fitness para 10 classificadores fracos.

Figura 6. Evolução do fitness para 20 classificadores fracos.

As Figuras 9 e 10 apresentam os boxplots para a taxa de classificação e de falso positivo para 10 classificadores fracos. Novamente, FSS-AdaBoost apresentou a mais alta taxa de classificação, com a menor dispersão, mas também obteve a maior taxa de falso positivo.

Figura 7. Boxplot da taxa de classificação para 5 classificadores fracos.

Figura 8. Boxplot da taxa de falso positivo para 5 classificadores fracos.

Figura 9. Boxplot da taxa de classificação para 10 classificadores fracos.

As Figuras 11 e 12 apresentam os boxplots para a taxa de classificação e falso positivo para uma cascata com 20 estágios. FSS-AdaBoost e PSO-AdaBoost apresentaram as maiores taxas de classificação, porém o FSS-AdaBoost apresentou a maior taxa de falso positivo. O GA-AdaBoost apresentou os piores resultados para este caso. Isso provavelmente ocorreu pelo GA-AdaBoost não ter sido capaz de atingir uma convergência diante da alta dimensionalidade neste caso.

(7)

Figura 10. Boxplot da taxa de falso positivo para 10 classificadores fracos.

Figura 11. Boxplot da taxa de classificação para 20 classificadores fracos.

Figura 12. Boxplot da taxa de falso positivo para 20 classificadores fracos.

Para a análise de convergência dos algoritmos multi-objetivos foi utilizada a métrica de hypervolume. Nesta métrica se calcula a área do Pareto em relação a um dado ponto de referência. Neste trabalho comparou-se o Pareto formado pelas melhores soluções ao longo das 30 simulações em relação ao ponto (1,1).

As Figura 13 e 14 apresentam a evolução dos valores de hypervolume ao longo das iterações para o SPEA2 e para o DFMOPSO, respectivamente. Observando-os pode-se concluir que ambos os algoritmos convergiram para cascatas de classificadores com 5, 10 e 20 classificadores fracos. Pode-se

perceber uma convergência mais rápida para o algoritmo baseado em inteligência de enxames, o que já era esperado pela natureza do algoritmo.

Figura 13. Análise da evolução do hypervolume para o SPEA2.

Figura 14. Análise da evolução do hypervolume para o DFMOPSO.

As Figuras 15 e 16 apresentam gráficos de comparação das Frentes de Pareto para o SPEA2 e o DFMOPSO, respectivamente, para 5, 10 e 20 classificadores fracos. Pode-se obPode-servar que o SPEA2 com 10 classificadores obteve os melhores resultados, enquanto que no caso do DFMOPSO a melhor solução foi obtida com 5 classificadores fracos.

(8)

Figura 16. Frentes de Pareto obtidas pelo DFMOPSO.

A Figura 17 apresenta um comparativo entre as duas melhores soluções multiobjetivos encontradas: SPEA2 com 10 e DFMOPSO com 5 classificadores fracos. Pode-se observar que a solução do SPEA2 com 10 classificadores oferece uma frente de Pareto que domina a melhor frente de Pareto obtida pelo DFMOPSO. Isto mostra que o SPEA2 conseguiu resultados ligeiramente melhores do que o DFMOPSO, apesar de apresentar uma convergência mais lenta.

Figura 17. Comparação dos melhores paretos obtidos.

VII. CONCLUSÕES

Este artigo compara a aplicação de três diferentes técnicas de inteligência computacional mono-objetivos para treinar o AdaBoost para detecção de plaquetas. PSO-AdaBoost é um algoritmo com grande capacidade de efetuar buscas em profundidade. GA-AdaBoost possui uma grande capacidade de efetuar busca em largura, enquanto que o FSS-AdaBoost possui grande capacidade de escapar de mínimos locais e se auto regular na habilidade de busca em largura e profundidade. GA-AdaBoost apresentou um desempenho um pouco melhor do que os demais para poucos estágios provavelmente por sua capacidade em explorar o espaço de busca. Por outro lado, esse algoritmo apresentou sérios problemas para convergir para a cascata de 20 estágios por conta da sua alta dimensionalidade. PSO-AdaBoost atingiu resultados similares ao GA-AdaBoost para uma baixa quantidade de classificadores fracos e claramente obteve

melhores resultados do que o GA-AdaBoost para o classificador com muitos classificadores fracos. FSS-AdaBoost atingiu as melhores taxas de classificação, porém não conseguiu ser restritivo o suficiente para diminuir sua taxa de falso positivo. Dentre as soluções utilizando algoritmos multi-objetivos, pode-se observar que o SPEA2-AdaBoost com dez classificadores apresentou o melhor resultado dentre todas as Frentes de Pareto obtidas tanto para o SPEA2-AdaBoost quanto para o DFMOPSO-AdaBoost. Pode-se também perceber que os resultados conseguidos para as técnicas multi-objetivas foram muito superiores aos resultados conseguidos pelas técnicas mono-objetivos. Considere o SPEA2 com 10 classificadores fracos, pode-se perceber que foram obtidas soluções com taxa de falso positivo de 0,01 e miss rate de 0,01, enquanto que o GA com 10 classificadores apresentou taxa de falso positivo de 0,07 e miss rate de 0,14. No futuro, pretende-se utilizar as soluções não-dominadas para compor um máquina de comitê por votação majoritária.

REFERÊNCIAS

[1] D. S. Vanni, B. Horstmann, A. M. Benjo, J. Paulo, L. Daher, S. Kanaan, and M. Sleiman, “Óxido nítrico  : inibição das plaquetas e participação na formação do trombo Nitric oxide  : inhibition of platelets and participation in thrombus formation,” J. Bras. Patol. Med. Lab. vol. 43 pp. 181–189, 2007.

[2] L. A. C. Leite, N. M. Silva Junior, M. S. Miranda, “Comparação Entre a Contagem de Plaquetas pelos Métodos Manual e Automatizado”, Newslab, v. 81 pp. 106-114, 2007.

[3] S. R. Comar, H. S. M. Danchura, and P. H. Silva, “Contagem de plaquetas: avaliação de metodologias manuais e aplicação na rotina laboratorial,” Rev. Bras. Hematol. Hemoter., vol. 31, no. 6, pp. 431–436, 2009.

[4] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” Proc. 2001 IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit. CVPR 2001, vol. 1, no. C, pp. I–511–I–518, 2001. [5] A. C. A. Firmo, “Classificação Adaboost com Treinamento por Enxame

de Partículas para Diagnóstico da Esquistossomose Mansônica no Litoral de Pernambuco Classificação Adaboost com Treinamento por Enxame de Partículas para Diagnóstico da Esquistossomose Mansônica no Litoral.”, M.Sc. Thesis, Recife, 2010.

[6] Y. Freund and R. E. Schapire, “A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting,” J. Comput. Syst. Sci., vol. 55, no. 1, pp. 119–139, Aug. 1997.

[7] R. E. Schapire, Y. Freund, M. Hill, and P. Bartlett, “Boosting the margin  : A new explanation for the effectiveness of voting methods,” Annals of Statistics, vol. 26, no. 5, pp. 1651-1686, Oct. 1997.

[8] Andries P. Engelbrecht, Computational Intelligence - And Introduction, 2nd ed., Ed. Wileym, England, 2007.

[9] R. Hinterding, “Gaussian Mutation and Self-adaption for Numeric Genetic Algorithms,” Evolutionary Computation, 1995., IEEE International Conference on, vol. 1, pp. 384.

[10] J. Kennedy and R. Eberhart, “Particle swarm optimization,” Opt. Express, vol. 4, no. 3, pp. 1942–1948, 1995.

[11] C. J. A. Bastos-Filho, F. B. Lima-Neto, M. F. C. Sousa, M. R. Pontes, and S. S. Madeiro, “On the influence of the swimming operators in the fish school search algorithm,” in Conference on, 2009, no. October, pp. 5012–5017.

[12] E. Zitzler, M. Laumanns e S. Bleuler, "A Tytorial on Evolutionary Multiobjective Optimization," Swiss Federal Institute of Technology, Zurich. Computer Engineering and Networks Laboratory (TIK), Gloriastrasse, Switzerland.

[13] D. Silva, C. J. A. Bastos-Filho, "A speed-constrained nulti-objective particle swarm optimizer guided by a diversity metrics", The Latin American Congress on Computational Intelligence, LA-CCI 2014, San Carlos de Bariloche, Argentina, 2014. pp. 1-6.

[14] M. Clerc, J. Keneddy, "The particle swarm - explosion, stability and convergence in a multidimensional complex space," IEEE Transactions on Evolutionary Computation, vol. 6, no. 1, pp. 58-73, 2002.

Referências

Documentos relacionados

Para a OGCIN, o Particle Swarm Optimization com Random Keys (PSORK) foi modelado com as partículas do enxame tendo uma posição x i t em um espaço de busca de 20 dimensões,

O primeiro item, “Mercado de Call Center: histórico, seus desafios, tendências para futuro” traz um recorte sobre o segmento de Call Center e suas principais

O uso de algoritmos evolutivos vem se expandindo ao longo dos anos, em especial a utilização da técnica de Enxame de Partículas conhecida como PSO (Particle Swarm Optimization),

Resistance to American foul brood disease by honey bee colonies Apis mellifera, bred for hygienic behavior. Varroa jacobsoni infestation in untreated honey bee (Hymenoptera:

Quando você cria um novo domínio de classe de serviço e especificar as suas entidades no novo domínio, o framework RIA Services cria automaticamente um método de consulta para cada

Biology, diagnosis and treatment of Malassezia dermatitis in dogs and cats Clinical Consensus Guidelines of the World Association for Veterinary Dermatology..

Inclui também a realização da análise experimental com quantidades mais elevadas de tarefas a escalonar, com o objetivo de determinar qual dos algoritmos tem melhor capacidade

Objetivos: Determinar quais parâmetros espaço-temporais são preditores do andar de indivíduos com doença de Parkinson idiopática para os testes de resistência aeróbia e