• Nenhum resultado encontrado

Aplicações em Classificação e Reconhecimento de Padrões

No documento WELLINGTON PINHEIRO tese (páginas 123-127)

O Método Dialético adaptado a Busca e Otimização

4.7 Aplicações em Classificação e Reconhecimento de Padrões

Os métodos de busca e otimização baseados em computação evolucionária podem ser utilizados em diversas aplicações onde é necessário minimizar uma determinada função custo. Uma des- sas aplicações é o uso de computação evolucionária para geração de métodos de agrupamento que, por sua vez, podem ser utilizados para implementar classificadores não supervisionados em aplicações como reconhecimento de padrões e classificação de imagens multiespectrais [131].

Assim, o problema de agrupar os elementos do conjunto Z = {z1, z2, . . . , znZ}, com nZ ele- mentos, em nGgrupos com centróides V = {v1, v2, . . . , vnG} se reduz a minimizar a função

Je= nG

i=1z

∈Gi d(z, vi) nGnG,i , (4.103)

onde d(z, vi) é uma medida de distância entre um vetor z da amostra e o centróide do i-ésimo grupo vi, podendo vir a ser a distância euclidiana, por exemplo, enquanto nG,ié o número de

elementos de Z agrupados no i-ésimo grupo, Gi, e Je é uma medida do erro de quantização [131, 105]. Os vetores candidatos a soluções são definidos da forma que segue:

x= (vT1, vT2, . . ., vTnG)T. (4.104) Logo, modelando o problema para a solução utilizando o método dialético objetivo, os pó- los podem assumir a seguinte forma, advinda da modelagem para agrupamento e classificação não supervisionada por otimização por enxame de partículas (PSO) [131, 105]:

wj= (vTj,1, vTj,2, . . . , vTj,nG) T

para 1≤ j ≤ m. Quanto à função a ser minimizada, evidentemente outras funções objetivo podem ser adotadas, uma vez que há diversas formas de se estimar o erro de quantização, como utilizar índices de fidelidade, por exemplo [132, 131].

A escolha da função objetivo a ser minimizada depende de fatores como a velocidade do processo de agrupamento, que no caso do PSO canônico costuma ser muito mais baixa do que a de algoritmos de agrupamento como o k-médias [33], por exemplo, muito embora a qualidade do agrupamento, e portanto do resultado da classificação não supervisionada, utilizando o PSO, é significativamente maior [131, 105].

Também é possível montar métodos de classificação supervisionada tendo por base o con- junto de treinamento e a otimização de funções obtidas a partir da matriz de confusão, tais como a taxa de acerto global e o índiceκ de correlação estatística [133, 134].

4.8

Conclusão

O ODM adaptado a busca e otimização é uma proposta de família de algoritmos evolucioná- rios que, apesar de sua inspiração filosófica baseada no método dialético materialista, possui muito em comum com outras abordagens evolucionárias, mas contém também importantes di- ferenças. Em comum com os algoritmos genéticos, têm-se nas etapas de crise revolucionária diversos operadores que guardam alguma semelhança com as ideias de seleção natural, cruza- mento e mutação, tais como a fusão dos pólos de baixa contradição, a geração de pólos síntese e de pólos em contradição antagônica com os pólos existentes, e a adição do efeito de crise. Contudo, ao contrário dos algoritmos genéticos clássicos (pois existem versões de algoritmos genéticos com cromossomos baseados em vetores reais), não é necessário discretizar os veto- res candidatos à solução, tal como no processo de formação de cromossomos, permitindo-se a modelagem na forma de vetores de variáveis contínuas.

Enquanto no PSO cada indivíduo (partícula) é representado por dois vetores, um vetor po- sição e um vetor velocidade, onde o vetor velocidade é atualizado em função da contribuição da melhor posição global e da melhor posição individual ou local (melhor em função do maior valor da função objetivo), tendo por sua vez o vetor posição ajustado em função do vetor ve- locidade, no ODM cada indivíduo (pólo) é representado por um vetor de pesos, ajustado em função do vetor de pesos que resulta no maior valor histórico da função objetivo (maior valor considerando-se todos os valores passados) e do vetor de pesos associado ao maior valor pre- sente da função objetivo; ou seja, enquanto no PSO os ajustes das propriedades dos indivíduos são feitos em função das contribuições globais e individuais ou locais, o ODM tem as proprie- dades dos indivíduos ajustadas em função das contribuições histórica e presente. Além disso, a maior diferença entre o ODM e o PSO está no fato de que, no PSO, o tamanho da população permanece constante ao longo de todo o processo, enquanto no ODM novos indivíduos são gerados a cada fase histórica, da mesma forma que indivíduos semelhantes são fundidos em um único indivíduo.

Este capítulo também mostrou que o Princípio da Máxima Entropia pode ser aplicado em situações onde não há modelos probabilísticos conhecidos, mas onde outras entidades fazem o papel de medidas de incerteza, como no caso das funções de pertinência histórica e contem- porânea, mostrando que esse princípio pode ser utilizado para construir métodos de busca e

otimização que possam ter sua capacidade exploratória maximizada e sua convergência garan- tida, e que é possível analisar o desempenho de um algoritmo a partir da comparação de sua versão canônica com a versão obtida a partir da aplicação do Princípio da Máxima Entropia.

No entanto, as expressões obtidas para as funções de pertinência são dependentes de um parâmetro experimental, um multiplicador de Lagrange que não pode ser definido algebrica- mente, tendo em vista que os valores de hegemonia histórica e contemporânea são dinâmicos e variantes no tempo, embora se estabilizem no tempo, dado que o método converge. Esses valores são variáveis porque se trata aqui de um método de busca e otimização.

Assim, para que possam ser tiradas melhores conclusões, é necessário realizar experimentos de minimização com funções padrão de teste, para que o desempenho da versão do algoritmo construída com o Princípio da Máxima Entropia possa ser comparado com os diversos valores possíveis do multiplicador de Lagrange e com a versão canônica, mantendo-se constantes os outros parâmetros, tais como número inicial de pólos, contradição mínima, contradição má- xima, passo contemporâneo, passo histórico, número de fases históricas, tamanho de cada fase histórica e valor limite da função objetivo como critério de parada.

No documento WELLINGTON PINHEIRO tese (páginas 123-127)