• Nenhum resultado encontrado

Aprendizado Não-Supervisionado – Clustering

2. Fundamentação Teórica

2.3 Aprendizado Não-Supervisionado – Clustering

Todas as abordagens estudadas até aqui contam com o fato de se conhecer previa- mente, no conjunto de treino, para cada instância, o valor do atributo alvo, atuando, assim, como “professor” da máquina, ou seja, o aprendizado é supervisionado. Há casos, porém, em que não se conhece, com antecedência, o valor do atributo alvo. O processo de apren- dizado, portanto, é não supervisionado por não dispor de um atributo alvo.

Na abordagem de clustering, as instâncias são comparadas entre si e organizadas em grupos. Os grupos resultantes deste processamento poderão atuar como o conjunto de

Figura 2.9 – Simple Linkage (a), considera a máxima similaridade, ou seja, os termos mais próximos. Complete Linkage (b), considera a mínima similaridade, ou seja, os termos mais distantes. Average Linkage (c), considera a média das similaridades entre todos os termos de cada cluster

atributos-alvo na categorização de textos. Desta maneira, aplicam-se critérios que deter- minem o grau de semelhança entre as instâncias. Em geral, os grupos resultantes serão compostos de instâncias com alto grau de semelhança entre si e as instâncias de grupos distintos deverão ter um baixo grau de semelhança entre si.

Deste problema emergem dois desafios:

1. agrupar as instâncias utilizando-se de critérios que determinem a semelhança entre as instâncias de um mesmo grupo e que as diferenciem dos demais grupos;

2. rotular os grupos, uma tarefa opcional1, cuja necessidade depende da aplicação e,

freqüentemente, realizada através de intervenção manual.

É importante notar que os métodos de agrupamento descritos a seguir têm sido utiliza- dos para solucionar problemas nos mais diversos campos do conhecimento e a natureza dos dados, por esta razão, varia consideravelmente. Os dados podem ser as linhas de uma tabela em um banco de dados, os pixels de uma imagem, os frames de um vídeo, os do- cumentos em um sistema de arquivos, entre outros. No âmbito deste estudo, passaremos a enfocar as situações em que o data set é um corpus, os documentos que compõem o corpus são as instâncias e as palavras que os compõem são os atributos destas instâncias ou, na maioria das vezes, se tornam a matéria-prima da qual obtemos os atributos.

Segundo Tan et al. [TSK09], várias são as estratégias empregadas nos algoritmos de clustering. Elas podem variar segundo:

1. a quantidade de grupos ao quais uma instância pode ser atribuída:

(a) os algoritmos que atribuem cada instância a um único grupo são denominados algoritmos de hard clustering;

1Suponha, por exemplo, uma conversão de uma imagem bitmap com profundidade de pixel de 32 bits para

uma imagem indexada com profundidade de 8 bits [Alp04]. As cores semelhantes serão agrupadas e o grupo será substituído por uma única cor, representada por um índice. Fica clara a absoluta inutilidade de se atribuir nomes a cada grupo.

(b) os que atribuem a múltiplos grupos se denominam algoritmos de soft clustering que tendem a ser mais lentos que os de hard clustering, cuja complexidade geral- mente aproxima-se de O(n), ao passo que os de soft clustering ficam em torno de O(n2) [SKK00];

2. a relação entre os grupos:

(a) os algoritmos hierárquicos organizam os grupos em forma de árvores de catego- rias, denominadas dendogramas, onde os nós folhas representam as instâncias, a raiz é um único cluster mais genérico que os demais e os nós intermediários representam clusters de variado grau de especificidade [HTF+05, TSK09]. Há

três maneiras populares de medição da similaridade entre os clusters, conforme ilustrado na Figura 2.9:

i. Simple Linkage: dados dois clusters P e Q, a similaridade entre os dois é definida como a maior similaridade entre duas instâncias p ∈ P,q ∈ Q [TSK09], tende a definir grupos muito grandes [HTF+05];

ii. Complete Linkage: dados dois clusters P e Q, a similaridade entre os dois é definida como a menor similaridade entre duas instâncias p ∈ P,q ∈ Q [TSK09], tende a definir grupos compactos, mas pode haver instâncias em um grupo mais próximas de instâncias de grupos vizinhos que de instâncias de seu próprio grupo [HTF+05];

iii. Average Linkage: dados dois clusters P e Q, a similaridade entre os dois é definida como a média das similaridades entre todas duas instâncias p ∈ P, q ∈ Q [TSK09]. Equilíbrio entre prós e contras das medidas anteriores [HTF+05]. Observando-se a Figura 2.9, nota-se que a opção pelo Average

Linkage eleva a complexidade do algoritmo.

(b) os algoritmos particionais ou flat não organizam os grupos em hierarquias [TSK09]; 3. a completude das atribuições:

(a) os algoritmos que descartam instâncias são chamados parciais [TSK09];

(b) aqueles que atribuem todas instâncias aos grupos resultantes são os comple- tos [TSK09];

4. o critério de atribuição de instâncias aos grupos:

(a) os algoritmos baseados em protótipo são aqueles que representam o grupo medi- ante um indivíduo ideal, que pode ser uma das instâncias (medóide) ou calculado a partir das instâncias integrantes do grupo (centróide) [TSK09];

(b) os algoritmos baseados em grafos determinam a atribuição ao grupo pela exis- tência de alguma relação de pertinência entre seus indivíduos [TSK09];

Figura 2.10 – O algoritmo K-Means pressupõe que as instâncias sejam resultado da super- posição de distribuições gaussianas que compartilham mesma variância

Figura 2.11 – O algoritmo EM pressupõe que as instâncias sejam resultado da superposição de distribuições gaussianas; as variâncias poderão ser distintas

(c) os algoritmos baseados em densidade delimitam os grupos detectando regiões com maior incidência de instâncias [TSK09].

2.3.1 O Algoritmo K-Means

Entre os algoritmos clássicos de hard clustering e, ainda, muito popular, está o K-means, proposto por MacQueen [Mac67], que pressupõe que a relação de pertinência entre as ins- tâncias e grupos obedece a funções de distribuição de probabilidade [Mit97]. O K-means busca descobrir os centróides de cada grupo estimando as médias geradoras de cada grupo/distribuição e quais instâncias foram geradas por quais distribuições [Mit97, Alp04].

Para tanto, realiza-se iterações em 2 passos:

1. atribui cada instância ao centróide mais próximo/semelhante;

2. recalcula os centróides como o ponto médio das instâncias a ele atribuídas; estas iterações encerram-se quando da convergência dos centróides [TSK09].

Visto que desejamos atuar no ramo do Direito, ressaltamos que o entrelaçamento de diferentes assuntos é reconhecidamente a maioria dos casos [CAKZ+05]. Por esta razão,

espera-se que soluções de hard clustering tenham mais efetividade apenas ao se processar documentos que discorram acerca de um único tema.

2.3.2 Algoritmo Expectation-Maximization (EM)

O algoritmo EM, proposto por Dempster, Laird e Rubin [DLR77], assim como o K-Means, pressupõe que os grupos são determinados por distribuições de probabilidade gaussianas. No entanto, enquanto no K-Means as distribuições de probabilidade compartilham as mes- mas variâncias, o EM admite a possibilidade de múltiplas variâncias [Mit97], conforme se pode verificar ao se comparar as Figuras 2.10 e 2.11. Na verdade, o algoritmo K-Means é um caso especial do algoritmo EM. Sendo um algoritmo de soft clustering, o EM admite que as instâncias possam estar vinculadas a mais de um grupo. Ele inicializa o processo usando o K-Means para estimar os grupos e suas médias iniciais e passa a calcular a probabilidade de que as instâncias estejam nos demais grupos [Mit97]. Para tanto, realiza iterações em 2 passos com a seguinte forma geral:

1. Expectation-Step: Calcula-se a probabilidade P(Cj|di, Θ) da Classe Cj dado o docu-

mento die Θ = (µ,σ);

2. Maximization-Step: Calcula-se novas médias, maximizando-se as probabilidades do Expectation-Step;

Pode se repetir as iterações até a convergência dos parâmetros ou até que a sua mudança seja inferior a um valor limite especificado.

Este algoritmo apresenta, no entanto, sérias dificuldades em convergir ou converge para uma solução inadequada quando o conjunto de dados é muito grande ou inicializado er- roneamente. Suas variações FREM, on-line EM e Scalable EM também são altamente problemáticas em presença de grande volume de dados [CAKZ+05].

2.3.3 Agrupamento Semi-Supervisionado

De acordo com Grira, Crucianu e Boujemaa [GCB05], o agrupamento semi-supervi- sionado é uma forma de agrupamento na qual se impõe alguma restrição, normalmente nas formas must-link ou cannot-link que provê supervisão, embora limitada. Acrescentam ainda que o conhecimento representado por estas restrições é insuficiente para uso em aprendizado supervisionado. Assim, a combinação entre a aplicação da função de similari- dade e alguma restrição guiam o procedimento de atribuição de instâncias aos clusters.

Ainda segundo Grira, Crucianu e Boujemaa [GCB05], os algoritmos de clustering semi- supervisionado se dividem em dois tipos: (1) aqueles que aplicam as restrições na função de similaridade e, (2) aqueles que aplicam as restrições no algoritmo do clustering propria- mente dito. O algoritmo semi-supervisionado de Aggarwal, Gates e Yu [AGY04], estudado na Seção 3.4, aplica sua restrição no algoritmo de clustering. Mas, o faz apenas na inicia- lização dos dados, atribuindo cada instância a um grupo. As iterações subseqüentes não são influenciadas por qualquer restrição.