• Nenhum resultado encontrado

3.3 Modelagem Topológica Qualitativa

3.3.1 Mapas Auto-Organizáveis

Os mapas auto-organizáveis são grades neurais baseadas na aprendizagem competitiva e não-supervisionada. Os neurônios são dispostos em nós de uma grade, geralmente 1D ou 2D, embora sejam possíveis dimensões maiores, elas não são usuais. Esses neurônios são capazes de realizar mapeamentos de pontos de um espaço vetorial para um conjunto limitado de pontos deste mesmo espaço. Este mapeamento muitos para um é feito as- sociando um conjunto de pontos semelhantes, para um ponto eleito como representante deste conjunto, também chamado de classe [Freeman and Skapura, 1991].

Os SOM (Self Organizing Maps) têm por característica serem ideais para detecção de agrupamento (clusters), ou seja, pode-se afirmar que um mapa auto-organizável é capaz de classificar, por semelhança, pontos de um espaço vetorial em um número limitado de classes. Cada classe é composta por um vetor de informações, quando se adiciona uma nova informação ao mapa é eleito um vetor como representante de uma classe, que tende a ser o caso médio entre a informação adicionada e o vetor da classe escolhida, e fica armazenado em uma célula do mapa.

Uma característica importante dos SOMs é as relações de vizinhança entre as células do mapa que acrescentam informações úteis, como semelhança entre classes. Através das relações de vizinhança é possível, também, extrair indicações aproximadas sobre

a densidade de probabilidade da distribuição de pontos do espaço vetorial mapeado [Freeman and Skapura, 1991].

Mapas auto-organizáveis são capazes de aprendizado, encontrando automaticamente uma boa maneira de mapear os pontos apresentados a ele. Este processo se chama treina- mento e consiste em apresentar repetidamente ao mapa os pontos a serem mapeados. Como resultado, os vetores representantes de classe são eleitos e, dependendo da estraté- gia de atualização destes vetores, também chamados pesos, classes semelhantes tendem a ser vizinhas. O treinamento é um processo iterativo que gradualmente produz convergên- cia até que o mapa possa ser considerado estável. As células do mapa inicialmente têm pesos aleatórios dentro de um intervalo e estes gradualmente migram para os valores apro- priados conforme os casos de treinamento são repetidamente apresentados [Pinto, 2005].

3.3.1.1 Redes de Kohonen

As redes de Kohonen representam um modelo de rede neural com aprendizado não su- pervisionado largamente conhecido e utilizado [Lippmann, 1987]. Elas foram propostas inicialmente em 1982 pro Teuvo Kohonen [Kohonen, 1982] e utilizadas nas mais diferentes aplicações [Kohonen, 2001] é um tipo de SOM com topologia fixa de células com relação de vizinhança entre elas, formando uma grade n-dimensional, sendo 2D e 3D as mais comuns.

O treinamento da rede se dá iterativamente, a partir de uma inicialização aleatória dos vetores das células, também conhecidos como pesos. Para cada novo vetor apresentado a rede, é eleita uma célula vencedora, também conhecida como neurônio vencedor. O neurônio escolhido como vencedor é aquele que mais se assemelha ao peso apresentado a rede, normalmente se utiliza como medida a distancia euclidiana [Kohonen, 2001]. O vetor associado à célula vencedora, assim como os associados às células vizinhas, é deslocado em direção ao vetor apresentado segundo uma fração que é função da taxa de aprendizado e da função de vizinhança. A taxa de aprendizado é um parâmetro que define a rapidez com que o mapa se adapta aos pesos apresentados, porém é necessário um compromisso entre a rapidez e a facilidade de convergência.

Este processo de ajuste dos pesos das células vizinhas, além do ajuste da célula vence- dora, tem inspiração biológica nas células nervosas corticais, pois existem evidências, tanto

anatômicas quanto fisiológicas, de que existe uma interação lateral entre esses neurônios. Existe uma excitação lateral de curto alcance, cerca de 50 a 100 µ m, já em um raio de 200 a 500 µ m existe uma região inibitória. Uma ação excitadora mais fraca ocorre após a área de inibição e pode alcançar até vários centímetros [Kohonen, 1982]. A figura 3.9 mostra essa interação lateral nos neurônios corticais. Maiores detalhes sobre as redes de Kohonen podem ser encontrados em [Freeman and Skapura, 1991].

Figura 3.9: Interação lateral nos neurônios corticais nos primatas.

3.3.1.2 Estruturas Celulares Crescentes

As estruturas celulares crescentes (GCS) foram propostas por Bernd Fritzke [Fritzke, 1993a], buscando resolver a maior limitação das redes de Kohonen, a topologia fixa, visto que para definir o tamanho ótimo da rede é necessário ter algum conhecimento a priori, o que normalmente não está disponível [Fritzke, 1993b]. Sem esse conhecimento pode-se limitar a capacidade da rede.

Esse tipo de SOM com topologia variável permite que a rede cresça a partir de uma topologia inicial mínima n-dimensional. Independentemente da dimensão da topologia inicial, cada célula contêm um vetor da dimensão do espaço mapeado. O treinamento ocorre de maneira muito semelhante às redes de Kohonen, para cada caso apresentado para a rede uma célula vencedora é eleita, deslocando o vetor da célula vencedora e das vizinhas uma fração em relação ao caso apresentado.

Porém, essas estruturas são capazes de crescer frente à necessidade de melhor classi- ficação dos pontos do espaço. A cada certo número de erros de classificação, uma nova célula é criada. Esse erro de classificação é definido pela distância do vetor apresentado com o melhor vetor encontrado no mapa, caso seja maior que um determinado valor é definido como um erro de classificação.

Criar uma célula nas GCS significa eliminar uma aresta e introduzir uma célula que terá como vizinhos, as células ligada pela aresta eliminada e os vizinhos em comum da célula. A aresta a ser eliminada é a maior aresta que parte da célula com maior número de erros de classificação acumulado, ou seja, a aresta que liga as duas células com vetores mais distantes entre si. O vetor da nova célula criada tem como valor, o valor médio entre os vetores das células ligadas pela aresta eliminada.

Cada célula desse mapa tem associado ao seu vetor, um número que define a quantidade de vezes que ocorreu erro de classificação, ou seja, quantas vezes essa célula foi declarada como vencedora, mas sua distância ao caso apresentado era maior que um limiar. Assim quando uma célula nova é criada, esse valor é inicializado com o valor médio dos erros de classificação dos vizinhos ligados a ela. Além disso, os vizinhos dessa nova célula têm seus erros de classificação reduzidos.

As GCS apresentam melhores taxas de classificação e clusterização que as redes de Kohonen [Fritzke, 1993b], porém sua implementação é bem mais complicada devido as suas características dinâmicas. A figura 3.10 mostra um comparativo entre mapas gerados por redes de Kohonen e pelas estruturas células crescentes de Fritzke, pode-se notar que as GCS apresentam uma melhor representação.

Documentos relacionados