Entrada: conjunto de amostras x; in´ıcio
Normaliza x;
Assume os vetores de pesos w(j) obtidos ap´os o treinamento; para k=1 at´e o n´umero total de amostras fa¸ca
dist(k)j = r Pn i=1 x(k)i − wi(j)2;
Declara como vencedor w(v) o neurˆonio w(j) com a menor distˆancia;
Associa a amostra `a classe representada pelo neurˆonio vencedor; fim
fim
4.2
Redes Neurais de Kohonen
A RNK ´e um modelo de rede neural que utiliza o m´etodo de treinamento n˜ao-supervisionado e competitivo para agrupar e modelar grandes quantidades de dados com baixo custo com- putacional. As RNK tˆem sido utilizadas com sucesso em diversas ´areas e aplica¸c˜oes.
O algoritmo de treinamento foi originalmente proposto em (KOHONEN, 1982), e
agrupa os padr˜oes de entrada de alta dimens˜ao, em uma ou duas dimens˜oes. Isso ´e feito de tal modo que os neurˆonios localizados pr´oximos uns dos outros, na camada de sa´ıda da rede, possuem padr˜oes de entrada semelhantes. A rede de Kohonen ´e n˜ao-linear e tem a capacidade de preservar a estrutura topol´ogica dos dados (VESANTO; ALHONIEMI, 2000).
As RNK encontram inspira¸c˜ao biol´ogica no c´ortex cerebral onde a ativa¸c˜ao de uma regi˜ao espec´ıfica corresponde `a resposta frente a determinados est´ımulos sensoriais, como est´ımulo motor, visual ou auditivo. Embora a rede de Kohonen seja utilizada para diversas aplica¸c˜oes, em diferentes ´areas do conhecimento, os trabalhos mais bem disseminados versam sobre problemas que envolvem classifica¸c˜ao de padr˜oes e agrupamento de dados (VESANTO; ALHONIEMI, 2000).
As redes de Kohonen, em essˆencia, s˜ao estruturas neurais como aquela apresentada na Figura 9. Os mapas topol´ogicos informam como est˜ao organizados espacialmente os neurˆonios da rede frente ao comportamento de seus vizinhos e normalmente s˜ao formados por uma ou duas dimens˜oes. A Figura 13 mostra um mapa topol´ogico de apenas uma dimens˜ao, em que os neurˆonios est˜ao organizados na forma de uma ´unica linha. Assim como apresentado na Figura 9, o vetor de entrada x que corresponde a amostra do conjunto de treinamento, ser´a devidamente apresentado a entrada e a todos os neurˆonios da rede neural de Kohonen.
4.2 Redes Neurais de Kohonen 61 Os mapas podem tamb´em apresentar uma configura¸c˜ao de duas dimens˜oes. Para realizar a ilustra¸c˜ao de um mapa bidimensional, arranjado na forma de linhas e colunas, constituindo-se de 81 neurˆonios no total, ´e apresentado em detalges na Figura 14.
Figura 13: Mapa topol´ogico unidimensional da RNK
Figura 14: Mapa topol´ogico bidimensional da RNK
O crit´erio de vizinhan¸ca caracteriza a intera¸c˜ao entre o neurˆonio e seus vizinhos. Um dos crit´erios de vizinhan¸ca mais utilizados consiste em especificar o raio R de abran- gˆencia, utilizado pelos neurˆonios para definir seus respectivos vizinhos. Deste modo, para um determinando neurˆonios j, seus vizinhos s˜ao todos aqueles que est˜ao a uma distˆancia m´axima que seja menor ou igual a R.
Quando um neurˆonios j vence a competi¸c˜ao ap´os a apresenta¸c˜ao de uma amostra na entrada, tanto o seu vetor de pesos como os de seus vizinhos s˜ao ajustados. Todavia, os neurˆonios que est˜ao na vizinhan¸ca do neurˆonio vencedor s˜ao ajustados com taxas menores `
aquelas usadas para o ajuste do vetor de pesos do neurˆonio vencedor. Para regi˜oes de vizinhan¸ca que estejam a uma distˆancia maior do que R, a taxa de aprendizado costuma
4.2 Redes Neurais de Kohonen 62 ser ponderada por uma fun¸c˜ao do tipo Gaussiana, e quanto maior for a distˆancia do neurˆonio vizinho em rela¸c˜ao ao neurˆonio vencedor, menor ser´a o ajuste dos pesos. Nessas condi¸c˜oes a Equa¸c˜ao 30 divide-se em duas regras:
Regra 1: watual(v) = w(v)anterior+ η · (x(k)− w(v)anterior) Regra 2: watual(Ω) = w(Ω)anterior+ η · α(Ω)· (x(k)− w(Ω)
anterior),
(31)
onde Ω est´a associado aos vizinhos do neurˆonio vencedor e α(Ω) ´e um operador de vizi-
nhan¸ca dado por:
α(Ω) = e −||w(v)−w(Ω)||2 2σ2 . (32)
A aplica¸c˜ao do operador Gaussiano permite uma taxa de decaimento que fica bem intensificada para os neurˆonios mais afastados do neurˆonio vencedor. A Figura 15 ilustra esse decaimento da taxa de aprendizado e, assim, podemos observar que os neurˆonios na vizinhan¸ca do neurˆonio vencedor, dentro da ´area de raio R, ser˜ao ajustados com uma taxa de aprendizado maior do que os neurˆonios vizinhos fora da ´area de raio R. Adicionalmente, conforme relatado em (RITTER et al., 1992), uma outra estrat´egia utilizada para aumentar
a eficiˆencia do processo de ajuste dos pesos, consiste em diminuir gradativamente a taxa de aprendizado no decorrer do treinamento.
Figura 15: Ilustra¸c˜ao do decaimento Gaussiano para o ajuste dos pesos dos neurˆonios vizinhos ao vencerdor
4.2 Redes Neurais de Kohonen 63 O Algoritmo 4 apresenta os passos seguidos durante o treinamento da RNK. A ´
unica diferen¸ca entre o Algoritmo 4 e o Algoritmo 2 encontra-se na aplica¸c˜ao da regra de ajuste dos pesos. Para o Algoritmo 4 existe uma regra espec´ıfica apenas para o ajuste dos pesos do neurˆonio vencedor e uma outra regra para o ajuste dos pesos dos neurˆonios vizinhos com base no operador Gaussiano.
Algoritmo 4 Algoritmo de treinamento da RNK
Entrada: Conjunto de treinamento x; taxa de aprendizado η; n´umero de ´epocas de treinamento ne;
in´ıcio
Iniciar os vetores de pesos de cada neurˆonio w(j) considerando os valores das
n1 primeiras amostras de treinamento;
Normaliza os vetores dos pesos e das amostras do conjunto de treinamento; ´epoca ← 0;
repita
para k=1 at´e o n´umero total de amostras fa¸ca dist(k)j = r Pn i=1 x(k)i − wi(j)2;
Declara como vencedor w(v) o neurˆonio w(j) com a menor distˆancia
Euclidiana;
Ajusta os pesos do vencedor conforme a regra 1: watual(v) = wanterior(v) + η · (x(k)− w(v)
anterior);
Ajusta os pesos dos neurˆonios vizinhos conforme regra 2: watual(Ω) = wanterior(Ω) + η · α(Ω)· (x(k)− w(Ω)
anterior);
fim
Incrementa o contador de ´epocas; at´e at´e que ´epoca ≤ ne;
fim
Como RNK n˜ao possui de antem˜ao as sa´ıdas desejadas, a identifica¸c˜ao das regi˜oes que podem ser agrupadas em classes distintas requer ferramentas estat´ısticas ou conhe- cimento especializado. Deste modo o mapa topol´ogico pode ser particionado em regi˜oes que definem as respectivas classes, sendo tal arranjo chamado de mapa de contexto. A Figura 16 exemplifica um mapa de contexto para uma topologia bidimensional ap´os o treinamento.
Quando uma nova amostra ´e apresentada `a RNK, basta identificar qual foi o neurˆonio vencedor da competi¸c˜ao e em seguida recorrer ao mapa de contexto para resgatar a classe correspondente a este neurˆonio. O Algoritmo 5 exibe os passos da fase de opera¸c˜ao da rede de Kohonen ap´os o treinamento. A principal diferen¸ca entre o Algoritmo 5 e o Algoritmo 3 est´a na utiliza¸c˜ao do mapa de contexto na classifica¸c˜ao da amostra de entrada
4.2 Redes Neurais de Kohonen 64
(a) Mapa de contexto para 16 neurˆonios
Figura 16: Exemplo de um mapa de contexto para a topologias bidimensional
na fase de opera¸c˜ao do Algoritmo 5.
Algoritmo 5 Algoritmo de opera¸c˜ao da RNK
Entrada: conjunto de amostras x a ser classificado; in´ıcio
Normaliza o conjunto x;
Assume os valores dos pesos w(j) ajustados durante a fase de treinamento;
para k=1 at´e o n´umero total de amostras fa¸ca dist(k)j = r Pn i=1 x(k)i − wi(j)2;
Declara como vencedor o neurˆonio w(j) que contenha a menor distˆancia Euclidiana;
Localiza o neurˆonio vencedor;
Associa a amostra `a classe que foi identificada a partir do mapa de contexto;
fim fim
A estrutura e configura¸c˜ao simples, assim como a dinˆamica de treinamento dife- renciada, fazem da RNK uma ferramenta sofisticada para aplica¸c˜oes em problemas que envolvem classifica¸c˜ao de padr˜oes e agrupamentos. O algoritmo de aprendizado com- petitivo tem forte semelhan¸ca com o algoritmo k-means (STEINHAUS, 1956), em que as amostras dispon´ıveis devem ser divididas em k grupos (representados pelos seus centros geom´etricos), tendo-se como o crit´erio de aloca¸c˜ao a norma Euclidiana entre a amostra e os referidos centros.
4.3 Considera¸c˜oes Finais 65
4.3
Considera¸c˜oes Finais
Este cap´ıtulo apresentou os aspectos mais relevantes do m´etodo de treinamento com- petitivo utilizado no processo de aprendizagem da RNK. Nesta disserta¸c˜ao, a RNK foi escolhida devido a relativa simplicidade da sua arquitetura, pela inspira¸c˜ao biol´ogica no c´ortex cerebral e pela natureza competitiva do m´etodo de treinamento. A RNK ´e utilizada aqui para classificar o conjunto de dados gerados durante a otimiza¸c˜ao das camadas de movimento pelas CBA.