• Nenhum resultado encontrado

Redes Neurais de Kohonen

No documento Dissertação (páginas 62-68)

Entrada: conjunto de amostras x; in´ıcio

Normaliza x;

Assume os vetores de pesos w(j) obtidos ap´os o treinamento; para k=1 at´e o n´umero total de amostras fa¸ca

dist(k)j = r Pn i=1  x(k)i − wi(j)2;

Declara como vencedor w(v) o neurˆonio w(j) com a menor distˆancia;

Associa a amostra `a classe representada pelo neurˆonio vencedor; fim

fim

4.2

Redes Neurais de Kohonen

A RNK ´e um modelo de rede neural que utiliza o m´etodo de treinamento n˜ao-supervisionado e competitivo para agrupar e modelar grandes quantidades de dados com baixo custo com- putacional. As RNK tˆem sido utilizadas com sucesso em diversas ´areas e aplica¸c˜oes.

O algoritmo de treinamento foi originalmente proposto em (KOHONEN, 1982), e

agrupa os padr˜oes de entrada de alta dimens˜ao, em uma ou duas dimens˜oes. Isso ´e feito de tal modo que os neurˆonios localizados pr´oximos uns dos outros, na camada de sa´ıda da rede, possuem padr˜oes de entrada semelhantes. A rede de Kohonen ´e n˜ao-linear e tem a capacidade de preservar a estrutura topol´ogica dos dados (VESANTO; ALHONIEMI, 2000).

As RNK encontram inspira¸c˜ao biol´ogica no c´ortex cerebral onde a ativa¸c˜ao de uma regi˜ao espec´ıfica corresponde `a resposta frente a determinados est´ımulos sensoriais, como est´ımulo motor, visual ou auditivo. Embora a rede de Kohonen seja utilizada para diversas aplica¸c˜oes, em diferentes ´areas do conhecimento, os trabalhos mais bem disseminados versam sobre problemas que envolvem classifica¸c˜ao de padr˜oes e agrupamento de dados (VESANTO; ALHONIEMI, 2000).

As redes de Kohonen, em essˆencia, s˜ao estruturas neurais como aquela apresentada na Figura 9. Os mapas topol´ogicos informam como est˜ao organizados espacialmente os neurˆonios da rede frente ao comportamento de seus vizinhos e normalmente s˜ao formados por uma ou duas dimens˜oes. A Figura 13 mostra um mapa topol´ogico de apenas uma dimens˜ao, em que os neurˆonios est˜ao organizados na forma de uma ´unica linha. Assim como apresentado na Figura 9, o vetor de entrada x que corresponde a amostra do conjunto de treinamento, ser´a devidamente apresentado a entrada e a todos os neurˆonios da rede neural de Kohonen.

4.2 Redes Neurais de Kohonen 61 Os mapas podem tamb´em apresentar uma configura¸c˜ao de duas dimens˜oes. Para realizar a ilustra¸c˜ao de um mapa bidimensional, arranjado na forma de linhas e colunas, constituindo-se de 81 neurˆonios no total, ´e apresentado em detalges na Figura 14.

Figura 13: Mapa topol´ogico unidimensional da RNK

Figura 14: Mapa topol´ogico bidimensional da RNK

O crit´erio de vizinhan¸ca caracteriza a intera¸c˜ao entre o neurˆonio e seus vizinhos. Um dos crit´erios de vizinhan¸ca mais utilizados consiste em especificar o raio R de abran- gˆencia, utilizado pelos neurˆonios para definir seus respectivos vizinhos. Deste modo, para um determinando neurˆonios j, seus vizinhos s˜ao todos aqueles que est˜ao a uma distˆancia m´axima que seja menor ou igual a R.

Quando um neurˆonios j vence a competi¸c˜ao ap´os a apresenta¸c˜ao de uma amostra na entrada, tanto o seu vetor de pesos como os de seus vizinhos s˜ao ajustados. Todavia, os neurˆonios que est˜ao na vizinhan¸ca do neurˆonio vencedor s˜ao ajustados com taxas menores `

aquelas usadas para o ajuste do vetor de pesos do neurˆonio vencedor. Para regi˜oes de vizinhan¸ca que estejam a uma distˆancia maior do que R, a taxa de aprendizado costuma

4.2 Redes Neurais de Kohonen 62 ser ponderada por uma fun¸c˜ao do tipo Gaussiana, e quanto maior for a distˆancia do neurˆonio vizinho em rela¸c˜ao ao neurˆonio vencedor, menor ser´a o ajuste dos pesos. Nessas condi¸c˜oes a Equa¸c˜ao 30 divide-se em duas regras:

  

 

Regra 1: watual(v) = w(v)anterior+ η · (x(k)− w(v)anterior) Regra 2: watual(Ω) = w(Ω)anterior+ η · α(Ω)· (x(k)− w(Ω)

anterior),

(31)

onde Ω est´a associado aos vizinhos do neurˆonio vencedor e α(Ω) ´e um operador de vizi-

nhan¸ca dado por:

α(Ω) = e  −||w(v)−w(Ω)||2 2σ2  . (32)

A aplica¸c˜ao do operador Gaussiano permite uma taxa de decaimento que fica bem intensificada para os neurˆonios mais afastados do neurˆonio vencedor. A Figura 15 ilustra esse decaimento da taxa de aprendizado e, assim, podemos observar que os neurˆonios na vizinhan¸ca do neurˆonio vencedor, dentro da ´area de raio R, ser˜ao ajustados com uma taxa de aprendizado maior do que os neurˆonios vizinhos fora da ´area de raio R. Adicionalmente, conforme relatado em (RITTER et al., 1992), uma outra estrat´egia utilizada para aumentar

a eficiˆencia do processo de ajuste dos pesos, consiste em diminuir gradativamente a taxa de aprendizado no decorrer do treinamento.

Figura 15: Ilustra¸c˜ao do decaimento Gaussiano para o ajuste dos pesos dos neurˆonios vizinhos ao vencerdor

4.2 Redes Neurais de Kohonen 63 O Algoritmo 4 apresenta os passos seguidos durante o treinamento da RNK. A ´

unica diferen¸ca entre o Algoritmo 4 e o Algoritmo 2 encontra-se na aplica¸c˜ao da regra de ajuste dos pesos. Para o Algoritmo 4 existe uma regra espec´ıfica apenas para o ajuste dos pesos do neurˆonio vencedor e uma outra regra para o ajuste dos pesos dos neurˆonios vizinhos com base no operador Gaussiano.

Algoritmo 4 Algoritmo de treinamento da RNK

Entrada: Conjunto de treinamento x; taxa de aprendizado η; n´umero de ´epocas de treinamento ne;

in´ıcio

Iniciar os vetores de pesos de cada neurˆonio w(j) considerando os valores das

n1 primeiras amostras de treinamento;

Normaliza os vetores dos pesos e das amostras do conjunto de treinamento; ´epoca ← 0;

repita

para k=1 at´e o n´umero total de amostras fa¸ca dist(k)j = r Pn i=1  x(k)i − wi(j)2;

Declara como vencedor w(v) o neurˆonio w(j) com a menor distˆancia

Euclidiana;

Ajusta os pesos do vencedor conforme a regra 1: watual(v) = wanterior(v) + η · (x(k)− w(v)

anterior);

Ajusta os pesos dos neurˆonios vizinhos conforme regra 2: watual(Ω) = wanterior(Ω) + η · α(Ω)· (x(k)− w(Ω)

anterior);

fim

Incrementa o contador de ´epocas; at´e at´e que ´epoca ≤ ne;

fim

Como RNK n˜ao possui de antem˜ao as sa´ıdas desejadas, a identifica¸c˜ao das regi˜oes que podem ser agrupadas em classes distintas requer ferramentas estat´ısticas ou conhe- cimento especializado. Deste modo o mapa topol´ogico pode ser particionado em regi˜oes que definem as respectivas classes, sendo tal arranjo chamado de mapa de contexto. A Figura 16 exemplifica um mapa de contexto para uma topologia bidimensional ap´os o treinamento.

Quando uma nova amostra ´e apresentada `a RNK, basta identificar qual foi o neurˆonio vencedor da competi¸c˜ao e em seguida recorrer ao mapa de contexto para resgatar a classe correspondente a este neurˆonio. O Algoritmo 5 exibe os passos da fase de opera¸c˜ao da rede de Kohonen ap´os o treinamento. A principal diferen¸ca entre o Algoritmo 5 e o Algoritmo 3 est´a na utiliza¸c˜ao do mapa de contexto na classifica¸c˜ao da amostra de entrada

4.2 Redes Neurais de Kohonen 64

(a) Mapa de contexto para 16 neurˆonios

Figura 16: Exemplo de um mapa de contexto para a topologias bidimensional

na fase de opera¸c˜ao do Algoritmo 5.

Algoritmo 5 Algoritmo de opera¸c˜ao da RNK

Entrada: conjunto de amostras x a ser classificado; in´ıcio

Normaliza o conjunto x;

Assume os valores dos pesos w(j) ajustados durante a fase de treinamento;

para k=1 at´e o n´umero total de amostras fa¸ca dist(k)j = r Pn i=1  x(k)i − wi(j)2;

Declara como vencedor o neurˆonio w(j) que contenha a menor distˆancia Euclidiana;

Localiza o neurˆonio vencedor;

Associa a amostra `a classe que foi identificada a partir do mapa de contexto;

fim fim

A estrutura e configura¸c˜ao simples, assim como a dinˆamica de treinamento dife- renciada, fazem da RNK uma ferramenta sofisticada para aplica¸c˜oes em problemas que envolvem classifica¸c˜ao de padr˜oes e agrupamentos. O algoritmo de aprendizado com- petitivo tem forte semelhan¸ca com o algoritmo k-means (STEINHAUS, 1956), em que as amostras dispon´ıveis devem ser divididas em k grupos (representados pelos seus centros geom´etricos), tendo-se como o crit´erio de aloca¸c˜ao a norma Euclidiana entre a amostra e os referidos centros.

4.3 Considera¸c˜oes Finais 65

4.3

Considera¸c˜oes Finais

Este cap´ıtulo apresentou os aspectos mais relevantes do m´etodo de treinamento com- petitivo utilizado no processo de aprendizagem da RNK. Nesta disserta¸c˜ao, a RNK foi escolhida devido a relativa simplicidade da sua arquitetura, pela inspira¸c˜ao biol´ogica no c´ortex cerebral e pela natureza competitiva do m´etodo de treinamento. A RNK ´e utilizada aqui para classificar o conjunto de dados gerados durante a otimiza¸c˜ao das camadas de movimento pelas CBA.

Cap´ıtulo 5

ASPECTOS DE

IMPLEMENTA ¸C ˜AO

N

ESTE cap´ıtulo s˜ao apresentados os aspectos de implementa¸c˜ao do sistema de de- tec¸c˜ao de eventos em v´ıdeos. A Se¸c˜ao 5.1 apresenta a arquitetura do sistema proposto e a Se¸c˜ao 5.2 descreve o modo como as t´ecnicas de extra¸c˜ao de movimento fo- ram utilizadas neste trabalho. A Se¸c˜ao 5.3 apresenta o algoritmo de otimiza¸c˜ao CBA, a Se¸c˜ao 5.4 mostra como foi realizada a implementa¸c˜ao da RNK e por ´ultimo, na Se¸c˜ao 5.5, s˜ao apresentadas algumas considera¸c˜oes finais a respeito do cap´ıtulo.

No documento Dissertação (páginas 62-68)