• Nenhum resultado encontrado

Dado um grafo ܩሺܸǡ ܧሻ, no qual cada vertice ݑ א ܸ está associado a um vetor ૑ א Թ௞ definindo um mapeamento, Ȱǣ Թ՜ Թ, ݇ ൑ ݊, este é dito preservar a Topologia

se o mapeamento inverso, Ȱିଵǣ Թ௞ ՜ Թ௡, leva vértices ݑǡ ݑ que são adjacentes emܩ, a posições ૆, ૆ que são vizinhas em Թ௡.

A aplicação de mapas TRN a sistemas dinâmicos é dificultada pela necessidade de determinação antecipada do conjunto de parâmetros, em especial o número de unidades do mapa.

4.5 Gas Neural Crescente (Growing Neural Gas – GNG)

O modelo GNG (Fritzke, 1995a) associa o mecanismo de Aprendizado Competitivo Hebbiano (CHL) do modelo TRN a um mecanismo de crescimento. Enquanto mapas GCS são exclusivamente constituídos de hiper-tetraedros, a estrutura do mapa GNG pode apresentar dimensionalidades variadas de acordo com a dimensionalidade do espaço de entrada. O mapa inicia com duas unidades e se expande de modo fractal com a inserção de novas unidades, a qual é governada por medidas estatísticas de modo similar ao modelo GCS. Assim, a rede neural GNG pode ser vista como uma variante da GCS ou uma extensão da TRN.

4.6 Crescendo Quando Requerido (Growing When Required – GWR)

O modelo GWR (Marsland et al., 2002) supera algumas limitações dos modelos abordados nas seções anteriores, em especial a definição da estrutura do mapa que, em modelos como o SOM (Kohonen, 1982), NG e TRN (Martinez & Schulten, 1991; 1994), é fixa e deve ser especificada a priori.

O mecanismo de crescimento do GWR tem como parâmetro um critério de acurácia ߝ, representando a fidelidade desejada para o mapeamento. Uma nova unidade é inserida sempre que um sinal de entrada ૆ é reconhecido com erro maior que o especificado em ߝ. A nova unidade é inicializada de modo a reconhecer o sinal ૆ apropriadamente. O mapa para de crescer quando a representação é capaz de reconhecer os sinais de entrada, com a acurácia desejada.

O modelo GWR provê o mecanismo para o aprendizado contínuo que permite a expansão e/ou atualização autônoma do mapa. O crescimento é estabilizado considerando o parâmetro de acurácia, ߝ, e a aprendizagem se dá de forma rápida nas primeiras apresentações. O mecanismo de idade é incrementado apenas para as conexões que emanam da unidade vencedora, deste modo, o mapa não está apto a remover as unidades inativas e acompanhar um possível deslocamento de ݌ሺ૆ሻ.

4.7 Malha Neural (Neural Meshes – NM)

O modelo de Malha Neural (Ivrissimtzis et al., 2004a; 2004b) está associado à pesquisa em reconstrução de superfícies a partir de algoritmos de aprendizagem (Ivrissimtzis et al., 2003). O algoritmo busca produzir uma malha de triângulos que represente a superfície

definida por uma nuvem de pontos obtidos por dispositivos de varredura “scanners” que capturam pontos na superfície de objetos 3D.

O algoritmo do NM é composto de três passos básicos (Ivrissimtzis et al., 2004a):

i. Aprendizagem da geometria

a. Capturar uma amostra ૆ de forma aleatória equiprovável;

b. Encontrar, no mapa, o nodo mais próximo a ૆ e movê-lo em direção a ૆ segundo a taxa de aprendizado;

c. Suavizar a geometria local em torno do vértice mais próximo a ૆.

ii. Mudanças na conectividade

a. Dividir o nodo que apresenta maior acumulo de atividade;

b. Remover o nodo que apresenta menor índice cumulativo de atividade fundindo-o com seu vizinho mais próximo.

iii. Aprendizagem da topologia

a. Remover os triângulos com área maior que um limite máximo calculado segundo a média de área de todos os triângulos na malha;

b. Juntar bordas que são mais próximas que um limiar especificado a priori.

Numa rede NM o processo de aprendizado segue os princípios básicos das redes SOM. As diferenças de formulação da adaptação da unidade vencedora e de sua vizinhança, em relação à rede GCS, são devidas à intenção de se obter uma reconstrução ótima da superfície alvo. Da mesma forma que na rede GCS, a inserção de novas unidades é realizada em intervalos predefinidos. Entretanto, na rede NM a inserção ocorre pela subdivisão da unidade com maior atividade acumulada, enquanto que no GCS a nova unidade é inserida entre a unidade com maior erro acumulado e sua respectiva vizinha direta mais distante.

4.8 Mapa Topológico Instantâneo (Instantaneous Topological Map – ITM)

O modelo ITM (Jockusch & Ritter, 1999; Jockusch, 2000) foi proposto como alternativa ao modelo GNG (Fritzke, 1995a) para mapeamento de ambientes. A principal característica do modelo é a introdução de fundamentos geométricos como mecanismos de aprendizado. O modelo ITM está apto a manipular dados altamente correlacionados, dispensando a amostragem equiprovável. O aprendizado é independente de médias

acumuladas no tempo e faz uso apenas de informação local produzindo um mapeamento rápido “instantâneo”.

O algoritmo de aprendizado é composto de quatro operações básicas:

i. Competição – determina os dois nodos mais próximos do sinal de entrada ૆; ii. Adaptação – move o nodo vencedor em direção ao sinal de entrada ૆ segundo a

taxa de aprendizado;

iii. Adaptação por arcos

a. Cria um arco entre os dois nodos mais próximos da amostra ૆;

b. Remove arcos considerando o critério da esfera de Thales que contêm os dois nodos mais próximos da amostra ૆.

iv. Adaptação de nodos

a. Insere um nodo se o sinal de entrada ૆ está fora da esfera de Thales que contêm os dois nodos mais próximos da amostra ૆e também está fora de uma esfera de raio ݁௠௔௫ em torno do nodo vencedor;

b. Cria um arco entre o novo nodo e o nodo vencedor;

c. Remove nodos muito próximos do nodo vencedor, distância menor do que ͲǤͷ݁௠௔௫.

Com exceção ao passo de competição para determinação das duas unidades mais próximas do sinal de entrada, a demais operações envolvem apenas elementos locais. Essas operações não dependem da dimensionalidade do espaço, mas da distribuição dos sinais. Com uma distribuição bidimensional (uma superfície embutida num espaço Թ௡ǡ ݊ ൐ ʹ), cada nodo desenvolve em média seis arcos. O passo (ii) tem apenas um caráter de suavização não sendo essencial para a formação do mapa (Jockusch, 2000).

4.9 Conclusão

Neste capítulo foram descritos e discutidos os principais modelos de redes neurais com aprendizado não supervisionado. Dentre os modelos apresentados, destacam-se o GCS, o GNG, o GWR e o ITM em virtude da flexibilidade do aprendizado incremental que apresentam.

Os modelos revisados neste capítulo foram inicialmente considerados para uso na realização do modelo proposto nesta tese. Entretanto, tais modelos apresentam limitações que

os tornam inaplicáveis para uma ou mais das tarefas definidas. Em especial a dependência em acumuladores de erro, contadores de ciclos dos modelos, pré-processamento para aleatorização das amostras e a incapacidade de produzir uma triangulação completa. Deste modo, nesta tese propõem-se um novo modelo chamado Mapa Auto-Organizável Crescente que Aprende Topologia (GTLSOM – Growing Topology Leraning Self-Organizing Map) o qual é descrito no Capítulo 6 e tem por objetivo superar as limitações mencionadas acima.