• Nenhum resultado encontrado

Elementos básicos para uma regra de aprendizado competitivo:

N/A
N/A
Protected

Academic year: 2021

Share "Elementos básicos para uma regra de aprendizado competitivo:"

Copied!
18
0
0

Texto

(1)

Aprendizagem Competitiva

•Neurônios da camada de saída da RNA competem entre si para ser o neurônio ativado (um único neurônio é ativado) => Aprendizado competitivo é adequado para descobrir características estatísticas salientes, que podem ser usadas para classificar um conjunto de dados de entrada.

•Elementos básicos para uma regra de aprendizado competitivo:

•Um conjunto de neurônios do mesmo tipo exceto por alguns pesos sinápticos distribuídos aleatoriamente, respondem diferentemente a um dado conjunto de padrões de entrada.

•Um limite imposto à robustez de cada neurônio.

•Um mecanismo que permite os neurônios competirem pelo direito de responder à uma certa entrada (subconjunto). O neurônio ganhador é o neurônio que leva tudo (winner-takes-all).

(2)

Aprendizagem Competitiva

•Os neurônios individuais aprendem e se especializam nos conjuntos de padrões similares => tornam-se detetores de características.

•Forma mais simples de aprendizagem competitiva consiste de uma RNA de uma camada única com todos os neurônios totalmente conectados às entradas.

•O neurônio j é o ganhador se possuir o maior nível de atividade interna vj, para um vetor de entrada. A saída yj do neurônio ganhador é feita igual a 1. As saídas dos outros neurônios são zero.

Camada de entrada 1 3 2 x1 x2 x3 Camada de Saída 1 y1 2 3 4 y2 y3 y4 w21 w41 w31 w22 w23 w32 w33 w43 w42 w11 w12 w 13

(3)

Aprendizagem Competitiva

wji > 0 - peso entre o neurônio j e a entrada i.

•Pesos alocados em quantidades fixas para cada neurônio:

•Aprendizagem é o deslocamento dos pesos sinápticos dos nós inativos para os ativos. Se o neurônio ganha uma competição cada peso de cada entrada tem seu valor alterado de acordo com a regra de aprendizagem competitiva padrão:

•A regra tem o efeito de mover o vetor de pesos sinápticos w do neurônio j na direção do padrão de entrada .

j w i ji 

¦

1 ¯ ® ­  ' perde j se ganha j se w x wji i ji , 0 ), ( K

(4)
(5)

Tarefas de Aprendizagem

•Aproximação de função - aprendizagem supervisionada

•Associação

-•Autoassociação - aprendizagem não-supervisionada •Heteroassociação - aprendizagem supervisionada

•Classificação de Padrões

•Padrões conhecidos - aprendizagem supervisionada

•Padrões desconhecidos - aprendizagem não-supervisionada (clusterização)

•Predição (problema de processamento de sinais temporais) aprendizagem supervisionada

(6)

Modelos de Redes - Perceptron ) ( 1 k N i i ki k F w x y

¦

T yk x1 x2 xN Entradas wk1 wk2 wkN Neurônio K k T

)

)

1

(

...

(

1

k0 k k1 1 kN N k0 k



w

o

y

F

w

x





w

x





w

T

)

(

)

(

0

X

W

F

x

w

F

T N i i ki

¦

» » » » » ¼ º « « « « « ¬ ª » » » » » ¼ º « « « « « ¬ ª N kN k k x x X w w w W ... 1 ... 1 1 0

(7)

Modelos de Redes - Perceptron 2 1

,

0

,

0

C

X

X

W

Se

C

X

X

W

Se

T T







t

•Resolve problemas de classificação de duas classes (C1 e C2) linearmente separáveis.

•Regra de classificação:

•Adaptação dos Pesos:

°¯

°

®

­











t





°¯

°

®

­









t



1 2 2 1

)

(

0

)

(

)

(

)

(

)

(

)

(

)

1

(

)

(

0

)

(

)

(

)

(

)

(

)

(

)

1

(

)

2

)

(

0

)

(

)

(

)

(

)

1

(

)

(

0

)

(

)

(

)

(

)

1

(

)

1

C

n

X

e

n

X

n

W

se

n

X

n

n

W

n

W

C

n

X

e

n

X

n

W

se

n

X

n

n

W

n

W

C

n

X

e

n

X

n

W

se

n

W

n

W

C

n

X

e

n

X

n

W

se

n

W

n

W

T T T T

K

K

(8)

Algoritmo para aprendizagem - Perceptron:

•Passo 1. Inicializa pesos: W (0) 0

•Passo 2. Ativa a rede - vetor de entrada e a resposta desejada: X (n) e d(n)

•Passo 3. Calcula-se a saída: y(n) F(W T (n)X ( - n)) F(.) é a função sinal

•Passo 4. Atualiza os pesos:

¯ ® ­        2 1 ) ( 1 ) ( 1 ) ( ) ( )] ( ) ( [ ) ( ) 1 ( C n X se C n X se n d n X n y n d n W n W K

(9)

Modelos de Redes - Perceptron

1) P = [-0.5 -0.5 +0.3 +0.0; T = [1 1 0 0]; -0.5 +0.5 -0.5 +1.0];

Valores iniciais: W = [ 0.4258 -0.2140]; b = -0.0455

(10)

2) P = [-1 +1 -1 +1 -1 +1 -1 +1; T = [0 1 0 0 1 1 0 1]; -1 -1 +1 +1 -1 -1 +1 +1; -1 -1 -1 -1 +1 +1 +1 +1]; W = [-0.9309 -0.8931 0.0594]; b = 0.3423; W = [2.0691 -1.8931 3.0594]; b = -0.6577 Cont.

(11)

Cont. 3) P = [+0.1 +0.7 +0.8 +0.8 +1.0 +0.3 +0.0 -0.3 -0.5 -1.5; T = [1 1 1 0 0 1 1 1 0 0; +1.2 +1.8 +1.6 +0.6 +0.8 +0.5 +0.2 +0.8 -1.5 -1.3]; 0 0 0 0 0 1 1 1 1 1]; W = [-0.9339 -0.0030; b = [0.4966; 0.0689 0.9107]; 0.1092]; W = [ -2.9339 4.0970; b =[-0.5034 -5.0311 -4.3893]; 4.1092]; Erro

(12)

Problema: Considere um problema no qual duas características são observadas: a cor e a forma. Deseja-se construir um sistema

automatizado utilizando um perceptron para classificar o tipo de fruta em duas classes: classe 1 – laranja; classe 2 – maça. Fazendo-se um levantamento de informação, extraiu-se o seguinte conhecimento para classificação:

cor = amarela e forma = redonda fruta é uma laranja cor = amarela e forma = ovalada fruta é maçã

cor = vermelha e forma = redonda fruta é maçã cor = vermelha e forma = ovalada fruta é maçã

Monte um perceptron para resolver este problema considerando uma função de ativação como:

¯ ® ­ !  d  0 1 0 1 ) sgn( x x x

(13)

Bibliografia:

•Hecht-Nielsen, R. Neurocomputing. Addison-Wesley Publishing Company, 1990.

•Haykin, S. Neural Networks: A Comprehensive Foundation. MacMillan, 1994.

•Tsoukalas, L.H.; Uhrig, R.E. Fuzzy and Neural Approaches in Engineering. John Wiley & Sons, 1997.

•Fausett, L. Fundamentals of Neural Networks. Prentice Hall, 1994.

•Lin, Chin-Tseng; Lee, C.S.G. Neural Fuzzy Systems: A Fuzzy Synergism to Intelligent Systems. Prentice Hall, 1996.

•Hagan, M.T.; Demuth, H.B.; Beale, M. Neural Network Design. PWS Publishing Company, 1996.

(14)

Fonte: Revista Galileu Maio 1999 pp. 56 Sugestão de Leitura: Fisiologia Humana e

Mecanismos das Doenças Capítulo 9

Guyton e Hall, 1999 Guanabara-Koogan

(15)
(16)
(17)
(18)

Referências

Documentos relacionados

As ferramentas e as soluções usadas no gerenciamento de desempenho do banco de dados podem explicar por que um servidor SQL, por exemplo, está sendo executado com muito lentidão

Trata-se de ação cautelar fiscal movida pela Fazenda Estadual contra LAERTE CODONHO, ECOSERV PRESTAÇÃO DE SERVIÇOS DE MÃO DE OBRA LTDA, EMPARE EMPRESA PAULISTA DE

A aplicação de parafina em raízes de mandioca tem sido eficiente para prolongar o seu período de conservação.. Este efeito é atribuído à diminuição da permeabilidade ao

(1983) verificaram que a seleção aos cinco anos foi tão eficiente quanto aos 20 anos para os caracteres de crescimento em P. taeda, principalmente para altura, que foi usada

Como vantagens é possível descrever que são formas de ensino inovadoras, que podem propiciar aos alunos demonstrarem seus conhecimentos em grande escala; oportuniza que os

As aplicações de gerenciamento são implementadas como agentes móveis do GRAM com todas as funções necessárias para sua execução e em seguida, são despachados na rede

Com a finalidade de obtenção de extratos enriquecidos em compostos fenólicos, os resíduos de vinificação foram fracionados com auxílio de coluna aberta utilizando

O eixo de trabalho catequético tinha caráter pedagógico, pois os jesuítas consideravam que a conversão era o convencimento como relata Saviani (2004).. A primeira