Aprendizagem Competitiva
•Neurônios da camada de saída da RNA competem entre si para ser o neurônio ativado (um único neurônio é ativado) => Aprendizado competitivo é adequado para descobrir características estatísticas salientes, que podem ser usadas para classificar um conjunto de dados de entrada.
•Elementos básicos para uma regra de aprendizado competitivo:
•Um conjunto de neurônios do mesmo tipo exceto por alguns pesos sinápticos distribuídos aleatoriamente, respondem diferentemente a um dado conjunto de padrões de entrada.
•Um limite imposto à robustez de cada neurônio.
•Um mecanismo que permite os neurônios competirem pelo direito de responder à uma certa entrada (subconjunto). O neurônio ganhador é o neurônio que leva tudo (winner-takes-all).
Aprendizagem Competitiva
•Os neurônios individuais aprendem e se especializam nos conjuntos de padrões similares => tornam-se detetores de características.
•Forma mais simples de aprendizagem competitiva consiste de uma RNA de uma camada única com todos os neurônios totalmente conectados às entradas.
•O neurônio j é o ganhador se possuir o maior nível de atividade interna vj, para um vetor de entrada. A saída yj do neurônio ganhador é feita igual a 1. As saídas dos outros neurônios são zero.
Camada de entrada 1 3 2 x1 x2 x3 Camada de Saída 1 y1 2 3 4 y2 y3 y4 w21 w41 w31 w22 w23 w32 w33 w43 w42 w11 w12 w 13
Aprendizagem Competitiva
wji > 0 - peso entre o neurônio j e a entrada i.
•Pesos alocados em quantidades fixas para cada neurônio:
•Aprendizagem é o deslocamento dos pesos sinápticos dos nós inativos para os ativos. Se o neurônio ganha uma competição cada peso de cada entrada tem seu valor alterado de acordo com a regra de aprendizagem competitiva padrão:
•A regra tem o efeito de mover o vetor de pesos sinápticos w do neurônio j na direção do padrão de entrada .
j w i ji
¦
1 ¯ ® ' perde j se ganha j se w x wji i ji , 0 ), ( KTarefas de Aprendizagem
•Aproximação de função - aprendizagem supervisionada
•Associação
-•Autoassociação - aprendizagem não-supervisionada •Heteroassociação - aprendizagem supervisionada
•Classificação de Padrões
•Padrões conhecidos - aprendizagem supervisionada
•Padrões desconhecidos - aprendizagem não-supervisionada (clusterização)
•Predição (problema de processamento de sinais temporais) aprendizagem supervisionada
Modelos de Redes - Perceptron ) ( 1 k N i i ki k F w x y
¦
T yk x1 x2 xN Entradas wk1 wk2 wkN Neurônio K k T)
)
1
(
...
(
1
k0 k k1 1 kN N k0 kw
o
y
F
w
x
w
x
w
T
)
(
)
(
0X
W
F
x
w
F
T N i i ki¦
» » » » » ¼ º « « « « « ¬ ª » » » » » ¼ º « « « « « ¬ ª N kN k k x x X w w w W ... 1 ... 1 1 0Modelos de Redes - Perceptron 2 1
,
0
,
0
C
X
X
W
Se
C
X
X
W
Se
T T
t
•Resolve problemas de classificação de duas classes (C1 e C2) linearmente separáveis.
•Regra de classificação:
•Adaptação dos Pesos:
°¯
°
®
t
°¯
°
®
t
1 2 2 1)
(
0
)
(
)
(
)
(
)
(
)
(
)
1
(
)
(
0
)
(
)
(
)
(
)
(
)
(
)
1
(
)
2
)
(
0
)
(
)
(
)
(
)
1
(
)
(
0
)
(
)
(
)
(
)
1
(
)
1
C
n
X
e
n
X
n
W
se
n
X
n
n
W
n
W
C
n
X
e
n
X
n
W
se
n
X
n
n
W
n
W
C
n
X
e
n
X
n
W
se
n
W
n
W
C
n
X
e
n
X
n
W
se
n
W
n
W
T T T TK
K
Algoritmo para aprendizagem - Perceptron:
•Passo 1. Inicializa pesos: W (0) 0
•Passo 2. Ativa a rede - vetor de entrada e a resposta desejada: X (n) e d(n)
•Passo 3. Calcula-se a saída: y(n) F(W T (n)X ( - n)) F(.) é a função sinal
•Passo 4. Atualiza os pesos:
¯ ® 2 1 ) ( 1 ) ( 1 ) ( ) ( )] ( ) ( [ ) ( ) 1 ( C n X se C n X se n d n X n y n d n W n W K
Modelos de Redes - Perceptron
1) P = [-0.5 -0.5 +0.3 +0.0; T = [1 1 0 0]; -0.5 +0.5 -0.5 +1.0];
Valores iniciais: W = [ 0.4258 -0.2140]; b = -0.0455
2) P = [-1 +1 -1 +1 -1 +1 -1 +1; T = [0 1 0 0 1 1 0 1]; -1 -1 +1 +1 -1 -1 +1 +1; -1 -1 -1 -1 +1 +1 +1 +1]; W = [-0.9309 -0.8931 0.0594]; b = 0.3423; W = [2.0691 -1.8931 3.0594]; b = -0.6577 Cont.
Cont. 3) P = [+0.1 +0.7 +0.8 +0.8 +1.0 +0.3 +0.0 -0.3 -0.5 -1.5; T = [1 1 1 0 0 1 1 1 0 0; +1.2 +1.8 +1.6 +0.6 +0.8 +0.5 +0.2 +0.8 -1.5 -1.3]; 0 0 0 0 0 1 1 1 1 1]; W = [-0.9339 -0.0030; b = [0.4966; 0.0689 0.9107]; 0.1092]; W = [ -2.9339 4.0970; b =[-0.5034 -5.0311 -4.3893]; 4.1092]; Erro
Problema: Considere um problema no qual duas características são observadas: a cor e a forma. Deseja-se construir um sistema
automatizado utilizando um perceptron para classificar o tipo de fruta em duas classes: classe 1 – laranja; classe 2 – maça. Fazendo-se um levantamento de informação, extraiu-se o seguinte conhecimento para classificação:
cor = amarela e forma = redonda fruta é uma laranja cor = amarela e forma = ovalada fruta é maçã
cor = vermelha e forma = redonda fruta é maçã cor = vermelha e forma = ovalada fruta é maçã
Monte um perceptron para resolver este problema considerando uma função de ativação como:
¯ ® ! d 0 1 0 1 ) sgn( x x x
Bibliografia:
•Hecht-Nielsen, R. Neurocomputing. Addison-Wesley Publishing Company, 1990.
•Haykin, S. Neural Networks: A Comprehensive Foundation. MacMillan, 1994.
•Tsoukalas, L.H.; Uhrig, R.E. Fuzzy and Neural Approaches in Engineering. John Wiley & Sons, 1997.
•Fausett, L. Fundamentals of Neural Networks. Prentice Hall, 1994.
•Lin, Chin-Tseng; Lee, C.S.G. Neural Fuzzy Systems: A Fuzzy Synergism to Intelligent Systems. Prentice Hall, 1996.
•Hagan, M.T.; Demuth, H.B.; Beale, M. Neural Network Design. PWS Publishing Company, 1996.
Fonte: Revista Galileu Maio 1999 pp. 56 Sugestão de Leitura: Fisiologia Humana e
Mecanismos das Doenças Capítulo 9
Guyton e Hall, 1999 Guanabara-Koogan