• Nenhum resultado encontrado

Biologically Inspired Compu4ng: Neural Computa4on. Lecture 2. Patricia A. Vargas

N/A
N/A
Protected

Academic year: 2021

Share "Biologically Inspired Compu4ng: Neural Computa4on. Lecture 2. Patricia A. Vargas"

Copied!
29
0
0

Texto

(1)

Biologically
Inspired
Compu4ng:


Neural
Computa4on


Lecture
2 



(2)

Lecture
2


I.  Lecture
1
–
Revision


II.  Ar4ficial
Neural
Networks
(Part
I) 



I.  Ar4ficial
Neuron


II.  Neural
Network
Architectures


III.  Learning
Paradigms


2
 F21BC2‐BIC‐Neural
Computa4on
2010


(3)

Biological
Neural
Network


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 2: Base Biológica: Aspectos Funcionais e Organizacionais

** Versões anteriores deste material foram elaboradas em conjunto com o Prof. Leandro N. de Castro 9 h B ra in N e tw o rk o f n e u ro n s N e u ro n S yn a p se 2.1.1 Neurônios e Sinapses

• os neurônios utilizam uma variedade de mecanismos bioquímicos para o processamento e transmissão de informação, incluindo os canais iônicos.

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 2: Base Biológica: Aspectos Funcionais e Organizacionais

** Versões anteriores deste material foram elaboradas em conjunto com o Prof. Leandro N. de Castro 10

• os canais iônicos permitem um fluxo contínuo de entrada e saída de correntes

(elétricas), a liberação de neurotransmissores e a geração e propagação de potenciais de ação.

• o processo de transmissão de sinais entre neurônios é fundamental para a capacidade de processamento de informação do cérebro.

• uma das descobertas mais relevantes em neurociência foi a de que a efetividade da transmissão de sinais pode ser modulada, permitindo que o cérebro se adapte a diferentes situações.

• a plasticidade sináptica, ou seja, a capacidade das sinapses sofrerem modificações, é o ingrediente chave para o aprendizado da maioria das RNAs.

• os neurônios podem receber e enviar sinais de/para vários outros neurônios.

• os neurônios que enviam sinais, chamados de neurônios pré-sinápticos ou “enviadores”, fazem contato com os neurônios receptores ou pós-sinápticos em regiões especializadas, denominadas de sinapses.

F21BC2‐BIC‐Neural
Computa4on
2010
 3


• 


How
does
our
brain
process
all
the
informa4on
it
receives/

(4)

The
Synapse


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 2: Base Biológica: Aspectos Funcionais e Organizacionais

** Versões anteriores deste material foram elaboradas em conjunto com o Prof. Leandro N. de Castro 13

! quando um potencial de ação chega ao final do axônio, ele promove a liberação de neurotransmissores (substâncias químicas) na fenda sináptica, os quais se difundem e se ligam a receptores no neurônio pós-sináptico.

! essa ligação entre neurotransmissores e receptores conduz à abertura dos canais iônicos, permitindo a entrada de íons na célula. A diferença de potencial resultante apresenta a forma de um pulso elétrico.

! esses pulsos elétricos se propagam pelo neurônio pós-sináptico até o corpo celular, onde são integrados. A ativação do neurônio pós-sináptico irá se dar apenas no caso do efeito resultante destes pulsos elétricos integrados ultrapassar um dado limiar (threshold).

! alguns neurotransmissores possuem a capacidade de ativar um neurônio enquanto outros possuem a capacidade de inibir a ativação do neurônio, levando este neurônio pós-sináptico a um estado de repouso.

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 2: Base Biológica: Aspectos Funcionais e Organizacionais

** Versões anteriores deste material foram elaboradas em conjunto com o Prof. Leandro N. de Castro 14

• a sinapse é uma fenda entre os terminais pré-sináptico e pós-sináptico, medindo ~20 nm.

F21BC2‐BIC‐Neural
Computa4on
2010
 4


(5)

Synap4c
Plas4city


• 

The
synap4c
plas4city
I
defined
by
the


capability
of
changing
or
modifying
the


synapses.



• 

Exploring
the
synap4c
plas4city
is
crucial
for


the
great
majority
of
learning
algorithms


designed
for
ar4ficial
neural
networks.


F21BC2‐BIC‐Neural
Computa4on
2010
 5


(6)

Ar4ficial
Neural
Networks
(ANN)


• 

History


F21BC2‐BIC‐Neural
Computa4on
2010
 6
 IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux

DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós);

o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de

aprendizagem que é, basicamente, responsável por adaptar os pesos das

(7)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 7
 IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux

DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós); o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou

redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de aprendizagem que é, basicamente, responsável por adaptar os pesos das conexões aos estímulos recebidos do ambiente.

Tópico 4: Projeto de Redes Neurais Artificiais 11

• McCulloch e Pitts consideraram a resposta neural como sendo equivalente a uma

proposição (se A então B) adequada para estimular o neurônio. Sendo assim, eles

estudaram o comportamento de diversas redes neurais utilizando a notação simbólica da lógica das proposições.

• A característica binária dos neurônios era suficiente para garantir que a atividade de qualquer neurônio poderia ser expressa sob a ótica da lógica das proposições. • Obs: Uma proposição é uma sentença declarativa que pode ser verdadeira ou falsa,

mas não ambas. Exemplo: Este curso é IA353. Contra-exemplo: Qual seu nome? • Embora com os conhecimentos atuais sobre os mecanismos físicos e químicos

envolvidos na transmissão de sinais no cérebro seja possível afirmar que nenhum tipo de lógica das proposições é realizada no cérebro, o neurônio de McCulloch e Pitts pode ser visto como um caso particular do neurônio genérico utilizado em RNAs.

• Considere a representação simbólica do neurônio de McCulloch e Pitts:

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 12

!

x

1

x

2 f(u) Junção somadora Função de ativação Saída

u

y

f(u)

u

"

• Cada neurônio possui um limiar (threshold) fixo ", e recebe algumas entradas.

• A cada iteração t, o neurônio responde a suas entradas sinápticas, que refletem o estado do neurônio pré-sináptico. Se nenhuma sinapse inibitória está ativa, o neurônio integra (soma) suas entradas, gerando a entrada líquida (ou entrada

interna) u do neurônio, e verifica se u é maior do que o limiar ". Caso positivo, o

neurônio responde com um sinal de saída de valor 1. Caso negativo, ele responde com um sinal de saída 0.

• Exemplo de operação: funções lógicas OR e AND.

• 

McCulloch
and
Pi\s
(1943)


– 

first
ar4ficial
neuron
model


–  x1
and
x2:


 –  u:
result
of
the
summing
junc4on
 –  f(u)
:
ac4va4on
func4on
 –  y
:
output
 –  MCCULLOCH,
W.S.
&
PITTS,
W.
“A
logical
 calculus
of
the
ideas
immanent
in
nervous
 ac4vity”,
Bulle4n
of
Mathema4cal
 Biophysics,
vol.
5,
pp.
115‐133,
1943.



IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 11

• McCulloch e Pitts consideraram a resposta neural como sendo equivalente a uma

proposição (se A então B) adequada para estimular o neurônio. Sendo assim, eles

estudaram o comportamento de diversas redes neurais utilizando a notação simbólica da lógica das proposições.

• A característica binária dos neurônios era suficiente para garantir que a atividade de qualquer neurônio poderia ser expressa sob a ótica da lógica das proposições. • Obs: Uma proposição é uma sentença declarativa que pode ser verdadeira ou falsa,

mas não ambas. Exemplo: Este curso é IA353. Contra-exemplo: Qual seu nome? • Embora com os conhecimentos atuais sobre os mecanismos físicos e químicos

envolvidos na transmissão de sinais no cérebro seja possível afirmar que nenhum tipo de lógica das proposições é realizada no cérebro, o neurônio de McCulloch e Pitts pode ser visto como um caso particular do neurônio genérico utilizado em RNAs.

• Considere a representação simbólica do neurônio de McCulloch e Pitts:

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 12

!

x1 x2 f(u) Junção somadora Função de ativação Saída u y f(u) u "

• Cada neurônio possui um limiar (threshold) fixo ", e recebe algumas entradas. • A cada iteração t, o neurônio responde a suas entradas sinápticas, que refletem o

estado do neurônio pré-sináptico. Se nenhuma sinapse inibitória está ativa, o neurônio integra (soma) suas entradas, gerando a entrada líquida (ou entrada

interna) u do neurônio, e verifica se u é maior do que o limiar ". Caso positivo, o

neurônio responde com um sinal de saída de valor 1. Caso negativo, ele responde com um sinal de saída 0.

(8)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 8
 IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux

DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós); o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou

redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de aprendizagem que é, basicamente, responsável por adaptar os pesos das conexões aos estímulos recebidos do ambiente.

• 

Norbert
Wiener
(1948)

– 

WIENER,
N.
(1948)


(9)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 9


Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós); o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou

redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de aprendizagem que é, basicamente, responsável por adaptar os pesos das conexões aos estímulos recebidos do ambiente.

• 

Donald
Hebb
(1949)

– 

Hebbian
Learning


– 

Hebb,
D.O.
(1949),
“The


organiza4on
of
behavior”,


New
York,
Wiley.


(10)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 10
 IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux

DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós); o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou

redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de aprendizagem que é, basicamente, responsável por adaptar os pesos das conexões aos estímulos recebidos do ambiente.

• 

Frank
Rosenbla\
(1957)


– 

Perceptron


–  Rosenbla\,
F.
(1958),
“The
perceptron:
A
 probabilis4c
model
for
informa4on
 storage
and
organiza4on
in
the
brain,
 Psychological
Review,
v65,
n6,
pp:
 386‐408.


(11)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 11


Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós); o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou

redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de aprendizagem que é, basicamente, responsável por adaptar os pesos das conexões aos estímulos recebidos do ambiente.

• 

Widrow‐Hoff
Learning
Rule
(1958)


– 

LMS
(Least
Mean‐Square)


algorithm


– 

Widrow
and
Hoff
(1960),
“Adap4ve


Switching
Circuits”,
IRE
WESCON


conven4on
record,
pp:
96‐104.


– 

Widrow
and
Lehr
(1990),
“30
years


of
adap4ve
neural
networks:


perceptron,
madaline,
and


backpropaga4on”,
Proc.
Of
the
Inst.


of
Electrical
and
Electronics


Engineers,
v78,
pp:
1415‐1442.


(12)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 12
 IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux

DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós); o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou

redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de aprendizagem que é, basicamente, responsável por adaptar os pesos das conexões aos estímulos recebidos do ambiente.

• 

Marvin
Minsky
and
Seymour


Papert
(1969)


– 

Book:

“Perceptrons”.


– 

This
book
marked
the


beginning
of
the
“dark
era”
in


ANN
research
–
the
field


stagnated
for
more
than
10


years.


– 

New
updated
version
of
the


book
was
published
in
1988.


(13)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 13


Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós); o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou

redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de aprendizagem que é, basicamente, responsável por adaptar os pesos das conexões aos estímulos recebidos do ambiente.

• 

Hopfield
(1982)


– 

Hopfield
ANN:
a
recurrent


ar4ficial
neural
network


– 

HOPFIELD,
J.J.
(1982),
“Neural


networks
and
physical
systems


with
emergent
collec4ve


computa4onal
abili4es”,


Proceedings
of
the
Na8onal


Academy
of
Sciences
of
the


U.S.A.,
vol.
79,
pp.
2554‐2558.


(14)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 14
 IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux

DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 3

1943 McCulloch e Pitts 1948 Wiener 1949 Hebb 1957 Rosenblatt 1958 Widrow e Hoff !!! !!! 1969 Minsky e Papert !!! !!! 1960-1980

Kohonen, Grossberg, Widrow, Anderson, Caianiello, Fukushima, Aleksander !!! !!! 1974 Werbos !!! !!! 1982 Hopfield 1986 Rumelhart e McClelland

Tabela 1 " Histórico da pesquisa em Redes Neurais Artificiais

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 4

• As RNAs apresentam diversas características em comum com o sistema nervoso: o O processamento básico de informação ocorre em diversas unidades simples

denominadas de neurônios artificiais ou simplesmente neurônios (ou nós); o Os neurônios estão interconectados, o que dá origem a redes de neurônios ou

redes neurais;

o A informação (sinais) é transmitida entre neurônios através de conexões ou sinapses;

o A eficiência de uma sinapse, representada por um peso associado, corresponde à informação armazenada pelo neurônio e, portanto, pela rede neural; e

o O conhecimento é adquirido do ambiente através de um processo de aprendizagem que é, basicamente, responsável por adaptar os pesos das conexões aos estímulos recebidos do ambiente.

• 

Rumelhart
and
McClelland


(1986)


– 

Backpropaga4on
Algorithm
to


train
Mul4‐Layer
perceptron


ANN.


– 

RUMELHART,
D.E.
&


MCCLELLAND,
J.L.
(1986),


“Parallel
Distributed
Processing:


Explora4ons
in
the


Microstructure
of
Cogni4on”,


vols.
1
&
2,
The
MIT
Press.


(15)

Ar4ficial
Neural
Networks


F21BC2‐BIC‐Neural
Computa4on
2010
 15


• 

Generic
Ar4ficial
Neurons


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux

DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 19

uk y

!

x1 x2 xm f(uk) wk1 wk2 wkm +1 wk0 = b0 Junção somadora Função de ativação Saída Pesos das conexões En tra d a s

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 20

( ) ! " ! # $ " < < # = 0 p se 0 1 p 0 se 1 p se 1 k k k k k p f u u u u

u com p constante e positivo.

0 0.2 0.4 0.6 0.8 1 a) 1/p 0 b) 1/p 0 p 0

Função semi-linear (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 15

• O tempo de disparo do neurônio pós-sináptico é definido como sendo o tempo para o potencial de membrana atingir o limiar !.

• Para completar este modelo, basta “resetar” o valor do potencial de membrana do neurônio para seu potencial de repouso após o disparo do neurônio.

O Neurônio Genérico em RNAs

• O elemento computacional básico empregado na maioria das RNAs é um integrador. Trata-se de um elemento processador de informações que é fundamental para a operação das RNAs.

• As principais partes do neurônio artificial genérico são: o as sinapses, caracterizadas pelos seus pesos associados; o a junção somadora; e

o a função de ativação.

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 16

uk yk

"

x1 x2 xm f(uk) Junção somadora Função de ativação Saída wk1 wk2 wkm bk Limiar(bias) Pesos das conexões En tr a d a s

• Nesta representação, o primeiro subscrito k do peso sináptico wkj corresponde ao

neurônio pós-sináptico, e o segundo subscrito corresponde à sinapse ligada a ele. • A junção somadora soma todos os sinais de entrada ponderados pelos pesos das

conexões. Assumindo os vetores de entrada e de pesos como sendo vetores coluna, esta operação corresponde ao produto interno do vetor de entradas x pelo vetor de pesos wk, mais o limiar bk. Genericamente, trata-se de uma combinação linear das

entradas pelos pesos associados, mais o limiar bk.

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 17

• A função de ativação é geralmente utilizada com dois propósitos: limitar a saída do neurônio e introduzir não-linearidade no modelo.

• O limiar bk tem o papel de aumentar ou diminuir a influência do valor da entrada

líquida para a ativação do neurônio k.

o Por exemplo, no neurônio de McCulloch e Pitts, a saída será 1 para u ! ": ! " # ! = = contrário caso 0 ! se 1 ) (u u f y onde u = x1 + x2.

• É possível substituir o limiar (threshold) " por um limiar (bias) que será multiplicado por um valor constante de entrada igual a +1:

! " # ! = = contrário caso 0 0 se 1 ) (u u f y

onde u = x1 + x2 # b (para b negativo).

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 18

• Note que a saída deste neurônio genérico é simplesmente um número, a presença de potenciais de ação (disparos) discretos é ignorada. Entretanto, existem modelos de neurônios, denominados spiking neurons, que utilizam disparos discretos.

• Matematicamente, a saída do neurônio k pode ser descrita por:

$$ % & '' ( ) + = =

*

= k m j j kj k k f u f w x b y 1 ) (

• É possível simplificar a notação acima de forma a incluir o bias simplesmente definindo um sinal de entrada de valor x0 = 1 com peso associado wk0 = bk:

$$ % & '' ( ) = =

*

= m j j kj k k f u f w x y 0 ) (

• Existem vários tipos de função de ativação como, por exemplo, a função linear, a função degrau, as funções sigmoidais, e as funções de base radial.

Tópico 4: Projeto de Redes Neurais Artificiais 17

• A função de ativação é geralmente utilizada com dois propósitos: limitar a saída do neurônio e introduzir não-linearidade no modelo.

• O limiar bk tem o papel de aumentar ou diminuir a influência do valor da entrada

líquida para a ativação do neurônio k.

o Por exemplo, no neurônio de McCulloch e Pitts, a saída será 1 para u ! ":

! " # ! = = contrário caso 0 ! se 1 ) (u u f y onde u = x1 + x2.

• É possível substituir o limiar (threshold) " por um limiar (bias) que será multiplicado por um valor constante de entrada igual a +1:

! " # ! = = contrário caso 0 0 se 1 ) (u u f y

onde u = x1 + x2 # b (para b negativo).

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 18

• Note que a saída deste neurônio genérico é simplesmente um número, a presença de potenciais de ação (disparos) discretos é ignorada. Entretanto, existem modelos de neurônios, denominados spiking neurons, que utilizam disparos discretos.

• Matematicamente, a saída do neurônio k pode ser descrita por:

$$ % & '' ( ) + = =

*

= k m j j kj k k f u f w x b y 1 ) (

• É possível simplificar a notação acima de forma a incluir o bias simplesmente definindo um sinal de entrada de valor x0 = 1 com peso associado wk0 = bk:

$$ % & '' ( ) = =

*

= m j j kj k k f u f w x y 0 ) (

• Existem vários tipos de função de ativação como, por exemplo, a função linear, a função degrau, as funções sigmoidais, e as funções de base radial.

Synap4c

 Weights


Synap4c

 Weights


Summing



Junc4on
 Summing

Junc4on


Ac4va4on


Func4on
 Ac4va4on
Func4on


Output
 Output


Input
 Signals


(16)

Ar4ficial
Neural
Networks


• 

Ac4va4on
func4ons


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 19

uk y

!

x1 x2 xm f(uk) wk1 wk2 wkm +1 wk0 = b0 Junção somadora Função de ativação Saída Pesos das conexões En tra d a s

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 20

( ) ! " ! # $ " < < # = 0 p se 0 1 p 0 se 1 p se 1 k k k k k p f u u u u

u com p constante e positivo.

0 0.2 0.4 0.6 0.8 1 a) 1/p 0 b) 1/p 0 p 0

Função semi-linear (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 11

• McCulloch e Pitts consideraram a resposta neural como sendo equivalente a uma

proposição (se A então B) adequada para estimular o neurônio. Sendo assim, eles

estudaram o comportamento de diversas redes neurais utilizando a notação simbólica da lógica das proposições.

• A característica binária dos neurônios era suficiente para garantir que a atividade de qualquer neurônio poderia ser expressa sob a ótica da lógica das proposições. • Obs: Uma proposição é uma sentença declarativa que pode ser verdadeira ou falsa,

mas não ambas. Exemplo: Este curso é IA353. Contra-exemplo: Qual seu nome? • Embora com os conhecimentos atuais sobre os mecanismos físicos e químicos

envolvidos na transmissão de sinais no cérebro seja possível afirmar que nenhum tipo de lógica das proposições é realizada no cérebro, o neurônio de McCulloch e Pitts pode ser visto como um caso particular do neurônio genérico utilizado em RNAs.

• Considere a representação simbólica do neurônio de McCulloch e Pitts:

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 12

!

x1 x2 f(u) Junção somadora Função de ativação Saída u y f(u) u "

• Cada neurônio possui um limiar (threshold) fixo ", e recebe algumas entradas.

• A cada iteração t, o neurônio responde a suas entradas sinápticas, que refletem o estado do neurônio pré-sináptico. Se nenhuma sinapse inibitória está ativa, o neurônio integra (soma) suas entradas, gerando a entrada líquida (ou entrada

interna) u do neurônio, e verifica se u é maior do que o limiar ". Caso positivo, o

neurônio responde com um sinal de saída de valor 1. Caso negativo, ele responde com um sinal de saída 0.

• Exemplo de operação: funções lógicas OR e AND.

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 21

k k k p p p k e e e f y u u u u ! + = + = = 1 1 1 ) ( = k(1! k)>0 k p y u u u " " 0 0.2 0.4 0.6 0.8 1 -5 0 5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 -5 0 5 a) b) p=0.8 p=1.5 p=3 p=0.8 p=1.5 p=3

Função logística (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 22

k k k k p p p p k k e e e e p f y u u u u u u ! ! + ! = = = ( ) tanh( ) (1 2) 0 > ! = k k p y u u " " -1 -0.5 0 0.5 1 -5 0 5 0 0.5 1 1.5 2 2.5 -5 0 5 a) b) p=1 p=0.6 p=2.2 p=0.6 p=1 p=2.2

Função tangente hiperbólica (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 21

k k k p p p k e e e f y u u u u ! + = + = = 1 1 1 ) ( = k(1! k)>0 k p y u u u " " 0 0.2 0.4 0.6 0.8 1 -5 0 5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 -5 0 5 a) b) p=0.8 p=1.5 p=3 p=0.8 p=1.5 p=3

Função logística (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 22

k k k k p p p p k k e e e e p f y u u u u u u ! ! + ! = = = ( ) tanh( ) (1 2) 0 > ! = k k p y u u " " -1 -0.5 0 0.5 1 -5 0 5 0 0.5 1 1.5 2 2.5 -5 0 5 a) b) p=1 p=0.6 p=2.2 p=0.6 p=1 p=2.2

(17)

Ar4ficial
Neural
Networks


• 

Ac4va4on
func4ons:
Threshold
Func4on


Tópico 4: Projeto de Redes Neurais Artificiais 11

• McCulloch e Pitts consideraram a resposta neural como sendo equivalente a uma

proposição (se A então B) adequada para estimular o neurônio. Sendo assim, eles

estudaram o comportamento de diversas redes neurais utilizando a notação simbólica da lógica das proposições.

• A característica binária dos neurônios era suficiente para garantir que a atividade de qualquer neurônio poderia ser expressa sob a ótica da lógica das proposições. • Obs: Uma proposição é uma sentença declarativa que pode ser verdadeira ou falsa,

mas não ambas. Exemplo: Este curso é IA353. Contra-exemplo: Qual seu nome? • Embora com os conhecimentos atuais sobre os mecanismos físicos e químicos

envolvidos na transmissão de sinais no cérebro seja possível afirmar que nenhum tipo de lógica das proposições é realizada no cérebro, o neurônio de McCulloch e Pitts pode ser visto como um caso particular do neurônio genérico utilizado em RNAs.

• Considere a representação simbólica do neurônio de McCulloch e Pitts:

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 12

!

x1 x2 f(u) Junção somadora Função de ativação Saída u y f(u) u "

• Cada neurônio possui um limiar (threshold) fixo ", e recebe algumas entradas.

• A cada iteração t, o neurônio responde a suas entradas sinápticas, que refletem o estado do neurônio pré-sináptico. Se nenhuma sinapse inibitória está ativa, o neurônio integra (soma) suas entradas, gerando a entrada líquida (ou entrada

interna) u do neurônio, e verifica se u é maior do que o limiar ". Caso positivo, o

neurônio responde com um sinal de saída de valor 1. Caso negativo, ele responde com um sinal de saída 0.

• Exemplo de operação: funções lógicas OR e AND.

If
u
≥
Θ
then
“fire”


If
u
<
Θ
then
“don’t
fire”


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 11

• McCulloch e Pitts consideraram a resposta neural como sendo equivalente a uma

proposição (se A então B) adequada para estimular o neurônio. Sendo assim, eles

estudaram o comportamento de diversas redes neurais utilizando a notação simbólica da lógica das proposições.

• A característica binária dos neurônios era suficiente para garantir que a atividade de qualquer neurônio poderia ser expressa sob a ótica da lógica das proposições. • Obs: Uma proposição é uma sentença declarativa que pode ser verdadeira ou falsa,

mas não ambas. Exemplo: Este curso é IA353. Contra-exemplo: Qual seu nome? • Embora com os conhecimentos atuais sobre os mecanismos físicos e químicos

envolvidos na transmissão de sinais no cérebro seja possível afirmar que nenhum tipo de lógica das proposições é realizada no cérebro, o neurônio de McCulloch e Pitts pode ser visto como um caso particular do neurônio genérico utilizado em RNAs.

• Considere a representação simbólica do neurônio de McCulloch e Pitts:

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 12

!

x

1

x

2 f(u) Junção somadora Função de ativação Saída

u

y

f(u)

u

"

• Cada neurônio possui um limiar (threshold) fixo ", e recebe algumas entradas.

• A cada iteração t, o neurônio responde a suas entradas sinápticas, que refletem o estado do neurônio pré-sináptico. Se nenhuma sinapse inibitória está ativa, o neurônio integra (soma) suas entradas, gerando a entrada líquida (ou entrada

interna) u do neurônio, e verifica se u é maior do que o limiar ". Caso positivo, o

neurônio responde com um sinal de saída de valor 1. Caso negativo, ele responde com um sinal de saída 0.

(18)

Ar4ficial
Neural
Networks


• 

Ac4va4on
func4ons:
Piece‐wise
linear
func4on


• 

p

is
constant
and
posi4ve


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 19

u

k

y

!

x

1

x

2

x

m f(uk)

w

k1

w

k2

w

km

+1

w

k0

= b

0 Junção somadora Função de ativação Saída Pesos das conexões En tra d a s

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 20

( ) ! " ! # $ " < < # = 0 p se 0 1 p 0 se 1 p se 1 k k k k k p f u u u u

u com p constante e positivo.

0 0.2 0.4 0.6 0.8 1 a) 1/p 0 b) 1/p 0 p 0

Função semi-linear (a) e sua derivada em relação à entrada interna (b)

If
pu

k


≥
1
then
f(u

k

)

=
1


If
0
<
pu

k


<
1
then
f(u

k

)

=
pu

k


(19)

Ar4ficial
Neural
Networks


• 

Ac4va4on
func4ons:
Sigmoid
func4on


Tópico 4: Projeto de Redes Neurais Artificiais 21

k k k p p p k

e

e

e

f

y

u u u

u

!

+

=

+

=

=

1

1

1

)

(

= k

(

1! k

)

> 0 k p y u u u " " 0 0.2 0.4 0.6 0.8 1 -5 0 5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 -5 0 5 a) b) p=0.8 p=1.5 p=3 p=0.8 p=1.5 p=3

Função logística (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 22

k k k k p p p p k k

e

e

e

e

p

f

y

u u u u

u

u

! !

+

!

=

=

=

(

)

tanh(

)

(

1 2

)

0 > ! = k k p y u u " " -1 -0.5 0 0.5 1 -5 0 5 0 0.5 1 1.5 2 2.5 -5 0 5 a) b) p=1 p=0.6 p=2.2 p=0.6 p=1 p=2.2

Função tangente hiperbólica (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

21

k k k p p p k

e

e

e

f

y

u u u

u

!

+

=

+

=

=

1

1

1

)

(

=

k

(

1

!

k

)

>

0

k

p

y

u

u

u

"

"

0 0.2 0.4 0.6 0.8 1 -5 0 5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 -5 0 5 a) b) p=0.8 p=1.5 p=3 p=0.8 p=1.5 p=3

Função logística (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

22

k k k k p p p p k k

e

e

e

e

p

f

y

u u u u

u

u

! !

+

!

=

=

=

(

)

tanh(

)

(

1

2

)

0

>

!

=

k k

p

y

u

u

"

"

-1 -0.5 0 0.5 1 -5 0 5 0 0.5 1 1.5 2 2.5 -5 0 5 a) b) p=1 p=0.6 p=2.2 p=0.6 p=1 p=2.2

(20)

Ar4ficial
Neural
Networks


• 

Ac4va4on
func4ons:
Hyperbolic
tangent
func4on


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 21

k k k p p p k

e

e

e

f

y

u u u

u

!

+

=

+

=

=

1

1

1

)

(

= k

(

1! k

)

> 0 k p y u u u " " 0 0.2 0.4 0.6 0.8 1 -5 0 5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 -5 0 5 a) b) p=0.8 p=1.5 p=3 p=0.8 p=1.5 p=3

Função logística (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 22

k k k k p p p p k k e e e e p f y u u u u u u ! ! + ! = = = ( ) tanh( )

(

1 2

)

0 > ! = k k p y u u " " -1 -0.5 0 0.5 1 -5 0 5 0 0.5 1 1.5 2 2.5 -5 0 5 a) b) p=1 p=0.6 p=2.2 p=0.6 p=1 p=2.2

Função tangente hiperbólica (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

21

k k k p p p k

e

e

e

f

y

u u u

u

!

+

=

+

=

=

1

1

1

)

(

=

k

(

1

!

k

)

>

0

k

p

y

u

u

u

"

"

0 0.2 0.4 0.6 0.8 1 -5 0 5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 -5 0 5 a) b) p=0.8 p=1.5 p=3 p=0.8 p=1.5 p=3

Função logística (a) e sua derivada em relação à entrada interna (b)

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

22

k k k k p p p p k k

e

e

e

e

p

f

y

u u u u

u

u

! !

+

!

=

=

=

(

)

tanh(

)

(

1 2

)

0 > ! = k k p y u u

"

"

-1 -0.5 0 0.5 1 -5 0 5 0 0.5 1 1.5 2 2.5 -5 0 5 a) b) p=1 p=0.6 p=2.2 p=0.6 p=1 p=2.2

(21)

Ar4ficial
Neural
Networks


• 

Architectures


Tópico 4: Projeto de Redes Neurais Artificiais 23 1.2. Arquiteturas de Rede

• Muito pouco é sabido sobre os padrões de conexão entre os neurônios biológicos. • Entretanto, a maioria das RNAs utilizam arquiteturas padronizadas, projetadas

especialmente para resolver algumas classes de problemas.

• O processo de conexão entre neurônios artificiais leva à geração de sinapses e à construção de redes neurais artificiais.

w g u wij w xij i yi g yj 1 wi0

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 24

• Existem basicamente três camadas em uma rede neural artificial: uma camada de

entrada, uma camada intermediária, e uma camada de saída. Entretanto, nem

todas as RNAs possuem camadas intermediárias.

• A forma pela qual os neurônios estão interconectados está intimamente relacionada ao algoritmo a ser utilizado no seu treinamento.

• Existem, basicamente, três tipos principais de arquitetura em RNAs: redes

feedforward de uma única camada, redes feedforward de múltiplas camadas, e redes recorrentes.

Rede Feedforward com Uma Única Camada

• Este caso mais simples de rede em camadas consiste em uma camada de entrada e uma camada de saída.

• Geralmente os neurônios de entrada são lineares, ou seja, eles simplesmente propagam o sinal de entrada para a próxima camada. São também denominados de neurônios sensoriais.

(22)

Ar4ficial
Neural
Networks


• 

Architectures:
Single‐layer
Feedforward
Networks


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

25

Camada de entrada Camada de saída Neurônio sensorial Neurônio de processamento y1 y2 y3 yo x0 x1 x2 xm w10 w21 . . . . wom

• Esta rede é denominada feedforward porque a propagação do sinal ocorre apenas

da entrada para a saída, ou seja, é apenas no sentido positivo.

!

!

!

"

#

$

$

$

%

&

=

om o o m

w

w

w

w

w

w

!

"

#

"

"

!

1 0 1 11 10

W

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

26

y

i

= f(w

i

.x) = f(!

j

w

ij

.x

j

) , j = 1,…,m.

Note que a primeira coluna de W corresponde ao vetor de bias.

• Em forma matricial:

y = f(W.x),

onde W " #

o$m

, w

i

" #

1$m

, i = 1,…,o, x " #

m$1

, e y " #

o$1

.

Rede Feedforward de Múltiplas Camadas

• As redes de múltiplas camadas possuem uma ou mais camadas intermediárias ou

escondidas. Adicionando-se camadas intermediárias não-lineares é possível

aumentar a capacidade de processamento de uma rede feedforward.

• A saída de cada camada intermediária é utilizada como entrada para a próxima

camada.

• Em geral o algoritmo de treinamento para este tipo de rede envolve a

retropropagação do erro entre a saída da rede e uma saída desejada conhecida.

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

25

Camada de entrada Camada de saída Neurônio sensorial Neurônio de processamento y1 y2 y3 yo x0 x1 x2 xm w10 w21 . . . . wom

• Esta rede é denominada feedforward porque a propagação do sinal ocorre apenas

da entrada para a saída, ou seja, é apenas no sentido positivo.

!

!

!

"

#

$

$

$

%

&

=

om o o m

w

w

w

w

w

w

!

"

#

"

"

!

1 0 1 11 10

W

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

26

y

i

= f(w

i

.x) = f(!

j

w

ij

.x

j

) , j = 1,…,m.

Note que a primeira coluna de W corresponde ao vetor de bias.

• Em forma matricial:

y = f(W.x),

onde W " #

o$m

, w

i

" #

1$m

, i = 1,…,o, x " #

m$1

, e y " #

o$1

.

Rede Feedforward de Múltiplas Camadas

• As redes de múltiplas camadas possuem uma ou mais camadas intermediárias ou

escondidas. Adicionando-se camadas intermediárias não-lineares é possível

aumentar a capacidade de processamento de uma rede feedforward.

• A saída de cada camada intermediária é utilizada como entrada para a próxima

camada.

• Em geral o algoritmo de treinamento para este tipo de rede envolve a

retropropagação do erro entre a saída da rede e uma saída desejada conhecida.

(23)

Ar4ficial
Neural
Networks


• 

Architectures:
Mul4layer
Feedforward
Networks


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux

DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 27

Camada de entrada Primeira camada escondida Camada de saída Segunda camada escondida y1 y2 yo x0 x1 x2 xm

• Seja Wk a matriz de pesos da camada k, contadas da esquerda para a direita.

wijk corresponde ao peso ligando o neurônio pós-sináptico i ao neurônio

pré-sináptico j na camada k.

• Em notação matricial, a saída da rede é dada por:

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 28 y = f3(W3 f2(W2 f1(W1x)))

• Note que fk, k = 1,..., M (M = número de camadas da rede) é uma matriz quadrada

fk ! "l#l, onde l é o número de neurônios na camada k.

• O que acontece se as funções de ativação das unidades intermediárias forem lineares?

Redes Recorrentes

• O terceiro principal tipo de arquitetura de RNAs são as denominadas de redes recorrentes, pois elas possuem, pelo menos, um laço realimentando a saída de neurônios para outros neurônios da rede.

W

k


is
the
synap4c


weight
matrix
of


layer
k


Tópico 4: Projeto de Redes Neurais Artificiais

27

Camada de entrada Primeira camada escondida Camada de saída Segunda camada escondida

y

1

y

2

y

o

x

0

x

1

x

2

x

m

• Seja W

k

a matriz de pesos da camada k, contadas da esquerda para a direita.

w

ijk

corresponde ao peso ligando o neurônio pós-sináptico i ao neurônio

pré-sináptico j na camada k.

• Em notação matricial, a saída da rede é dada por:

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

28

y = f

3

(W

3

f

2

(W

2

f

1

(W

1

x)))

• Note que f

k

, k = 1,..., M (M = número de camadas da rede) é uma matriz quadrada

f

k

! "

l#l

, onde l é o número de neurônios na camada k.

• O que acontece se as funções de ativação das unidades intermediárias forem

lineares?

Redes Recorrentes

• O terceiro principal tipo de arquitetura de RNAs são as denominadas de redes

recorrentes, pois elas possuem, pelo menos, um laço realimentando a saída de

neurônios para outros neurônios da rede.

(24)

Ar4ficial
Neural
Networks


• 

Architectures:
Recurrent
Neural
Networks


IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 29 Z!1

Z!1

Z!1

Rede neural recorrente de Hopfield.

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais 30

• É claro que existem outras arquiteturas de redes neurais, como exemplo a rede abaixo.

Rede neural arbitrária.

Ex:
Hopfield
Neural


Network


(25)

Ar4ficial
Neural
Networks


• 

Learning
Paradigms


I.  Supervised
Learning


II.  Unsupervised
Learning


III.  Reinforcement
Learning


DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

31

1.3. Paradigmas de Aprendizagem

• A capacidade de “aprender” associada a uma rede neural é uma das mais

importantes qualidades destas estruturas.

• Trata-se da habilidade de adaptar-se, de acordo com regras pré-existentes, ao seu

ambiente, alterando seu desempenho ao longo do tempo.

• Sendo assim, considera-se “aprendizado” o processo que adapta o comportamento

e conduz a uma melhoria de desempenho.

• No contexto de redes neurais artificiais, aprendizagem ou treinamento corresponde

ao processo de ajuste dos parâmetros livres da rede através de um mecanismo de

apresentação de estímulos ambientais, conhecidos como padrões (ou dados) de

entrada ou de treinamento:

estímulo ! adaptação ! novo comportamento da rede

IA353 – Profs. Fernando J. Von Zuben & Romis R. F. Attux DCA/FEEC/Unicamp & DECOM/FEEC/Unicamp

Tópico 4: Projeto de Redes Neurais Artificiais

32

• Nas RNAs mais simples e tradicionais, os parâmetros livres da rede correspondem

apenas aos pesos sinápticos. Toda a estrutura da rede, incluindo os tipos de

neurônios e suas funções de ativação, é pré-definida.

• O objetivo do aprendizado em redes neurais é a obtenção de um modelo implícito

do sistema em estudo, por ajuste dos parâmetros da rede.

• Dada uma rede neural artificial, seja w(t) um peso sináptico de um dado neurônio,

no instante de tempo t. O ajuste "w(t) é aplicado ao peso sináptico w(t) no instante

t, gerando o valor corrigido w(t+1), na forma:

w(t+1) = w(t) + "w(t)

• A obtenção de "w(t) pode ser feita de diversas formas. O tipo de aprendizado é

determinado pela técnica empregada no processo de ajuste dos pesos sinápticos

(parâmetros da rede neural).

Referências

Documentos relacionados

Quando as carnes in natura (bovina, suína, frango, peixe e outros) e seus produtos cárneos, que são utilizados na alimentação humana, iniciam o processo

Como já destacado anteriormente, o campus Viamão (campus da última fase de expansão da instituição), possui o mesmo número de grupos de pesquisa que alguns dos campi

Segundos os dados analisados, os artigos sobre Contabilidade e Mercado de Capital, Educação e Pesquisa Contábil, Contabilidade Gerencial e Contabilidade Socioambiental

que utilizaram, ou não, irrigação de pastagens (P&gt;0,05), no entanto, observou-se maior valor para as propriedades que não utilizam irrigação, pois naquelas que

O presente artigo se propôs a estabelecer as bases fundamentais do Direito &amp; Literatura e, a partir delas, examinar relevantes aspectos da obra literária “1984” de

O enfermeiro, como integrante da equipe multidisciplinar em saúde, possui respaldo ético legal e técnico cientifico para atuar junto ao paciente portador de feridas, da avaliação

Το αν αυτό είναι αποτέλεσμα περσικής χοντροκεφαλιάς και της έπαρσης του Μιθραδάτη, που επεχείρησε να το πράξει με ένα γεωγραφικό εμπόδιο (γέφυρα σε φαράγγι) πίσω

Este estudo apresenta como tema central a análise sobre os processos de inclusão social de jovens e adultos com deficiência, alunos da APAE , assim, percorrendo