• Nenhum resultado encontrado

Redes Neurais Artificiais

N/A
N/A
Protected

Academic year: 2021

Share "Redes Neurais Artificiais"

Copied!
25
0
0

Texto

(1)

Redes Neurais Artificiais

José Demisio Simões da Silva

LAC/INPE

Inteligência Artificial

•Processos computacionais que tentam emular os processos de pensamento humano que estão associados com atividades que requerem o uso de

inteligência.

Inteligência Artificial

Sistemas de IA:

•Armazenar conhecimento (Representação)

•Aplicar o conhecimento em problemas (Raciocínio)

•Adquirir novos conhecimentos (Aprendizagem)

Paradigmas Computacionais

Algorítmico

Simbólico

(2)

Motivação para a

Neurocomputação

Cérebro

Trecho do Programa Globo Reporter da Rede Globo - 1999 Trecho do Programa Globo Reporter da Rede Globo - 1999

Trecho do Programa Globo Reporter da Rede Globo - 1999

Neurocomputação

•"Disciplina tecnológica que trata dos sistemas de processamento de informação paralelos, distribuídos e adaptáveis, que autonomamente desenvolvem capacidades de processamento da informação como respostas ao ambiente de informação." (Hecht-Nielsen, 1990).

•Não necessita do desenvolvimento de regras ou de algoritmos e reduz a quantidade de software que deve ser desenvolvido.

•Estruturas Primárias de Processamento da Informação de Interesse: Redes Neurais

(3)

Áreas de atividade na Neurocomputação: Arquitetura e Teoria

•Desenvolvimento e estudos de arquiteturas de neurocomputação e de teorias de operação para elas. Avaliações experimentais dos sistemas, empregando toy problems.

Implementação

•Pesquisa e desenvolvimento de implementações de arquiteturas de neurocomputação (linguagens para descrição de arquiteturas; neurocomputadores; e interfaces entre sistemas computacionais convencionais e sistemas de neurocomputadores.)

Áreas de atividade na Neurocomputação:

Aplicações •Engenharia Civil •Engenharia Mecânica •Engenharia Elétrica •Controle e Automação •Finanças •Reconhecimento de Padrões •Aproximação de funções •Processamento de Imagens •Visão Computacional •Robótica •Linguagem Natural •Processamento de Sinais, etc.

Motivação Rede Neural Artificial:cérebro

•Difere dos computadores digitais (na forma de fazer computação).

•Estrutura básica constituinte neurônio (Ramón e Cajál, 1911 -Haykin, 1994).

•Neurônio execução milisegundos (10-3s) X porta lógica

nanosegundos (10-9s)

•No. de neurônios e interconexões supera a baixa velocidade de

operação (10 bilhões de neurônios e 60 trilhões de conexões -Haykin, 1994).

•Sistema complexo, não linear e paralelo.

•Organiza os neurônios para executar tarefas muito mais rapidamente do que os computadores digitais:

1) Cérebro com o sistema visual humano no reconhecimento de uma face familiar em cena não familiar (mais rápido que os computadores).

2) O morcego (cérebro - dimensão de uma ameixa) na extração de informações (distância de um alvo, velocidade relativa, tamanho, dimensões de várias características, azimute e elevação).

(4)

•Constrói as próprias regras através de experiências (conhecimento).

•Experiência - adquirida com os anos. Desenvolvimentos mais marcantes (por exemplo, a escrita) acontecem nos primeiros 2 anos de vida - milhões de conexões sinapses são formadas por segundo - (processo contínuo).

Motivação Rede Neural Artificial:cérebro

Axônio Sinapse Núcleo Dendrito Sinapse Componentes de um Neurônio Motivação Rede Neural Artificial: cérebro

•Tipos de Sinapses: Excitação ou Inibição

•Sinapses químicas:

Processo pré-sináptico libera neurotransmissores que são difundidos na junção sináptica e depois age sobre um processo pós-sináptico.

Sinal Elétrico => Sinal Químico => Sinal Elétrico (Pré-sináptico) (Pós-sináptico)

•Plasticidade de um neurônio - capacidade de adaptação ao ambiente.

•Mecanismos de plasticidade (cérebro de um adulto):

•Criação de novas conexões sinápticas

•Modificação das sinapses existentes

(5)

Redes Neurais Artificiais - RNA

•Modelam a forma do cérebro desempenhar tarefas ou funções.

•Implementação em hardware (hd) ou simuladas em software.

•Interconexão maciça das células computacionais (neurônios, ou unidades de processamento) para alcançar um bom desempenho.

•Desempenham as computações através de um processo de aprendizagem.

Definição de uma RNA:

•Processador paralelo distribuído com capacidade natural para armazenar conhecimento experimental para uso posterior.

•Imita o cérebro de duas formas:

•Adquire de conhecimento através de aprendizagem.

•Armazena conhecimento nas conexões inter neurônios (pesos).

•Aprendizagem:

•Algoritmo modifica os pesos da rede de uma forma ordenada para adquirir uma arquitetura previamente desejada.

•Também pode modificar a própria topologia.

ÖNão linearidade ÖMapeamento de entrada/saída ÖAdaptabilidade ÖResposta evidencial ÖInformação contextual ÖTolerância à falha ÖImplementação em VLSI ÖUniformidade da análise e projeto ÖAnalogia neurobiológica

Benefícios Histórico

•1943 :

•McCulloch e Pitts - “A Logical Calculus of the Ideas Immanent in Nervous Activity.” Bulletin of Mathematical Biophysics, 1943, 5:115-133.

•1949 :

•Donald Hebb - Postulado para aprendizagem (Regra de Hebb)

•1958 :

•Frank Rosenblatt - Perceptron - classificador de padrões separáveis

linearmente

•1969 :

•Minksy e Paper - “Perceptron: na introduction to computational geometry”. MIT Press, Massachusetts, 1969. - Perceptron não resolvem problemas não-lineares.

(6)

Histórico

•Anos 70 - poucas pesquisas (Fukushima, Grossber, Kohonen)

•1982 :

•John Hopfield Paper enfatizando as propriedades associativas das RNA -Reiniciaram as pesquisas - relação entre redes recorrentes e sistemas físicos •1986 :

•D.E. Rumelhart, G.E. Hinton e R.J. Williams, “Learning representations by

back-propagating errors”, Nature, 323:533-536, 1986.

==> Retomada pelas pesquisas !

Neurônio Biológico Neurônio Artificial x1 x2 . . . xn Saída E n tr adas v Pesos sinápticos w1 w2 . . . wn y Axônio Sinapse Núcleo Dendrito Sinapse Inspiração Biológica

Modelo de Neurônio Artificial (McCulloch e Pitts, 1943)

Saída E n tr adas uk Pesos wk1 wk2 wkn x1 x2 . . . xn yk

(.)

ϕ

k

θ

= = n j j kj k w x u 1 k k k u v = −θ yk =

ϕ

(vk)

Modelo de Neurônio Artificial

= = n j j kj k w x v 0 ) ( k k v y =

ϕ

Saída E n tr adas vk wk1 wk2 wkn x1 x2 . . . xn yk (.) ϕ ∑ wk0 x0= -1 wk0= é um limiar ou polarizaçãoθk

(7)

Exemplos de função de Transferência -FunçãoSinal -1 v y 1    < − ≥ + = 0 , 1 0 , 1 v v y FunçãoLimiar v y 1    < ≥ = 0 , 0 0 , 1 v v y ) (v

y=ϕ Exemplos de função de Transferência

-Função Rampa y      > < ≤ < = 1 1 0 0 , 1 , , 0 v v v v y ) (v yv 1 1 y v Função Linear v y =

Exemplos de função de Transferência

-Logística 1 0 v y ) 1 ( 1 v e y + = Tangente Hiperbólica ) 1 ( 1 ) 2 tanh( v v e e v y − + − = = 0 v y -1 1 ) (v y

(8)

Camada de entrada 1 3 2 x1 x2 x3 w11 w21 w41 w31 w22 w23 w32 w33 w43 w42

Arquiteturas de Redes Neurais Artificiais

Camada de Saída 1 y1 2 3 4 y2 y3 y4 w12 w13

Rede feedforward Camada Simples

Arquiteturas de Redes Neurais Artificiais

Camada de entrada 1 3 2 x1 x2 x3 w21 w41 w31 w22 w23 w32 w33 w43 w42 Camada de Saída 5 6 y1 y2 1 w11 w12 w13 Camada escondida w51 w61 2 3 4 w52 w53 w54 w62 w64 w63

Rede feedforward de múltiplas camadas totalmente conectada

Arquiteturas de Redes Neurais Artificiais

Camada de entrada 1 3 2 x1 x2 x3 w21 w22 w32 w33 w43 w42 Camada de Saída 5 6 y1 y2 1 w11 w12 Camada escondida w51 w61 2 3 4 w52 w53 w54 w62 w64 w63

Rede parcialmente conectada

Arquiteturas de Redes Neurais Artificiais

Rede recorrente sem auto realimentação

e sem neurônios escondidos

1 2 3 4 z-1 z-1 z-1 z-1

(9)

Arquiteturas de Redes Neurais Artificiais

Rede recorrente com neurônios escondidos 1 2 3 4 z-1 z-1 z-1 z-1 En tr a d a s Sa íd a s

Arquiteturas de Redes Neurais Artificiais

Reticulado 2D 1 2 3 4 5 6 8 9 10 Reticulado 1D 1 2 3 4 Representação do Conhecimento

Conhecimento: informação ou modelos armazenados por uma pessoa ou uma máquina para interpretar, prever e responder adequadamente ao ambiente.

Características da representação do conhecimento:

1) Que informação representar

2) Como codificar fisicamente

Representação do Conhecimento

•RNA deve aprender um modelo consistente do ambiente para atingir objetivos específicos da aplicação.

Tipos de conhecimento:

Fatos conhecidos disponíveis

(10)

Visualização de Processos em uma RNA

Fonte: Haykin, 1994. pp. 32

Visualização de Processos em uma RNA

Fonte: Haykin, 1994. pp. 32

Aprendizagem

•Processo de adaptação dos pesos das conexões da rede em resposta às entradas.

Ativação

•Processo de produção de uma saída, a partir da excitação da entrada, de acordo com a estrutura final da rede conseguida na aprendizagem.

Funcionamento de uma RNA

))

(

),

(

),

(

),

(

(

)

(

n

L

w

n

x

n

y

n

d

n

w

=

)) ( ), ( ), ( ( ) (n Lw n x n yn w = ∆ ) ( ) ( ) 1 (n w n wn w + = +∆ Processo de Aprendizagem

•Rede Neural aprende a partir de seu próprio ambiente.

•Melhora o desempenho da RNA

(11)

Processo de Aprendizagem

•No contexto de Redes Neurais (Mendel e Mcllaren, 1970 -Haykin, 1994):

Aprendizagem é um processo no qual os parâmetros livres

(pesos) de uma RN são adaptados através de um processo contínuo de simulação pelo ambiente no qual a rede está embutida. O tipo do aprendizado é determinado pela

maneira pela qual a mudança de parâmetros acontece.”

Processo de Aprendizagem

Seqüência de eventos para aprendizagem:

•Estimulação pelo ambiente

•Mudança da RNA (por causa do estímulo)

•RNA responde de uma nova forma ao ambiente por causa das mudanças na sua estrutura interna

Processo de Aprendizagem … … vj xj ϕ(vj) … … vk yk wkj ϕ(vk) Neurônio k Haykin, 1994

xj- saída do neurônio j (atividade pré-sináptica)

vk- atividade interna do neurônio k (atividade pós-sináptica)

w

kj

(n+1) = w

kj

(n) +

w

kj

(n)

Sinapse

Neurônio j

Algoritmo de Aprendizagem

•Conjunto de regras para atualização dos pesos

•Não existe um algoritmo único

•Algoritmos diferem:

•No cálculo de ∆wkj

(12)

Taxonomia do Processo de Aprendizagem (Haykin, 1994) Processo de Aprendizagem Algoritmos Paradigmas Co rr eçã o d o erro Bo lz m a n n L ei d o ef ei to d e T h o rndike H ebbi a n o Co mpe tit iv o Supe rv is io na do o -Supe rv is io na do Ref o o Aprendizagem Supervisionada Ambiente Supervisor

Sistema de Aprendizagem + -Resposta obtida Erro Resposta desejada Informações de estado Aprendizagem Não-Supervisionada Ambiente Sistema de Aprendizagem Informações de estado

•Sem exemplos específicos

•Medida independente da tarefa indica a qualidade da representação que a rede deve aprender; os pesos são otimizados de acordo com essa medida.

•Aprendizagem pára quando a rede está sintonizada com as regularidades estatísticas dos dados de entrada.

Aprendizagem por correção do erro

)

(

)

(

)

(

n

d

n

y

n

e

k

=

k

k … … vj xj ϕ(vj) Neurônio j … … vk yk wkj ϕ(vk) Neurônio k Sinapse -1 dk ek

(13)

Aprendizagem por correção do erro

•Minimiza uma função de custo baseada no sinal de erro ek(n)

(Critério mais usado: erro quadrático médio)

•Para uma função de custo escolhida => problema de otimização.

=> A minimização de J pelo método do gradiente descendente

=

k k

n

e

E

J

(

)

2

1

2

Problema: requer conhecimento das características estatísticas do processo.

Solução: buscar por uma solução aproximada

•Critério de interesse: valor instantâneo da soma dos erros

quadráticos.

=> otimização pela minimização de ε(n) em função dos pesos.

=

k k

n

e

n

(

)

2

1

)

(

2

ε

•A regra de aprendizagem por correção do erro(ou Regra Delta):

η> 0 →taxa de aprendizagem

•Aprendizagem por correção de erro => um sistema realimentado fechado.

•ηdeve ser escolhido para garantir estabilidade no processo.

•η→muito pequeno →convergência demorada

•η→muito grande →aprendizagem acelerada, mas pode divergir

)

(

)

(

n

ex

n

w

kj

=

η

j

η- adequado

(14)

η- muito grande

Neurônios Lineares=> superfície de erro é uma função quadrática dos pesos com um ponto de mínimo => objetivo atingido

•O algoritmo inicia em um ponto arbitrário da superfície (pesos iniciais) e move-se para um mínimo global, passo a passo.

Neurônios não Lineares=> superfície de erro possui um mínimo global e vários mínimos locais => nem sempre atinge o objetivo

•O algoritmo inicia em um ponto arbitrário da superfície e move-se para um mínimo global, passo a passo.

Aprendizado Hebbiano

•Donald Hebb (1949) postulou a base para a aprendizado associativo:

“Quando o axônio de uma célula A está perto o

suficiente para excitar uma célula B e repetida ou persistentemente participa de sua ativação, algum processo de crescimento ou mudança metabólica acontece em uma ou em ambas as células tal que, a eficiência de A como uma das

(15)

Aprendizado Hebbiano

•No contexto de RNA (Haykin, 1994) :

•Se dois neurônios em ambos os lados de

uma sinapse (conexão) são ativados simultaneamente (i.e., em sincronismo) então a sinapse deve ser fortalecida. Se a ativação é assíncrona, então a sinapse deve ser enfraquecida ou eliminada.

Aprendizado Hebbiano

F(*,*) →função das atividades pré e pós-sinápticas.

yk(n), xj(n) →variáveis adimensionais. )) ( ), ( ( ) (n F y n x n wkj = k j ∆ … … vj xj ϕ(vj) Neurônio j … … vk yk wkj ϕ(vk ) Neurônio k Aprendizado Hebbiano

Regra do produto ativo

Enfatiza a correlação inerente de uma sinapse Hebbiana.

)

(

)

(

)

(

n

y

n

x

n

w

=

×

×

η

Aprendizado Hebbiano

[

( ) ( )

]

) ( ) ( ) ( ) ( ) ( ) ( n w n cx n y n w n y n x n y n w kj j k kj k − = − = ∆ α α η α η = c kj wj x k y α 0 Ponto de equilíbrio = wkj(n) / c

Ponto de depressão máxima = αykwkj

(16)

Aprendizagem Competitiva

•Neurônios da camada de saída da RNA competem entre si

para ser o neurônio ativado (um único neurônio é ativado)

•Aprendizado competitivo é adequado para descobrir características estatísticas salientes, que podem ser usadas para classificar um conjunto de dados de entrada.

Aprendizagem Competitiva

•Elementos básicos para uma regra de aprendizado competitivo:

•Conjunto de neurônios do mesmo tipoexceto por alguns pesos

sinápticos distribuídos aleatoriamente, respondem

diferentemente a um dado conjunto de padrões de entrada.

•Limiteimposto àrobustezde cada neurônio.

•Mecanismo que permite os neurônios competirempelo direito de responder à uma certa entrada (subconjunto). O neurônio ganhador é o neurônio que leva tudo (winner-takes-all).

Aprendizagem Competitiva

•Os neurônios individuais aprendem e se especializam nos

conjuntos de padrões similares => tornam-se detetores de

características.

•Forma mais simples de aprendizagem competitiva consiste de uma RNA de uma camada única com todos os neurônios totalmente conectados às entradas.

Aprendizagem Competitiva

•O neurônio j é o vencedor se possuir o maior nível de atividade

interna vj, para um vetor de entrada. A saída yj do neurônio

vencedor é feita igual a 1. As saídas dos outros neurônios são zero.

Camada de entrada 1 3 2 x1 x2 x3 Camada de Saída 1 y1 2 3 4 y2 y3 y4 w21 w41 w31 w22 w23 w32 w33 w43 w42 w11 w12 w13

(17)

Aprendizagem Competitiva

•Alocação de pesos em quantidades fixas para cada neurônio:

j

w

i

ji

=

1

0

>

ji

w

Aprendizagem Competitiva

•Aprendizagem: deslocamento dos pesos sinápticos dos nós inativos para os ativos.

•Cada peso do neurônio vencedor de cada entrada é adaptado pela regra de aprendizagem competitiva padrão:

•A regra move o vetor de pesos sinápticosw, do neurônio j, na

direção do padrão de entrada.

=

vence

não

j

se

vencedor

j

se

w

x

w

ji i ji

_

,

0

),

(

η

Aprendizagem Competitiva Camada de entrada 1 3 2 x1 x2 x3 Camada de Saída 1 y1 2 3 4 y2 y3 y4 w21 w41 w31 w22 w23 w32 w33 w43 w42 w11 w12 w 13 Aprendizagem Competitiva

(18)

Tarefas de Aprendizagem •Aproximação de função- aprendizagem supervisionada

Associação

-•Autoassociação - aprendizagem não-supervisionada •Heteroassociação - aprendizagem supervisionada •Classificação de Padrões

•Padrões conhecidos - aprendizagem supervisionada •Padrões desconhecidos - aprendizagem não-supervisionada

(clusterização)

Predição(problema de processamento de sinais temporais) -aprendizagem supervisionada •Controle- aprendizagem supervisionada

w11 w12 b x1 x2 -1 F y v

Neurônio de McCullosch-Pitts abaixo resolve o problema da porta AND. AND x1 x2 y 0 0 0 0 1 0 1 0 0 1 1 1

0

0

2 12 1 11 2 12 1 11

+

<

+

b

x

w

x

w

ou

b

x

w

x

w

b

w

w

b

w

b

w

b

+

<

<

>

12 11 11 12

0

Modelos de Redes - Perceptron

) ( 1 k N i i ki k F w x y =

−θ = x1 x2 xN Entradas wk1 wk2 wkN Neurônio K k θ ) ) 1 ( ... ( 1 k0 k k1 1 kN N k0 k=− wy =F w x+ +w x + − w θ ) ( ) ( 0 X W F x w F T N i i ki = =

=

[

]

             − = = N kN k k x x X w w w W ... 1 ,..., , 1 1 0

Modelos de Redes - Perceptron

2 1 , 0 , 0 C X X W Se C X X W Se T T ∈ < ∈ ≥

•Resolve problemas de classificação de duas classes (C1 e C2)

linearmente separáveis. •Regra de classificação:

•Adaptação dos Pesos:

    ∈ < + = + ∈ ≥ − = +     ∈ < = + ∈ ≥ = + 1 2 2 1 ) ( 0 ) ( ) ( ) ( ) ( ) ( ) 1 ( ) ( 0 ) ( ) ( ) ( ) ( ) ( ) 1 ( ) 2 ) ( 0 ) ( ) ( ) ( ) 1 ( ) ( 0 ) ( ) ( ) ( ) 1 ( ) 1 C n X e n X n W se n X n n W n W C n X e n X n W se n X n n W n W C n X e n X n W se n W n W C n X e n X n W se n W n W T T T T η η

(19)

w11=0,4 w12=0.4 b=0,5 x1 x2 -1 F y v Exemplo AND x1 x2 y 0 0 0 0 1 0 1 0 0 1 1 1 1 2 2 2 0 5 , 0 1 . 4 , 0 1 . 4 , 0 0 5 , 0 0 . 4 , 0 1 . 4 , 0 0 5 , 0 1 . 4 , 0 0 . 4 , 0 0 5 , 0 0 . 4 , 0 0 . 4 , 0 C C C C ⇒ > − + ⇒ < − + ⇒ < − + ⇒ < − + w11=0,4 w12=0.4 b=0,3 x1 x2 -1 F y v Exemplo OR x1 x2 y 0 0 0 0 1 1 1 0 1 1 1 1 1 1 1 2 0 3 , 0 1 . 4 , 0 1 . 4 , 0 0 3 , 0 0 . 4 , 0 1 . 4 , 0 0 3 , 0 1 . 4 , 0 0 . 4 , 0 0 3 , 0 0 . 4 , 0 0 . 4 , 0 C C C C ⇒ ≥ − + ⇒ ≥ − + ⇒ ≥ − + ⇒ < − + 0 0 0 0 2 12 1 11 2 12 1 11 2 12 1 11 2 12 1 11 ≥ − + ≥ − + ≥ − + < − + b x w x w b x w x w b x w x w b x w x w b w w b w b w b ≥ + ≥ ≥ > 12 11 11 12 0 w11=-0,4 b=-0.3 x1 -1 F y v Exemplo NOT x1 y 0 1 1 0 2 1 0 ) 3 , 0 ( 0 . 4 , 0 0 ) 3 , 0 ( 0 . 4 , 0 C C ⇒ < − − − ⇒ ≥ − − − 0 0 1 11 1 11 < − ≥ − b x w b x w b w b < ≤ 11 0 Exemplo

IF cor=vermelha AND forma=redonda THEN fruta=maçã IF cor=vermelha AND forma=ovalada THEN fruta=laranja IF cor=amarela AND forma=redonda THEN fruta=laranja IF cor=amarela AND forma=ovalada THEN fruta=laranja

w11=0,4 w12=0.4 b=0,5 (cor)x1 (forma)x2 -1 F (saida) y v Premissas Conclusão

(20)

Exemplo se corredor_umido e cozinha_seca entao vazamento_banheiro. se corredor_umido e banheiro_seco entao problema_cozinha. se problema_cozinha e nao_entrou_agua_de_fora entao vazamento_cozinha. se janela_fechada ou nao_chove entao nao_entrou_agua_de_fora. Exemplo se corredor_umido e cozinha_seca entao vazamento_banheiro. w11=0,4 w12=0.4 b=0,5 (corredor_umido)x1 (cozinha_seca)x2 -1 F (saida) y v Premissas Conclusão Exemplo se corredor_umido e banheiro_seco entao problema_cozinha. w11=0,4 w12=0.4 b=0,5 (corredor_umido)x1 (banheiro_seco)x2 -1 F (saida) y v Premissas Conclusão Exemplo se problema_cozinha e nao_entrou_agua_de_fora entao vazamento_cozinha. w11=0,4 w12=0.4 b=0,5 (problema_cozinha)x1 (não_entrou_agua_de_fora)x2 -1 F (saida) y v Premissas Conclusão

(21)

Exemplo se janela_fechada ou nao_chove entao nao_entrou_agua_de_fora. w11=0,4 w12=0.4 b=0,3 (janela_fecha)x1 (não_chove)x2 -1 F (saida) y v Premissas Conclusão Exemplo se corredor_umido e banheiro_seco entao problema_cozinha : 1. se problema_cozinha e nao_entrou_agua_de_fora entao vazamento_cozinha : 0.9. Exemplo w11=0,4 w12=0.4 b=0,5 (problema_cozinha)x1 -1 F (saida) y v Premissas Conclusão w11=0,4 w12=0.4 b=0,5 (corredor_umido)x1 (banheiro_seco)x2 -1 F (saida) y v Premissas Conclusão

Algoritmo para aprendizagem - Perceptron:

•Passo 1. Inicializa pesos: W(0)=0

•Passo 2. Ativa a rede - vetor de entrada e a resposta desejada:X(n) e d(n)

•Passo 3. Calcula-se a saída: y(n)=F(WT(n)X(n))-F(.) é a função sinal •Passo 4. Atualiza os pesos:

   ∈ − ∈ + = − + = + 2 1 ) ( 1 ) ( 1 ) ( ) ( )] ( ) ( [ ) ( ) 1 ( C n X se C n X se n d n X n y n d n W n W η

(22)

Modelos de Redes - Perceptron 1) P = [-0.5 -0.5 +0.3 +0.0; T = [1 1 0 0]; -0.5 +0.5 -0.5 +1.0]; Valores iniciais: W = [ 0.4258 -0.2140]; b = -0.0455 Valores Finais: W = [ -2.9742 -0.2140]; b = -0.0455 2) P = [-1 +1 -1 +1 -1 +1 -1 +1; T = [0 1 0 0 1 1 0 1]; -1 -1 +1 +1 -1 -1 +1 +1; -1 -1 -1 -1 +1 +1 +1 +1]; W = [-0.9309 -0.8931 0.0594]; b = 0.3423; W = [2.0691 -1.8931 3.0594]; b = -0.6577 Cont. Cont. 3) P = [+0.1 +0.7 +0.8 +0.8 +1.0 +0.3 +0.0 -0.3 -0.5 -1.5; T = [1 1 1 0 0 1 1 1 0 0; +1.2 +1.8 +1.6 +0.6 +0.8 +0.5 +0.2 +0.8 -1.5 -1.3]; 0 0 0 0 0 1 1 1 1 1]; W = [-0.9339 -0.0030; b = [0.4966; 0.0689 0.9107]; 0.1092]; W = [ -2.9339 4.0970; b =[-0.5034 -5.0311 -4.3893]; 4.1092]; Erro Bibliografia:

•Hecht-Nielsen, R. Neurocomputing. Addison-Wesley Publishing Company, 1990.

•Haykin, S. Neural Networks: A Comprehensive Foundation. MacMillan, 1994 (1a. Edição)

(23)

Bibliografia:

•Tsoukalas, L.H.; Uhrig, R.E. Fuzzy and Neural Approaches in Engineering. John Wiley & Sons, 1997.

•Fausett, L. Fundamentals of Neural Networks. Prentice Hall, 1994.

•Lin, Chin-Tseng; Lee, C.S.G. Neural Fuzzy Systems: A Neural-Fuzzy Synergism to Intelligent Systems. Prentice Hall, 1996.

•Hagan, M.T.; Demuth, H.B.; Beale, M. Neural Network Design. PWS Publishing Company, 1996.

•Bishop, C.M. Neural Networks for Pattern Recognition. Oxford Press, 1994.

•Braga, A.P.; Ludermir, T.B.; Carvalho, A.P.L.F., Redes Neurais Artificiais, teoria e aplicações. LTC, 2000.

•Laurie Lundy-Ekamn, Neurociência: Fundamentos para a Reabilitação, Guanabara Koogan, 2000

Bibliografia:

Sugestão de Leitura: Fisiologia Humana e Mecanismos das Doenças Capítulo 9 Guyton e Hall, 1999, Guanabara-Koogan

Fonte: Neurociência: Fundamentos para a Reabilitação. Laurie Lundy-Ekman, Guanabara-Koogan, 2000, pg. 34.

(24)

Fonte: Braga et ali, 1999. pp. 7

(25)

Referências

Documentos relacionados

Nessa situação temos claramente a relação de tecnovívio apresentado por Dubatti (2012) operando, visto que nessa experiência ambos os atores tra- çam um diálogo que não se dá

Na segunda análise que é empírica planeou-se e implementou-se um Sistema de Gestão da Qualidade aplicado a um estudo de caso, segundo a metodologia defendida

Portanto, diante de tudo que foi apresentado, para obter uma melhor análise sobre a influência da dependência financeira dos agentes militares sobre os gastos e o grau de

Figura 5 : Função programa não-determinística como um grafo O processamento de um Autômato Finito Não-Determinístico M para um conjunto de estados, ao ler um símbolo, é

Deve conhecer perfeitamente este Manual de Procedimentos ou “Bússola”, e o papel de cada ministério da Equipe de Serviço; assim como o Esquema do Curso

Conclui-se que a densidade da polpa de cajá aumenta em função da redução da temperatura e do aumento do teor de sólidos solúveis totais de 9 para 60 °Brix e que o

13 Para o caso do período das eleições, não cabe constituir um Conselho de Mandato, nem individual, nem coletivo, uma vez que tais atribuições competem ao

Isso quer dizer, então, criar políticas que contemplem o atendimento dos diferentes povos indígenas e garantindo que todos os indígenas possam ter acesso,