• Nenhum resultado encontrado

EMERGÊNCIA DE SINCRONICIDADE EM UMA REDE AUTO-ORGANIZÁVEL DE NEURÔNIOS PULSANTES: USO DE ALGORITMOS GENÉTICOS PARA A SINTONIA DO MODELO

N/A
N/A
Protected

Academic year: 2021

Share "EMERGÊNCIA DE SINCRONICIDADE EM UMA REDE AUTO-ORGANIZÁVEL DE NEURÔNIOS PULSANTES: USO DE ALGORITMOS GENÉTICOS PARA A SINTONIA DO MODELO"

Copied!
102
0
0

Texto

(1)

GABRIELA ELEUTÉRIO SOARES

EMERGÊNCIA DE SINCRONICIDADE EM UMA

REDE AUTO-ORGANIZÁVEL DE NEURÔNIOS

PULSANTES: USO DE ALGORITMOS

GENÉTICOS PARA A SINTONIA DO MODELO

Belo Horizonte – MG Agosto de 2010

(2)

GABRIELA ELEUTÉRIO SOARES

EMERGÊNCIA DE SINCRONICIDADE EM UMA

REDE AUTO-ORGANIZÁVEL DE NEURÔNIOS

PULSANTES:

USO DE ALGORITMOS GENÉTICOS

PARA A SINTONIA DO MODELO

Dissertação apresentada ao Curso de

Mestrado em Modelagem Matemática

e Computacional do Centro Federal de Educação Tecnológica de Minas Gerais, como requisito parcial à obtenção do título de Mestre em Modelagem Matemática e Computacional.

Área de concentração: Sistemas Inteligentes

Orientador:

Prof. Dr. Henrique Elias Borges

Centro Federal de Educação Tecnológica de Minas Gerais

Co-orientador:

Prof. Dr. Rogério Martins Gomes

Centro Federal de Educação Tecnológica de Minas Gerais

MESTRADO EM MODELAGEM MATEMÁTICA E COMPUTACIONAL

CENTRO FEDERAL DEEDUCAÇÃO TECNOLÓGICA DE MINAS GERAIS

DIRETORIA DEPESQUISA E PÓS-GRADUAÇÃO

Belo Horizonte – MG Agosto de 2010

(3)

Folha de aprovação do projeto. Esta folha será fornecida pelo Programa de Pós-Graduação e deverá substituir esta.

(4)

Resumo

A teoria de seleção de grupos neuronais (TNGS - theory of neuronal group selection) proposta por Edelman argumenta que a menor unidade funcional do cérebro não é um neurônio, mas sim um grupo neuronal. Um grupo neuronal pode ser definido como um conjunto de neurônios localizado em uma certa região do córtex, fortemente aco-plados entre si, e que disparam na mesma frequência ou em sincronia. Além disso, a neurociência computacional tem buscado compreender as funções e mecanismos do sistema nervoso por meio da construção de modelos matemáticos mais realistas de redes de neurônios e da realização de simulações computacionais em larga escala. Um desses modelos de neurônios pulsantes que apresenta excelente desempenho computacional, além de preservar muitas das características biológicas desejáveis, é o modelo de Izhikevich (2003). Sendo assim, este trabalho visa contribuir para o estudo da emergência de sincronicidade de uma rede auto-organizável de neurônios pulsantes a partir de uma rede neuronal composta de 100 neurônios idênticos de Izhikevich, cada qual realizando N sinapses com os outros neurônios da rede. A cor-rente total recebida por um neurônio e a sua condutância foram modeladas conforme o modelo proposto por Muresan e Savin (2007) e os efeitos de plasticidade depen-dente do tempo (STDP) foram modelados conforme os métodos propostos por Song, Miller e Abbott (2000). Assim, além dos parâmetros associados ao modelo de neurô-nio, os demais parâmetros passíveis de serem ajustados são: o número de ligações sinápticas entre os neurônios e a taxa de decaimento da condutância. Um algoritmo genético foi utilizado para sintonizar os parâmetros de uma rede neural composta de neurônios idênticos, resultando em um grupo neuronal auto-organizado nas frequên-cias que variaram de 2 HZ a 34 HZ. Visando avaliar o efeito do tipo de neurônio sobre o comportamento global do grupo neuronal, um segundo conjunto de simulações foi realizado, no qual, cada um dos 100 neurônios da rede teve seus parâmetros ajus-tados individualmente. Assim como na simulação anterior, foi possível observar que a rede apresentou o mesmo comportamento, isto é, auto-organização e oscilações síncronas nas frequências entre 2 Hz e 34 Hz. Além disso, uma caracterização dos tipos de neurônios presentes e de suas respectivas densidades foi realizada para cada frequência de oscilação do grupo neuronal produzido.

(5)

Abstract

The theory of neuronal group selection - TNGS proposed by Edelman states that the most basic unit in the cortical area of the brain is not a neuron, but a neuronal group. A neuronal group can be defined as a cluster of localized neural cells, tightly coupled, that fire in the same frequency or synchronously. Moreover, computational neuroscience aims to understand the functions and mechanisms of the nervous system by construc-ting realistic mathematical models of neural networks and computational simulations in large scale. One of these spiking neuron models featuring high computational per-formance and preserving many of the desirable biological characteristics is the model proposed by Izhikevich (2003). Thus, this work aims to contribute to the study of the emergence of synchronicity in a self-organizing network of spiking neurons. Thus, a set of computational simulations was performed, involving the formation of neuronal groups from a neural network composed of 100 identical neurons of the Izhikevich mo-del, each one carrying N sinaptic connections with other neurons in the network. The total current received by a neuron and its conductance were modeled by Muresan and Savin (2007) and the plasticity effects of the spike-timing dependent plasticity (STDP) were modeled according to the methods proposed by Song, Miller and Abott (2000). Therefore, besides the parameters of the neuron model, the other parameters that could be adjusted are the number of synaptic connections between neurons and the decay rate of the conductance. A genetic algorithm was used to tune the parameters of the neural network composed of identical neurons, resulting in self-organized neuronal groups at frequencies ranging from 2 to 34 Hz. In order to assess the effect of the neu-ron type on the global behavior of the neuneu-ronal group, a second set of simulations was performed, in which each of the 100 neurons of the network had its parameters tuned individually by genetic algorithm. As in the previous simulation, it was observed that network presented the same behavior of the previous simulation, ie, self-organization and synchronous oscillations at frequencies between 2 Hz and 34 Hz.

(6)

Lista de Figuras

1 Comparação entre vários modelos de neurônios pulsantes. . . p. 22 2 Comportamento de disparos das seis classes mais importantes

pre-sentes no neocórtex. . . p. 24 3 Classes de padrões de disparos dos neurônios mais importantes

in-cluindo os neurônios tálamo-corticais e ressonadores. . . p. 25 4 Influência dos parâmetros a, b, c e d no modelo de neurônio de

Izhi-kevich. . . p. 27 5 Faixa de valores dos parâmetros do modelo de neurônio de Izhikevich

com relação ao tipo de neurônio modelado. . . p. 28 6 Comportamentos neuro-computacionais dos neurônios pulsantes. . . p. 29 7 Função de modificação do peso sináptico. . . p. 31 8 Rede neural disparando assincronamente. . . p. 32 9 Rede neural apresentando disparos quase ordenados na frequência

de 10 Hz. . . p. 32 10 Rede neuronal disparando sincronamente na frequência de 4 Hz. . . p. 33 11 Grupos com diferentes frequências em função do parâmetro a. Em

(a), a = 0.02, em (b), a = 0.04 e em (c), a = 0.08. . . p. 34 12 Plano de fase para b = 0.2 (esquerda) e b = 0.25 (direita). . . p. 34 13 Grupos com frequências diferentes em função da alteração do

parâ-metro b. Em (a), b = 0.2 e em (b), b = 0.25. . . p. 35 14 Influência da constante de tempo na emergência de sincronicidade.

(7)

15 Influência do número de sinapses, por neurônio, em uma rede com 100 neurônios, na emergência de sincronicidade. Em (a), 3 sinapses por neurônio, em (b), 10 sinapses por neurônio, em (c), 20 sinapses

por neurônio e em (d), 30 sinapses por neurônio. . . p. 37 16 Estrutura do cromossomo para a simulação de ajuste da função

ob-jetivo. Sinapses é o número de ligações sinápticas, τ é a taxa de decaimento da condutância e a e d são parâmetros do modelo de

Izhikevich. . . p. 39 17 Estrutura do cromossomo para a simulação da rede de neurônios

ho-mogênea. Sinapses é o número de ligações sinápticas, τ é a taxa de decaimento da condutância e a, b, c e d são parâmetros do modelo de

Izhikevich. . . p. 39 18 Estrutura do cromossomo para a simulação da rede de neurônios

he-terogênea, com ai, bi, ci e di representando os parâmetros do modelo

de Izhikevich do i-ésimo neurônio da rede. . . p. 40 19 Seleção roleta russa, onde cada indivíduo da população é

represen-tado na roleta proporcionalmente ao valor da função de fitness. Os indivíduos com melhores valores da função de fitness recebem uma

porção maior da roleta. . . p. 41 20 Rede neural disparando em sincronia. Em (a), os disparos de cada

um dos 100 neurônio em função do tempo; em (b) a recuperação do potencial de membrana do neurônio 70 e em (c) o potencial de

membrana do neurônio 70 . . . p. 43 21 Quantidade de neurônios disparados em função do tempo. . . p. 44 22 Parâmetros da função objetivo . . . p. 45 23 Comportamento da função objetivo com ocorrência de sincronicidade. p. 49 24 Comportamento da função objetivo sem ocorrência de sincronicidade

com poucos neurônios disparando. . . p. 50 25 Comportamento da função objetivo sem ocorrência de sincronicidade

com muitos neurônios disparando. . . p. 50 26 Resultado obtido para frequência de 2 Hz. . . p. 54

(8)
(9)

Lista de Tabelas

1 Intervalo de valores dos parâmetros para a simulação de ajuste da

função objetivo. . . p. 47 2 Valores da função objetivo para a frequência de 4 Hz em 11

execu-ções do algoritmo genético sob idênticas condiexecu-ções iniciais. . . p. 48 3 Valores da função objetivo para a frequência de 22 Hz em 11

execu-ções do algoritmo genético sob idênticas condiexecu-ções iniciais. . . p. 49 4 Valores adotados em todas as simulações. . . p. 51 5 Intervalo de valores dos parâmetros na simulação para determinação

da maior frequência possível. . . p. 53 6 Valores dos parâmetros obtidos para cada frequência pré-determinada. p. 55 7 Intervalo de valores dos parâmetros para a segunda etapa de

simula-ções . . . p. 55 8 Valores obtidos para frequências determinadas para a segunda etapa

de simulações . . . p. 56 9 Intervalo de valores dos parâmetros para a simulação da rede de

neu-rônios distintos . . . p. 57 10 Síntese dos valores obtidos nas simulações . . . p. 58 11 Configuração da rede para frequência de 4 Hz. . . p. 59 12 Configuração da rede para frequência de 16 Hz. . . p. 60 13 Configuração da rede para frequência de 22 Hz. . . p. 61 14 Densidade de neurônios presentes na rede: morfologia. . . p. 62 15 Densidade de neurônios presentes na rede: comportamento. . . p. 62 16 Classificação dos neurônios encontrados para a simulação com

(10)

17 Classificação dos neurônios encontrados para a simulação com

fre-quência de 16 Hz quanto ao tipo de comportamento. . . p. 71 18 Classificação dos neurônios encontrados para a simulação com

fre-quência de 28 Hz quanto ao tipo de comportamento. . . p. 72 19 Matriz de sinapses para a rede com frequência de 4 Hz. . . p. 73 20 Matriz de sinapses para a rede com frequência de 28 Hz. . . p. 74

(11)
(12)

Agradecimentos

Aos meus orientadores, Prof. Dr. Henrique Elias Borges e Prof. Dr. Rogério Mar-tins Gomes pelo apoio, incentivo, disponibilidade e paciência. Agradeço pela orienta-ção e conselhos dados em momentos difíceis que me deixaram mais tranquila.

Aos meus pais Roberto e Mira que sempre me apoiaram nos meus estudos, per-mitindo chegar aonde cheguei.

Ao meu irmão Guilherme que colaborou com a minha formação.

À minha avó que com suas orações e preocupação sempre torceu e colaborou com o meu sucesso.

À minha família que sempre me incentivou e me apoiou.

Aos amigos da MatComp que estão presentes na minha vida desde o início da gra-duação servindo de apoio nos momentos difíceis e sempre dispostos a compartilhar cada conquista.

À Jojô, com quem eu dividi um lar durante esses anos. Ao Magela que possibilitou a realização deste trabalho.

Aos amigos do CEFET-MG, que me acompanharam durante essa caminhada e dividiram comigo bons e maus momentos. Em especial aos amigos Gustavo e Magela pela força e colaboração na reta final do trabalho.

Ao Laboratório de Sistemas Inteligentes (LSI) e ao Centro de Computação Cientí-fica (CCC) pelos recursos disponibilizados para realização deste trabalho.

Ao Centro Federal de Educação Tecnológica de Minas Gerais (CEFET-MG) e à FAPEMIG pelo apoio financeiro.

(13)

Lista de Abreviaturas e Siglas

AG Algoritmo Genético

CEFET-MG Centro Federal de Educação Tecnológica de Minas Gerais GPSI Grupo de Pesquisas em Sistemas Inteligentes

LSI Laboratório de Sistemas Inteligentes STDP Spiking-time-dependent plasticity

(14)

Sumário

1 INTRODUÇÃO p. 16

1.1 Aspectos gerais . . . p. 16 1.2 TNGS - Teoria de seleção de grupos neuronais . . . p. 17 1.3 Objetivos . . . p. 17 1.4 Metodologia de pesquisa . . . p. 18 1.5 Organização da dissertação . . . p. 19

2 Redes de neurônios pulsantes p. 20

2.1 Alguns modelos de neurônios pulsantes . . . p. 20 2.2 Comparação entre os modelos . . . p. 21 2.3 Classificação dos neurônios . . . p. 22 2.3.1 Principais classes dos neurônios . . . p. 22 2.4 Modelo de Izhikevich . . . p. 26

2.4.1 Propriedades neuro-computacionais observadas no modelo de

Izhikevich . . . p. 27 2.5 Modelo de sinapses . . . p. 28 2.6 Spike-timing-dependent plasticity (STDP) . . . p. 30 2.7 Estudos anteriores . . . p. 31 2.8 Emergência de sincronicidade . . . p. 31 2.8.1 Parâmetros que afetam a emergência da sincronicidade . . . . p. 33

3 Sintonia dos parâmetros do modelo neural via algoritmos genéticos p. 38 3.1 Parâmetros analisados . . . p. 38

(15)

3.2 Algoritmo genético . . . p. 39 3.3 Função objetivo . . . p. 42 3.3.1 Ajuste da função objetivo . . . p. 47

4 Discussão dos resultados p. 51

4.1 Grupo neuronal homogêneo . . . p. 52 4.2 Grupo neuronal heterogêneo . . . p. 56 4.3 Classificação dos tipos de neurônios . . . p. 58

5 Conclusão p. 63

5.1 Considerações finais . . . p. 63 5.2 Contribuições . . . p. 64 5.3 Dificuldades encontradas . . . p. 65 5.4 Perspectivas de trabalhos futuros . . . p. 65

Referências p. 66

Apêndice A -- Classificação dos neurônios quanto ao comportamento p. 70

Apêndice B -- Matrizes de sinapses p. 73

Anexo A -- CÓDIGOS DO MATLAB p. 75

A.1 Definição dos pesos da função objetivo . . . p. 75 A.1.1 Grupo neuronal . . . p. 75 A.1.2 Algoritmo genético . . . p. 80 A.2 Rede de neurônios idênticos . . . p. 83 A.2.1 Grupo neuronal . . . p. 83 A.2.2 Algoritmo genético . . . p. 89 A.3 Rede de neurônios distintos . . . p. 91

(16)

A.3.1 Grupo neuronal . . . p. 91 A.3.2 Algoritmo genético . . . p. 98

(17)

16

1

INTRODUÇÃO

1.1

Aspectos gerais

Inicialmente, as redes neurais foram desenvolvidas visando a compreensão do fun-cionamento do sistema nervoso, através de elementos computacionais primitivos que foram baseados nas propriedades neuronais conhecidas na época (1943) (ANDERSON, 1995). Com a evolução da área de redes neurais, a neurociência computacional pas-sou a usar modelos matemáticos mais realistas de redes de neurônios e simulações em larga escala para compreender as funções e mecanismos do sistema nervoso.

As redes neurais atuais visam o entendimento do sistema nervoso, e para tanto é preciso criar modelos matemáticos computacionais que preservem as característi-cas encontradas na biologia. Existem evidências empíricaracterísti-cas que os neurônios podem gerar padrões de disparos in vivo e in vitro. Tais padrões foram observados em neurô-nios individualmente e em redes neurais auto-organizáveis (grupo neuronal) (LINDSEY et al., 1997), (PRUT et al., 1998), (VILLA et al., 1999), (CHANG et al., 2000), (TETKO; VILLA, 2001), (MAO et al., 2001), (IKEGAYA et al., 2004), (STREHLER; LESTIENNE, 1986), ( STEVE-NINCK et al., 1997), (REINAGEL; REID, 2002), (BRYANT H.AND SEGUNDO, 1976), (MAINEN; SEJNOWSKI, 1995), (IZHIKEVICH, 2005). Com isso, este trabalho busca explorar o sur-gimento desses padrões em uma rede de neurônios pulsantes.

Dentre as diversas teorias propostas a cerca da formação de grupos neuronais, a TNGS - theory of neuronal group selecion proposta por Edelman (1987) se destaca e fundamenta-se no princípio de que a menor unidade funcional do cérebro não é um neurônio e sim um grupo neuronal. Um grupo neuronal pode ser definido como um conjunto de neurônios localizados numa certa região, fortemente acoplados entre si e que oscilam e disparam em sincronia. Esses grupos neuronais são formados durante a fase embrionária sendo responsáveis pelas funções mais primitivas dos seres humanos.

(18)

1.2 TNGS - Teoria de seleção de grupos neuronais 17

Imediatamente após o nascimento, o cérebro cria e modifica ligações sinápticas entre os grupos neuronais. Assim, Edelman (1987) propôs uma analogia baseada na teoria de seleção natural de Darwin, que descreve o processo físico observado no desenvolvimento neuronal, onde as sinapses que são mais usadas ficam mais fortes, enquanto as que não são usadas são enfraquecidas. O desenvolvimento das ligações sinápticas continua no início da vida de uma criança e pode ser observado através dos primeiros movimentos dos recém-nascidos: quando o movimento tem sucesso, o padrão que o produziu é reforçado enquanto que os movimentos sem sucesso são enfraquecidos (EDELMAN, 1993).

Alguns modelos de neurônio pulsante, como o modelo de Izhikevich, são capazes de reproduzir características biológicas como a formação de grupos neuronais. Com isso, a emergência de sincronicidade em uma rede de neurônios pode ser simulada computacionalmente através de uma rede neural artificial, composta por neurônios pulsantes e dotada de um modelo de ligações sinápticas capaz de reproduzir plasti-camente comportamentos encontrados no sistema nervoso.

1.2

TNGS - Teoria de seleção de grupos neuronais

Edelman (1987), em sua TNGS, defende que a topologia das conexões neurais não são pré-estabelecidas genéticamente, se desenvolvendo na fase embrionária através de atividades neurais competitivas. Edelman argumenta, ainda, que a me-nor unidade cerebral não é um neurônio, uma vez que os neurônios individuais não transmitem informação, e sim os grupos neuronais (grupos de 50 a 10000 células neurais).

Segundo Edelman (1987), um grupo neuronal é um conjunto de neurônios locali-zado em uma certa região do córtex e que dispara na mesma frequência. As ligações sinápticas entre os neurônios do grupo são fortalecidas quando os neurônios do grupo pulsam sincronamente e enfraquecidas quando o pulso não ocorre em sincronia.

1.3

Objetivos

Este trabalho tem por objetivo geral analisar a emergência de sincronicidade em uma rede de neurônios pulsantes, determinando os parâmetros do modelo de

(19)

neu-1.4 Metodologia de pesquisa 18

rônio utilizado por meio de algoritmos genéticos, contribuindo dessa forma com os estudos em neurociência computacional mediante a criação de grupos neuronais de forma automática, inspirado na teoria de Edelman.

Os objetivos específicos do trabalho são:

• desenvolver uma função objetivo e uma função de fitness adequada;

• sintonizar os parâmetros do modelo para implementação de grupos neuronais síncronos com frequências definidas e pré-estabelecidas;

• realizar simulações com redes homogêneas;

• realizar um estudo exploratório com redes heterogêneas;

• analisar a composição da rede neural heterogênea quanto aos tipos de neurô-nios e a influência desses na obtenção de determinadas faixas de frequências;

1.4

Metodologia de pesquisa

O desenvolvimento deste trabalho envolveu conceitos e técnicas que perpassam várias áreas do conhecimento, fazendo-se necessário o levantamento bibliográfico para sua fundamentação e o estudo das tecnologias envolvidas para a modelagem e implementação do mesmo. Estas etapas são apresentadas a seguir:

1. revisão da literatura nas áreas de neurociência e sistemas inteligentes, no que diz respeito às redes neurais naturais e artificiais;

2. realização de um estudo matemático computacional do modelo de neurônio pro-posto por Izhikevich (2003), dos modelos de sinapse e do mecanismo de plasti-cidade implementado, spike-timing-dependent plasticity - STDP;

3. estudo da influência dos parâmetros na emergência de sincronicidade e analise das frequências obtidas previamente;

4. identificação dos parâmetros para implementação de grupos neuronais síncro-nos com frequências definidas;

(20)

1.5 Organização da dissertação 19

6. gerar e análisar grupos neuronais compostos por diferentes tipos de neurônios associados, i.e., variar os parâmetros estudados individualmente;

7. simulações com redes homogêneas;

8. estudo exploratório com redes heterogêneas;

9. realização de análises críticas quanto aos resultados obtidos.

1.5

Organização da dissertação

O presente trabalho está organizado em cinco capítulos que estão divididos da seguinte forma: o capítulo 2 apresenta uma revisão da literatura sobre neurônios pul-santes com a descrição e avaliação de alguns modelos, além de conter a classificação dos neurônios corticais, que foi utilizada na classificação dos neurônios resultantes em uma das etapas de simulação do capítulo 4. Além disso, os detalhes da rede neural utilizada também estão expostos no capítulo 2, com a descrição do modelo de neurônio adotado, bem como o modelo de sinapse e o mecanismo de plasticidade implementado.

No capítulo 3 é apresentada a configuração do algoritmo genético desenvolvido para este trabalho, constando a modelagem da função objetivo utilizada para determi-nar a ocorrência de sincronicidade na rede neural.

O capítulo 4 apresenta as simulações computacionais e os resultados obtidos. Finalmente, no capítulo 5 o trabalho de pesquisa é concluído.

(21)

20

2

Redes de neurônios pulsantes

Desde 1943, quando o primeiro modelo matemático de neurônio foi apresentado por McCulloch e Pitts (MCCULLOCH; PITTS, 1943), vários modelos de neurônios foram criados, visando atender as diversas características biológicas presentes nos neurô-nios reais e buscando a eficiência computacional para simulações (GERSTNER, 1999). A neurociência computacional busca compreender as funções e mecanismos do sistema nervoso por meio da construção de modelos matemáticos realistas de redes de neurônios e da realização de simulações computacionais em larga escala. Para tanto, se requer que o modelo de neurônio utilizado nestas simulações seja, a um só tempo, neurobiologicamente realista e computacionalmente viável. O modelo de neu-rônio de Hodgkin-Huxley, embora dos mais completos biologicamente, apresenta um custo computacional muito elevado sendo, portanto, um impeditivo para simulações de maior porte.

Nos últimos anos, os neurônios pulsantes vêm ganhando espaço nas pesquisas (GERSTNER; KISTLER, 2002),(FLORIAN, 2003) e (IZHIKEVICH; GALLY; EDELMAN, 2004) de-vido às descobertas biológicas sobre a importância do surgimento de grupos neuro-nais nas redes neurais (IZHIKEVICH, 2004).

2.1

Alguns modelos de neurônios pulsantes

Dentre os vários modelos de neurônios pulsantes, o que apresenta a maior facili-dade de implementação é o integra-e-dispara (integrate-and-fire) que é linear e unidi-mensional. Embora seja um modelo bastante difundido, não é capaz de reproduzir as características dos neurônios corticais.

Visando dotar o modelo integra-e-dispara de características biológicas, adapta-ções foram feitas, gerando novos modelos tais como: integrate-and-fire with adap-tation, quadratic integrate-and-fire, integrate-and-fire-or-burst e o ressonate-and-fire).

(22)

2.2 Comparação entre os modelos 21

Com as modificações realizadas, foi possível dotar o modelo de características tais como a bistabilidade de descanso, além de ser possível reproduzir importantes ca-racterísticas de ressonador (HOPPENSTEADT; IZHIKEVICH, 1997) (LATHAM et al., 2000) (IZHIKEVICH, 2001) (SMITH et al., 2000).

Um dos modelos mais importantes na neurociência é o modelo de Hodgkin-Huxley (HODGKIN; HUXLEY, 1952), obtido através de experimentos realizados no axônio de uma lula e que melhor reproduz as características de um neurônio real (IZHIKEVICH,

2004). Esse modelo é descrito por quatro equações diferenciais e dez variáveis, que modelam a dinâmica das correntes iônicas, além de tratar o potencial de membrana. Devido a sua complexidade, é um modelo muito caro computacionalmente.

O modelo de Izhikevich, que será descrito com detalhes na seção 2.4, foi obtido a partir de simplificações das equações do modelo de Hodgkin-Huxley, conseguindo reproduzir várias características dos neurônios reais.

Outros modelos de neurônios pulsantes podem ser observados em Gerstner e Kistler (2002), Izhikevich (2007), Bohte (2003), Berrêdo (2005).

2.2

Comparação entre os modelos

Nos estudos com neurônios pulsantes é importante escolher o modelo de neu-rônio mais adequado para a aplicação que será desenvolvida. Dentre os vários mo-delos de neurônios pulsantes existentes é possível encontrar uma gama de mode-los que apresentam alta plausibilidade biológica, mas com custo computacional ele-vado, como o modelo proposto por Hodgkin-Huxley em 1952(HODGKIN; HUXLEY, 1952),

bem como modelos que requerem poucas operações computacionais, mas não apre-sentam a plausibilidade biológica desejada, como o integra-e-dispara (integrate-and-fire)(IZHIKEVICH; GALLY; EDELMAN, 2004).

O modelo proposto por Izhikevich (IZHIKEVICH, 2003) dispõe de várias caracterís-ticas biológicas e um custo computacional baixo o suficiente para implementação de redes neurais artificiais (IZHIKEVICH; GALLY; EDELMAN, 2004).

A Figura 1 mostra a comparação entre os diversos modelos de neurônios pul-santes sendo possível observar o baixo custo computacional do modelo de Izhikevich além de sua boa plausibilidade biológica.

(23)

2.3 Classificação dos neurônios 22

Figura 1 – Comparação entre vários modelos de neurônios pulsantes. FONTE: Izhikevich (2004).

2.3

Classificação dos neurônios

Hodgkin (1948) foi o primeiro a classificar os neurônios através das respostas obti-das ao estimular os axônios de uma lula com pulsos de várias amplitudes, classificando-os como a seguir:

• Classe 1 - Dependendo da intensidade da corrente, os potenciais de ação podem apresentar frequências baixas. São também chamados de integradores;

• Classe 2 - A frequência dos potenciais de ação está dentro de uma faixa e pra-ticamente não varia com a modificação da intensidade da corrente de entrada. São também conhecidos como ressonadores.

• Classe 3 - Um único potencial de ação é gerado em resposta a um pulso de cor-rente. Disparos repetitivos (tônicos) podem ser gerados somente para correntes de alta intensidade ou para nenhuma corrente.

2.3.1

Principais classes dos neurônios

Os neurônios corticais dos mamíferos podem ser classificados de acordo com o padrão de disparos. Os neurônios excitatórios são divididos em Regular Spiking (RS), Intrinsically Bursting (IB), Chattering(CT), enquanto os inibitórios Fast Spiking (FS), Low-threshold spiking (LTS) e Late spiking (LS) (CONNORS; GUTNICK, 1990), (GRAY;

(24)

2.3 Classificação dos neurônios 23

MCCORMICK, 1996), (GIBSON; BELERLEIN; CONNORS, 1999)). O comportamento de dis-paros desses neurônios podem ser observados nas figuras 2 e 3. Embora a maioria dos biólogos concorde com essa classificação, ela também é considerada simplificada, pois a distinção de classes não é precisa, podendo haver subclasses. Além disso, os neurônios podem mudar o padrão de comportamento de acordo com o estado do cére-bro (NOWAK et al., 2003), (STERIADE, 2004), (TOLEDO-RODRIGUEZ et al., 2004), (MARKRAM et al., 2004).

O Regular Spiking (RS) é a classe de neurônios excitatórios mais comum no neocórtex. Ao ser exposto a um estímulo (corrente elétrica) prolongado dispara pulsos tônicos com intervalos curtos e que aumentam posteriormente. Esse comportamento é também chamado de frequência de adaptação do pulso, i.e., a frequência decai como resposta à corrente de entrada. Quando a corrente de entrada tem sua intensi-dade aumentada, a frequência dos pulsos também aumenta. A maioria dos neurônios RS são da Classe 1 de excitabilidade.

Neurônios da classe Intrinsically Bursting (IB) disparam inicialmente um conjunto de pulsos (burst) ao receberem uma intensa corrente de entrada, passando, em se-guida a apresentar o comportamento tonic spiking. Em alguns casos, as células IB apresentam o comportamento descrito apenas se a corrente de entrada for suficien-temente intensa, podendo apresentar comportamento RS caso a corrente não seja intensa o suficiente. Por outro lado, muitos neurônios da classe IB apresentam bursts mesmo quando a corrente é baixa.

A classe Chattering(CT) consiste de neurônios que geram repetitivos bursts de alta frequência como resposta a corrente de entrada. A intensidade da corrente determina o período entre os bursts e o número de pulsos em cada burst. O número de pulsos varia de 2 a 5, enquanto o período entre os bursts pode ser de 15ms a 100ms.

Os neurônios da classe Fast Spiking (FS) disparam pulsos tônicos de alta fre-quência, com período relativamente constante, exibindo comportamento da classe 2 (TATENO; HARSCH; ROBINSON, 2004). Quando a intensidade da corrente de entrada é inferior a um certo valor crítico, os neurônios FS disparam pulsos irregulares variando entre períodos de repouso e períodos de disparos.

Assim como o FS, o Low-threshold spiking (LTS) dispara sequências periódicas de pulsos com alta frequência, mas com adaptação (redução) da frequência e pul-sos de recuo (pós inibitórios). Embora a classe em que eles estão não tenha sido determinada, eles parecem capazes de pulsar em sequências de baixa frequência.

(25)

2.3 Classificação dos neurônios 24

Finalmente, o Late spiking (LS) apresenta um salto de tensão como resposta a corrente de entrada próxima da reobase1e então apresenta pulsos tônicos. Ao serem

estimulados por uma corrente de alta intensidade, podem apresentar um pulso ime-diato seguido de um salto e então pulsos retardados com latências de até 1 segundo.

Figura 2 – Comportamento de disparos das seis classes mais impor-tantes presentes no neocórtex.

FONTE: Izhikevich (2004).

Além das classes de padrões de disparos observadas no neocórtex, vale a pena destacar os padrões presentes em neurônios do tálamo, que é a maior “porta de

co-1 Mínima intensidade de corrente, de tempo teoricamente infinito, necessária para produzir um

(26)

2.3 Classificação dos neurônios 25

municação” com o neocórtex, pois nenhum estímulo pode alcançar o neocórtex sem passar pelo tálamo.

Os neurônios tálamo-corticais (TC) projetam as entradas sensoriais para o córtex e apresentam dois modelos dominantes de disparos: tonic e burst. O comportamento tonic aparece quando, após o repouso, o neurônio recebe um pulso de entrada. Já o comportamento de burst acontece quando é usada uma corrente negativa para hiper-polarizar o potencial de membrana.

O último tipo de comportamento que será tratado nesta seção é o ressonador (Resonator - RZ), que ressoa a entradas rítmicas com a frequência adequada, devido às oscilações abaixo do limiar (subthreshold ) mantidas ou amortecidas.

Figura 3 – Classes de padrões de disparos dos neurônios mais impor-tantes incluindo os neurônios tálamo-corticais e ressonadores.

(27)

2.4 Modelo de Izhikevich 26

2.4

Modelo de Izhikevich

O modelo de neurônio pulsante de Izhikevich apresenta excelente desempenho computacional, além de preservar muitas das características desejáveis associadas e por esse motivo foi o modelo escolhido para este trabalho.

As simulações computacionais de modelos cerebrais aliadas a estudos experi-mentais do sistema nervoso de animais e seres humanos é a forma usada para a compreensão do funcionamento do cérebro. Ao serem consideradas simulações de larga escala, o modelo de neurônio utilizado precisa ser computacionalmente acessí-vel, conservando a maior quantidade de características biológicas possível.

Com isso em mente, Izhikevich (2003), através de metodologias de bifurcação para simplificar o modelo de Hodgkin-Huxley, obteve um modelo bidimensional, que apresenta características biofisiológicas acuradas e é descrito pelo sistema equações diferenciais a seguir: dv dt = αv 2+ βv + γ − u + I, (2.1) du dt = a(bv − u), (2.2)

e pela condição auxiliar

se v ≥ 30mV, então    v ← c, u ← u + d, (2.3)

onde I é a variável de corrente de estimulação do neurônio, medida em pA e é o meio pelo qual o neurônio recebe estímulos externos, de outros neurônios ou estruturas. Além disso, a, b, c, d são parâmetros que definem o tipo de comportamento que será reproduzido pelo neurônio, enquanto v e u são variáveis que representam:

• v - representa o potencial de membrana do neurônio;

• u - representa uma variável de recuperação do potencial de membrana;

• a - descreve a escala de tempo da variável de recuperação u (determina a taxa de decaimento da variável u em função de t);

(28)

2.4 Modelo de Izhikevich 27

• b - representa a sensibilidade da variável de recuperação u antes de ocorrer o reset do potencial de membrana (expressa a sensibilidade da variável de recu-peração u em relação ao potencial de membrana v);

• c - valor de reset do potencial de membrana v após o disparo (valor atribuído a v);

• d - valor de reset da variável de recuperação após o pulso (valor adicionado a u). As figuras 4 e 5 mostram a influência dos paramêtros a, b, c e d no modelo de Izhikevich, e as faixas de valores possíveis para a reprodução de cada um dos tipos de neurônios apresentados nesta seção.

Figura 4 – Influência dos parâmetros a, b, c e d no modelo de neurônio de Izhikevich.

FONTE: Izhikevich, Gally e Edelman (2004).

Os parâmetros fundamentais α, β e γ, todos positivos, são pré-definidos no modelo de Izhikevich com os valores: α=0.04, β=5, γ=140 e foram obtidos para ajustar o pulso com a dinâmica de um neurônio cortical, de forma que o potencial de membrana v tenha escala mV e o tempo t tenha escala ms, além disso os valores escolhidos são os que melhor se aplicam à simulação de neurônios pulsantes em larga escala.

2.4.1

Propriedades neuro-computacionais observadas no modelo

de Izhikevich

Os neurônios biológicos apresentam características neuro-computacionais que são importantes para a codificação temporal e processamento de informações através do sincronismo de pulsos. As vinte características mais proeminentes foram analisadas por Izhikevich (2004) na avaliação de diversos modelos de neurônios pulsantes, onde foi possível verificar que o modelo de Izhikevich é capaz de reproduzi-las mediante a

(29)

2.5 Modelo de sinapses 28

Figura 5 – Faixa de valores dos parâmetros do modelo de neurônio de Izhikevich com relação ao tipo de neurônio modelado.

FONTE: Izhikevich (2004).

sintonia adequada dos parâmetros do modelo a, b, c e d. Tais características podem ser observadas na Figura 6.

2.5

Modelo de sinapses

Para o estudo da formação de grupos neuronais, o modelo de sinapses deve ser escolhido de maneira a reproduzir características encontradas no sistema nervoso. O modelo adotado foi apresentado por Muresan e Savin (2007), onde a sinapse é entendida como um caminho de condutância variável com o tempo, g(t), que, mais especificamente, decai exponencialmente com uma constante de tempo associada, τ (CHAVES, 2007).

dg dt =

−g

τ (2.4)

Quando um neurônio dispara, g recebe como valor 1 e à medida que o tempo passa, o valor da condutância diminui (a velocidade do decaimento depende de τ ) até chegar a 0. Quando a condutância é zero, nenhuma corrente é transmitida aos neu-rônios pós-sinápticos. Os neuneu-rônios pós-sinápticos passarão a receber corrente esti-mulatória novamente se houver um disparo de um de seus neurônios pré-sinápticos, reiniciando o ciclo.

(30)

2.5 Modelo de sinapses 29

Figura 6 – Comportamentos neuro-computacionais dos neurônios pul-santes.

(31)

2.6 Spike-timing-dependent plasticity (STDP) 30

A corrente recebida por qualquer neurônio pode ser calculada por (SONG; MILLER; ABBOTT, 2000):

I =X

i

Wi.gi(t)(Ei− Vpos), (2.5)

onde, i é a sinapse, Wio peso, gi(t)a condutância, Eié o potencial reverso da sinapse

e Vpos é o potencial de membrana do neurônio pós-sináptico.

Em seu trabalho, Oliveira (2007), usou matrizes M × N, em que M é número de neurônios da rede e N o número de sinapses por neurônio, utilizados na representação das ligações sinápticas, pesos das sinapses e condutância. Desta forma, a corrente recebida pelos neurônios, que está descrita na equação 2.5, pode ser calculada pela multiplicação elemento a elemento da matriz de pesos pela matriz de condutância.

2.6

Spike-timing-dependent plasticity (STDP)

O Spike-timing-dependent plasticity é uma regra Hebbiana capaz de selecionar os atrasos de condução fazendo com que os neurônios se organizem espontaneamente em grupos neuronais (IZHIKEVICH, 2005). Foi estudada empiricamente por Bi e Poo (1998) e é usada em simulações em larga escala na neurociência (FLORIAN, 2006).

A regra altera o peso de acordo com o intervalo entre pulsos. Se um neurônio pós-sináptico disparou após receber um pulso de um neurônio pré-sináptico, o peso da conexão sináptica entre estes neurônios é incrementada.

O algoritmo adotado foi implementado por Song, Miller e Abbott (2000) e pode ser resumido da seguinte forma: as variáveis LTP (long-term potencialization) e LTD (long-term depression) são associadas a cada sinapse. Sempre que um pulso chega a uma sinapse, a variável LTP é incrementada com o valor A+. Cada vez que um

neurônio pós-sináptico disparar, a variável LTD é decrementada de A−. Desta forma,

as variáveis LTP e LTD são usadas para reforçar e depreciar as conexões sinápticas, respectivamente. A Figura 7 mostra o comportamento da função adotada.

F (∆t) =    A+exp(∆t/τ+) se ∆t < 0 −A−exp(−∆t/τ−) se ∆t ≥ 0 (2.6)

Os parâmetros τ+e τ−determinam o alcance do intervalo entre os neurônios pré e

(32)

2.7 Estudos anteriores 31

Figura 7 – Função de modificação do peso sináptico.

2.7

Estudos anteriores

Uma rede neural com cem neurônios de Izhikevich e usando o modelo de sinapses apresentados nas seções anteriores foi implementada por Oliveira (2007) para estudar a influência da variação dos parâmetros do modelo na emergência de sincronicidade da rede. Os comportamentos da rede quando não existe sincronia dos disparos e quando os neurônios se auto-organizam em um grupo neuronal podem ser vistos nas figuras 8 e 10, respectivamente.

2.8

Emergência de sincronicidade

A emergência de sincronicidade é uma dinâmica da desordem para a ordem. Inicialmente a rede neural apresenta um comportamento desordenado de disparos, como pode ser observado na Figura 8, isto é, não existe sincronia entre os pulsos dos neurônios da rede. À medida que os disparos ocorrem sincronamente, a rede vai se ordenando, como pode ser observado na Figura 9.

Finalmente, a rede é capaz de se ajustar de maneira que passe a apresentar pa-drões de disparos, que são classificações de um subconjunto de microestados (neu-rônios individualmente) compatíveis com um macroestado (conjunto de neu(neu-rônios), como pode ser observado na Figura 10.

(33)

2.8 Emergência de sincronicidade 32

Figura 8 – Rede neural disparando assincronamente.

Figura 9 – Rede neural apresentando disparos quase ordenados na fre-quência de 10 Hz.

(34)

2.8 Emergência de sincronicidade 33

Figura 10 – Rede neuronal disparando sincronamente na frequência de 4 Hz.

Para a análise da emergência de sincronicidade, Oliveira (2007) estudou variações dos parâmetros que serão descritos na subseção a seguir.

2.8.1

Parâmetros que afetam a emergência da sincronicidade

O modelo de Izhikevich, descrito pelas equações 2.1, 2.2 e 2.3, depende do ajuste de vários parâmetros para a emergência de sincronicidade.

O parâmetro a, que está relacionado a u e v, representa a recuperação do poten-cial de membrana do neurônio após o disparo e pode, portanto, modificar a frequência do grupo. Os neurônios disparam quando o valor de u é suficientemente baixo, de modo a permitir que o valor de v aumente. Na Figura 11 pode-se observar os resulta-dos obtiresulta-dos por Oliveira (2007) ao variar os valores de a.

Já o parâmetro b define o ponto de interseção da nuliclinal de v (curva onde dv/dt = 0) com a nuliclinal de u (curva onde du/dt = 0), modificando, portanto, o valor da corrente necessária para o disparo do neurônio (IZHIKEVICH, 2007). Com a alteração do valor da corrente de estimulação I, a nuliclinal de v sofre um desloca-mento, enquanto a alteração do valor de b afeta a nuliclinal de u, como se pode ver na Figura 12.

(35)

2.8 Emergência de sincronicidade 34

Figura 11 – Grupos com diferentes frequências em função do parâmetro a. Em (a), a = 0.02, em (b), a = 0.04 e em (c), a = 0.08.

FONTE: OLIVEIRA, 2007. p. 42.

Figura 12 – Plano de fase para b = 0.2 (esquerda) e b = 0.25 (direita). FONTE: OLIVEIRA, 2007. p. 41.

(36)

2.8 Emergência de sincronicidade 35

A Figura 13 mostra os resultados obtidos por Oliveira (2007) ao variar os valores de b. Podemos observar que na Figura 13-(a), a frequência é menor que na Figura 13-(b), pois a corrente necessária para o disparo do neurônio é menor no segundo caso.

Figura 13 – Grupos com frequências diferentes em função da alteração do parâmetro b. Em (a), b = 0.2 e em (b), b = 0.25.

FONTE: OLIVEIRA, 2007. p. 41.

Além dos parâmetros que estão descritos nas equações 2.1 e 2.2, a sincronicidade da rede pode ser afetada pela variação de outros parâmetros que não estão descritos no modelo de neurônio de Izhikevich, como o número de sinapses realizadas por neurônio e a condutância das sinapses (τ ).

É importante ressaltar que Oliveira (2007) estabeleceu que todos os neurônios da rede teriam o mesmo número de sinapses. A influência do número de sinapses na sincronicidade da rede pode ser vista na Figura 14 enquanto na Figura 15 podemos ver a influência de τ na sincronicidade que foi observada por Oliveira (2007).

Cabe observar que quanto maior for τ , mais persistentes serão os efeitos de um disparo do neurônio pré-sináptico sobre os N neurônios pós-sinápticos aos quais ele se conecta.

(37)

2.8 Emergência de sincronicidade 36

Figura 14 – Influência da constante de tempo na emergência de sincroni-cidade. Em (a), τ = 1ms, em (b), τ = 5ms, e (c), τ = 30ms.

FONTE: OLIVEIRA, 2007. p. 40.

Mediante o estudo individual de cada um desses parâmetros, Oliveira (2007) foi capaz de sintonizar uma rede com 100 neurônios de modo a gerar frequências na faixa de 2 Hz até 20 Hz. A rede neural estudada era composta por cem neurônios pulsantes iguais, ou seja, é possível ainda avaliar a alteração dos parâmetros em cada neurônio individualmente.

(38)

2.8 Emergência de sincronicidade 37

Figura 15 – Influência do número de sinapses, por neurônio, em uma rede com 100 neurônios, na emergência de sincronicidade. Em (a), 3 sinapses por neurônio, em (b), 10 sinapses por neurônio, em (c), 20 sinapses por neurônio e em (d), 30 sinapses por neurônio.

(39)

38

3

Sintonia dos parâmetros do

modelo neural via algoritmos

genéticos

3.1

Parâmetros analisados

Na seção 2.7, foram expostos os parâmetros estudados por Oliveira (2007) e os resultados obtidos para uma rede de neurônios idênticos, onde foi possível encontrar frequências entre 2 Hz e 20 Hz através da variação individual dos parâmetros a e d do modelo de Izhikevich, além do número de sinapses e da taxa de decaimento da condutância (τ ). Neste trabalho, foram variados, simultaneamente, o número de sinpapses, a taxa de decaimento da condutância (τ ) e os parâmetros do modelo de Izhikevich a, b, c e d, através de um algoritmo genético.

Em seu trabalho, Oliveira (2007) observou que não havia ocorrência de sincronici-dade quando τ assumia valores próximos de 30, assim como valores próximos de 1. Além disso, Oliveira (2007) não obteve sincronicidade quando o número de sinapses era tão baixo como 3 ou tão alto quanto 30. Com isso, neste trabalho, o menor número de sinapses por neurônio foi 5, enquanto o máximo de sinapses por neurônio foi 30, enquanto o valor mínimo de τ foi 1 e o máximo 30.

Além do número de sinapses e da taxa de decaimento da condutância das si-napses, os parâmetros a, b, c e d do modelo de Izhikevich foram analisados. Tais parâmetros são números reais e tiveram os seus limites de variação definidos por Izhikevich (2003), conforme os limites apresentados anteriormente na Figura 5.

(40)

3.2 Algoritmo genético 39

3.2

Algoritmo genético

O algoritmo genético é uma classe de algoritmo evolucionário que usa a mesma terminologia aplicada na teoria da evolução natural e na genética. Os algoritmos ge-néticos são categorizados como uma heurística de busca global que apresenta um adequado balanço entre o aproveitamento das melhores soluções (explotation) e a exploração do espaço de busca (exploration) (GOMES, 2007).

Nos AGs, os indivíduos, são representados por alguma forma codificada, conhe-cida como cromossomo ou genoma, que possui a codificação (genótipo) de uma solu-ção possível para o problema (fenótipo). No algoritmo genético clássico, os cromosso-mos são representados por cadeias binárias de tamanho fixo. Em alguns problemas, a representação real é mais adequada, pois acredita-se que a eficiência do AG é melho-rada, uma vez que não é preciso converter as cadeias binárias, assim como a precisão das soluções. Além disso, é possível implementar diferentes operadores genéticos ( MI-CHAELEWICZ, 1996). Neste trabalho, como foram realizadas diferentes simulações, os cromossomos são diferentes em cada uma delas. Nas duas primeiras simulações os cromossomos são vetores reais, com 4 e 6 variáveis, respectivamente, como pode ser observado nas figuras 16 e 17. Já para a simulação da rede com neurônios distintos, os cromossomos foram representados por uma matriz 100 × 4, conforme Figura 18.

Sinapses τ a d

Figura 16 – Estrutura do cromossomo para a simulação de ajuste da fun-ção objetivo. Sinapses é o número de ligações sinápticas, τ é a taxa de decaimento da condutância e a e d são parâmetros do modelo de Izhike-vich.

Sinapses τ a b c d

Figura 17 – Estrutura do cromossomo para a simulação da rede de neurô-nios homogênea. Sinapses é o número de ligações sinápticas, τ é a taxa de decaimento da condutância e a, b, c e d são parâmetros do modelo de Izhikevich.

A população inicial gerada será avaliada e selecionada para os próximos passos do algoritmo genético. A função objetivo fornece uma medida bruta da qualidade e aptidão de desempenho dos indivíduos na solução de problemas e é usada em um estágio intermediário na determinação do desempenho relativo dos indivíduos em um

(41)

3.2 Algoritmo genético 40           a1 b1 c1 d1 a2 b2 c2 d2 . . . . . . . . . . . . a100 b100 c100 d100          

Figura 18 – Estrutura do cromossomo para a simulação da rede de neu-rônios heterogênea, com ai, bi, ci e di representando os parâmetros do

modelo de Izhikevich do i-ésimo neurônio da rede.

AG. Uma outra função importante é a chamada função de aptidão e é usada normal-mente para transformar o valor da função-objetivo em uma medida da aptidão relativa. Neste trabalho, a função objetivo é também a função de fitness, e será discutida de-talhadamente na seção 3.3.

O esquema de seleção determina como os indivíduos são escolhidos para o pro-cesso de recombinação, baseado em seus valores de aptidão. Com a seleção é possí-vel manter a diversidade da população, impedindo a convergência prematura para so-luções pobres. Neste trabalho, o esquema de seleção adotado foi o Roulette wheel, no qual a probabilidade da seleção é proporcional à aptidão e pode ser calculada por (BAKER, 1987): F (xi) = f (xi) PNind i=1 f (xi) , (3.1)

onde f (xi) é a função objetivo do indivíduo xi e F (xi) é o valor da função de fitness

ou a probabilidade relativa do indivíduo xi ser selecionado. Uma representação do

método roulette wheel pode ser observada na Figura 19.

Os indivíduos selecionados são basicamente recombinados para produzir novos cromossomos através de um operador de recombinação ou crossover. O operador de crossover cria novos indivíduos através da combinação de dois ou mais indivíduos. A idéia básica é que o crossover execute a troca de informação entre soluções can-didatas diferentes. Neste trabalho, a recombinação intermediária, que é um método de geração de novos fenótipos em torno e entre os valores dos fenótipos paternos, foi adotada como operador de crossover. Na recombinação intermediária, a prole é produzida de acordo com a regra:

(42)

3.2 Algoritmo genético 41

Figura 19 – Seleção roleta russa, onde cada indivíduo da população é representado na roleta proporcionalmente ao valor da função de fitness. Os indivíduos com melhores valores da função de fitness recebem uma porção maior da roleta.

O1 = P1+ α(P2− P1), (3.2)

onde α é um fator de escalonamento escolhido uniformemente e de forma aleatória sobre algum intervalo, tipicamente [-0.25,1.25] e P1 e P2 são os cromossomos dos

pais. Cada variável dos descendentes é o resultado da combinação das variáveis dos pais, de acordo com a expressão acima, com um novo α escolhido para cada par de genes do pai.

Na evolução natural, a mutação é um processo aleatório em que um alelo de um gene é substituído por outro para produzir uma nova estrutura genética. Nesse pro-cesso, o operador de mutação modifica aleatoriamente um ou mais genes de um cro-mossomo. O operador de mutação age como um parâmetro explanatório e visa à manutenção da diversidade genética. Esse operador, além de ajudar na prevenção da convergência prematura, capacita a exploração de partes do espaço que o crossover poderia perder.

O operador de mutação adotado foi o operador uniforme, que seleciona um dos componentes do cromossomo, aleatóriamente, e deste gera um individuo em que o cromossomo representa um valor distribuído aleatoriamente dentro da escala de seus

(43)

3.3 Função objetivo 42

valores possíveis. A probabilidade de ocorrência de mutação é chamada de taxa de mutação e para este estudo foi adotado o valor de 0,008, obtido experimentalmente. A taxa de mutação não pode ter valores elevados para não prejudicar a convergência do algoritmo.

Após a produção da nova população, um processo de reinserção da nova popula-ção na antiga torna-se necessário. O critério de substituipopula-ção adotado neste trabalho foi a substituição geracional com estratégia elitista, i.e., em cada geração, uma certa porcentagem dos indivíduos são substituídos por indivíduos da nova geração. Para as simulações realizadas, a taxa de substituição da geração foi de 80%, obtida após inúmeros testes.

Os passos do AG: geração de população, avaliação, seleção, crossover, mutação e reinserção são repetidos até que um dos critérios de parada, como número máximo de gerações, tempo gasto ou obtenção da solução (quando conhecida), seja atingido. Neste trabalho, foram adotados como critérios de parada o número máximo de 1000 gerações ou a estagnação após 250 gerações, i.e., quando o mesmo resultado for obtido por 250 gerações consecutivas o AG é interrompido.

3.3

Função objetivo

Oliveira (2007) estudou a influência dos parâmetros a, d do modelo de neurônio pulsante de Izhikevich, do número de sinapses e da constante de decaimento na emer-gência de sincronicidade. Este trabalho, por sua vez, tem como proposta o estudo da configuração global da rede, isto é, todos os parâmetros e variáveis analisadas por Oli-veira (2007) serão sintonizados de forma automática para obtenção da sincronicidade da rede com valores de frequências pré-estabelecidas.

O principal obstáculo desta proposta foi a determinação de uma função objetivo que fosse capaz de permitir a ocorrência de sincronicidade. A primeira tentativa foi a obtenção de uma função periódica que pudesse ser associada à recuperação do potencial de membrana (Figura 20 - (b)), variável u(t) do modelo de Izhikevich, entre-tanto, essa proposta apresentou como principal problema a complexidade computacio-nal, uma vez que u(t) deveria ser tratada para cada neurônio a fim de obter resultados precisos.

(44)

3.3 Função objetivo 43

Figura 20 – Rede neural disparando em sincronia. Em (a), os disparos de cada um dos 100 neurônio em função do tempo; em (b) a recuperação do potencial de membrana do neurônio 70 e em (c) o potencial de membrana do neurônio 70

(45)

3.3 Função objetivo 44

A estratégia mais eficiente encontrada para a avaliação da sincronia foi o uso de uma função periódica associada à quantidade de neurônios que disparam a cada ins-tante de tempo t. A Figura 21 apresenta em (a) os disparos dos 100 neurônios da rede em função do tempo, e em (b) a quantidade de neurônios disparados a cada instante t. A partir desta Figura foi possível desenvolver uma função onda quadrada que pode ser observada na Figura 22.

Figura 21 – Quantidade de neurônios disparados em função do tempo.

Na Figura 22, o instante t∗

i está associado ao ponto médio do i-ésimo trem de

pulsos, de maneira que a diferença:

∆t∗ = t∗i+1− t∗i, (3.3)

retorna o período entre os disparos. Os valores desejados para as variáveis t∗ i e t∗i+1

para a ocorrência de sincronicididade são tais que:

T − ∆t∗ → 0, (3.4)

(46)

3.3 Função objetivo 45

Figura 22 – Parâmetros da função objetivo

A variável Hi, altura do trem de pulsos, tem como valor a quantidade de neurônios

que dispara em cada coluna. Como a cada instante da simulação este valor é dife-rente, o valor de referência passa a ser a coordenada t∗i. É desejável que Hi tenha

valores altos, pois isso significa que muitos neurônios estão disparando no mesmo instante ou em sincronia.

Já a variável Li é a largura do trem de pulsos, ou seja, é o intervalo ∆t durante o

qual os neurônios disparam. Quanto menor a largura de disparos, melhor a sintonia do grupo neuronal, i.e., mais sincronicidade há entre os neurônios. Além disso, é importante que os intervalos de diferentes colunas tenham tamanhos próximos de maneira que:

Li+i→ Li = C, (3.5)

onde C é uma constante que deve ser minimizada.

Finalmente, as variáveis di e xi são o tempo necessário para que o grupo neuronal

comece a pulsar (delay ), após receber uma estimulação no tempo t = 0, e o intervalo entre o término dos pulsos e o fim do período, respectivamente. Para que os neurônios estejam em sintonia é preciso que:

di+i→ di = D, (3.6)

(47)

3.3 Função objetivo 46

T − xi− di− Li → 0. (3.7)

Para obter os melhores valores que geram a sincronicidade será preciso: • minimizar o erro (D e C);

• minimizar ∆di = di+1− di e/ou ∆xi = xi+1− xi;

• minimizar o ∆Li = Li+1− Li;

• maximizar a amplitude do pulso Hi.

Todas as condições mostradas podem ser atendidas se a função objetivo for capaz de avaliar o período, a altura e a largura obtidos. Desta forma, a função objetivo desenvolvida e adotada foi:

fo = 1000 T − imax × " α imax X i=1 (T − t∗i+1+ t∗i) +β imax X i=1 (Li T − 1 10) + γ imax X i=1 1 Hi # (3.8)

onde, T é o período desejado em milesegundos, imax é o valor máximo atingido por

i na rotina de associação dos disparos por tempo com a função onda quadrada, ou seja, o número de colunas de disparos. O trecho da função

1000 T − imax (3.9)

é uma penalidade para casos em que o período obtido é diferente do período desejado. Como o período desejado é o principal fator de avaliação da função objetivo,

α

imax

X

i=1

(T − t∗i+1+ t∗i) (3.10)

é uma penalização extra para o caso em que o período obtido em cada iteração seja diferente daquele desejado, sendo α o peso. Além do período, larguras com valores superiores a 10% do período desejado também foram penalizadas por meio da ex-pressão:

(48)

3.3 Função objetivo 47 β imax X i=1 (Li T − 1 10), (3.11)

com β sendo o fator de penalização. A penalidade γ aplicada à altura, que por ser a única variável que deve ser maximizada, teve a penalidade associada ao seu inverso. Observando a equação 3.8 é possível perceber que o algoritmo genético irá tratar um problema de minimização, já que quanto menor for a largura e a diferença entre os períodos e quanto maior for a altura dos pulsos, menor será o valor assumido pela função objetivo.

Os resultados apresentados nas tabelas 2 e 3 evidenciam que a função objetivo é efetivamente minimizada quando a frequência pré-estabelecida é gerada.

3.3.1

Ajuste da função objetivo

Para definição dos valores de α, β e γ foram realizados inúmeros testes, tanto para frequências baixas quanto altas, de maneira que a função objetivo apresentasse valores menores à medida que a frequência obtida fosse se aproximando da frequên-cia desejada. Dessa forma, os valores mais adequados selecionados foram α = 15, β = 30 e γ = 100. Os resultados obtidos em uma sequência de execuções do al-goritmo genético sob condições iniciais idênticas para as frequências de 4 Hz e 22 Hz estão nas tabelas 2 e 3, onde Tpre representa o período associado a frequência

pré-determinada, T o período médio obtido e Err(T ) o erro entre Tpre e T .

Os cromossomos que têm a estrutura conforme apresentado na Figura 16 tiveram como limites de suas variáveis os valores apresentados na Tabela 1.

Tabela 1 – Intervalo de valores dos parâmetros para a simulação de ajuste da função objetivo.

a d Sinapses τ

Mínimo 0.002 0.05 5 1

Máximo 0.200 9.00 50 30

Os parâmetros do modelo de Izhikevich b e c foram mantidos constantes e com os valores 0.25 e -65, respectivamente.

Além dos parâmetros avaliados pelo algoritmo genético, os seguintes parâmetros foram mantidos constantes durante as simulações:

(49)

3.3 Função objetivo 48

• população: 100 indivíduos;

• número máximo de gerações: 1000; • taxa de crossover: 0,65; • taxa de mutação: 0,008; • GGAP: 0.8; • A+= 1; • A−= 1; • τ+ = 1; • τ+ = 1; • Wjk = 6 ∀ j e ∀ k; • go = 1; • I = 20 pA.

Tabela 2 – Valores da função objetivo para a frequência de 4 Hz em 11 execuções do algoritmo genético sob idênticas condições iniciais.

Execução Função Objetivo L(ms) L/Tpre(%) H(%) T(ms) Tpre(ms) Err(T )

1 620.48 38.75 16 45.04 262 250 -12 2 379.22 31.50 13 52.61 246 250 4 3 682.55 55.50 22 40.86 256 250 -6 4 1510.21 27.75 11 74.23 282 250 -32 5 1048.73 26.00 10 33.89 271 250 -21 6 343.95 79.75 32 43.18 245 250 5 7 246.11 32.50 13 51.62 251 250 -2 8 1858.63 28.25 11 70.15 290 250 -40 9 247.46 33.75 14 63.25 251 250 -1 10 491.10 32.90 14 31.60 258 250 -8 11 1315.16 41.50 17 17.70 274 250 -24

Na Figura 23 pode ser observado o comportamento esperado da função onda quadrada obtida em caso de ocorrência de sincronicidade. Já nas figuras 24 e 25 é possível observar o comportamento da função objetivo para situações na rede que não apresentam sincronicidade, com poucos e muitos disparos, respectivamente.

(50)

3.3 Função objetivo 49

Tabela 3 – Valores da função objetivo para a frequência de 22 Hz em 11 execuções do algoritmo genético sob idênticas condições iniciais.

Execução Função Objetivo L(ms) L/Tpre(%) H(%) T(ms) Tpre(ms) Err(T )

1 311025.92 14.48 32 32.39 48.00 45.45 -2.55 2 987.02 10.32 23 34.44 46.10 45.45 -0.65 3 1195.79 17.95 39 38.31 45.43 45.45 0.02 4 1540.80 19.09 42 27.32 46.52 45.45 -1.07 5 1508.21 10.50 23 31.53 47.14 45.45 -1.69 6 658387.07 11.40 25 56.01 49.63 45.45 -4.18 7 2220.95 10.18 22 15.70 47.10 45.45 -1.65 8 4708.55 9.41 21 10.75 45.62 45.45 -0.17 9 969.70 11.91 26 46.76 45.45 45.45 0.00 10 5967.86 18.09 40 14.05 46.29 45.45 -0.84 11 1061.40 11.41 25 33.32 45.24 45.45 0.21

Figura 23 – Comportamento da função objetivo com ocorrência de sin-cronicidade.

(51)

3.3 Função objetivo 50

Figura 24 – Comportamento da função objetivo sem ocorrência de sin-cronicidade com poucos neurônios disparando.

Figura 25 – Comportamento da função objetivo sem ocorrência de sin-cronicidade com muitos neurônios disparando.

(52)

51

4

Discussão dos resultados

Neste capítulo serão descritas as simulações realizadas para a sintonização dos parâmetros do modelo de Izhikevich, número de sinapses e taxa de tempo do decai-mento da condutância das sinapses (τ ) para que a rede neural apresentasse sincroni-cidade.

As simulações foram separadas por etapa e foram realizadas no software MATLAB versão R2009a. Na primeira etapa do trabalho, a preocupação principal foi encontrar os valores mais adequados para os pesos α, β e γ apresentados na equação 3.3. Para isso, foram considerados os resultados obtidos por Oliveira (2007) e foram realizadas várias simulações até que a função objetivo apresentasse o comportamento desejado. Com a funçao objetivo devidamente parametrizada, teve início a segunda etapa em que novas simulações foram realizadas visando encontrar uma gama maior de frequências através da variação dos parâmetros estudados.

A Tabela 4 apresenta os parâmetros comuns à todas as baterias de simulação. Tabela 4 – Valores adotados em todas as simulações.

Algoritmo genético População 100 indivíduos Gerações 1000 Crossover 0,65 Mutação 0,008 GGAP 0,8 Parâmetros da rede A+ 1 A− 1 τ+ 1 τ− 1 Wjk 6 go 1

(53)

4.1 Grupo neuronal homogêneo 52

Na seção 4.1, é discutida a simulação de uma rede composta por 100 neurônios idênticos, enquanto na seção 4.2, os neurônios passaram a ser tratados individual-mente, i.e., cada neurônio teve seus parâmetros a, b, c e d sintonizados pelo algoritmo genético.

Após cada uma das simulações foi realizado um estudo caracterizando os tipos de neurônio encontrados em cada rede e suas respectivas densidades.

Os códigos MATLAB usados nas simulações podem ser encontrados no Anexo A deste trabalho.

4.1

Grupo neuronal homogêneo

Após a definição dos parâmetros da função objetivo (Seção 3.3), foram realizadas simulações para determinar a maior frequência possível de ser sintonizada através do algoritmo genético. Para isso, foram realizadas simulações partindo dos resultados obtidos por Oliveira (2007), que analisou a influência dos seguintes parâmetros da rede neural no surgimento de sincronicidade:

• número de sinapses (Sina);

• taxa de tempo do decaimento da condutância das sinapses (τ );

• transições de fase do neurônio (parâmetro b do modelo de Izhikevich);

• recuperação do potencial de membrana (parâmetro a do modelo de Izhikevich).

Com o objetivo de ampliar a gama de frequências obtidas por Oliveira (2007) (que foi capaz de encontrar frequências entre 2 Hz e 20 Hz), uma análise criteriosa da influência dos parâmetros a, b, c e d do modelo de Izhikevich na reprodução dos com-portamentos neuronais mencionados na subseção 2.4.1 foi realizada, revelando que ao incluir o parâmetro d nas simulações, é possível reproduzir um número maior de tipos de comportamentos. Portanto, nessa primeira etapa de simulação foram estuda-dos os parâmetros seguintes:

• número de sinapses (Sina);

(54)

4.1 Grupo neuronal homogêneo 53

• valor de reset do potencial de membrana (parâmetro d do modelo de Izhikevich); • recuperação do potencial de membrana (parâmetro a do modelo de Izhikevich).

A faixa de valores permitidos para cada um desses parâmetro foi obtido por Izhi-kevich (2003), como pode ser observado na Figura 5, e foram mantidos os mesmos valores utilizados durante a sintonia dos parâmetros da função objetivo. A Tabela 5 apresenta os valores.

Tabela 5 – Intervalo de valores dos parâmetros na simulação para deter-minação da maior frequência possível.

a d Sinapses τ

Mínimo 0.002 0.05 5 1

Máximo 0.200 9.00 50 30

Além disso, os demais parâmetros da rede podem ser observados na Tabela 4 e os parâmetros do modelo de Izhikevich b e c foram mantidos constantes com os valores 0.02 e -65, respectivamente

No algoritmo genético, os cromossomos foram representados por um vetor real de 4 posições, com os seguintes parâmetros:

Sinapses τ a d

Para cada frequência foram realizadas 25 execuções do AG, sempre com as mes-mas condições iniciais.

A mudança da metodologia permitiu a obtenção de frequências mais altas que as apresentadas por Oliveira (2007). Os resultados obtidos pela simulação estão resu-midos na Tabela 6, onde é possível observar os valores dos parâmetros encontrados para frequências entre 2 Hz a 34 Hz. O comportamento da rede para as frequências 2 Hz e 34 Hz também podem ser observados nas figuras 26 e 27. A Tabela 6 exibe o melhor resultado obtido (nas 25 execuções do AG) para cada frequência.

O critério de parada para o algoritmo genético foi sendo aprimorado à medida em que as simulações eram realizadas. Durante esta primeira etapa, foi adotado como critério de parada o número máximo de gerações igual a 1000, além do critério de estagnação, isto é, após 250 nas quais não são observadas alterações o algoritmo é finalizado. Sendo assim, o algoritmo levou em média 6 horas para execução de cada simulação chegando, em alguns casos, a 12 horas quando o número máximo

(55)

4.1 Grupo neuronal homogêneo 54

Figura 26 – Resultado obtido para frequência de 2 Hz.

(56)

4.1 Grupo neuronal homogêneo 55

Tabela 6 – Valores dos parâmetros obtidos para cada frequência pré-determinada.

Frequência a d Sinapses por neurônio τ 2 0.0068 3.7394 30 22 4 0.0132 3.6962 22 7 6 0.0193 4.3828 16 11 8 0.0234 7.5104 19 4 10 0.0521 5.5354 36 2 12 0.0438 4.8822 17 3 14 0.0442 5.3096 23 1 16 0.0775 3.9655 24 2 18 0.0727 6.8514 17 3 20 0.0838 6.1469 17 2 22 0.1000 0.2653 13 2 24 0.0993 3.4096 23 1 26 0.1000 8.0000 20 1 28 0.1476 6.8625 16 2 30 0.1375 5.6889 20 1 32 0.1495 6.7592 20 1 34 0.1808 3.4763 20 1

de gerações foi adotado como critério de parada em computadores Intel Core 2 Duo E8400 - 3,00 GHz com 2 Gb de memória RAM.

Com a função objetivo bem sintonizada, os demais parâmetros do modelo de Iz-hikevich, b e c, foram incluídos nos experimentos. Após observar os resultados da etapa anterior, os limites de variação de algumas variáveis foram alterados, pois não foi possível observar a emergência de sincronicidade nos limites extremos da variável, sendo possível então reduzir a faixa de variação de maneira que a convergência do algoritmo genético pudesse ser mais rápida, uma vez que a limitação dos parâme-tros reduz o número de indivíduos com parâmeparâme-tros que não causam a emergência de sincronicidade. A Tabela 7 apresenta os limites dos valores para parâmetros desta etapa.

Tabela 7 – Intervalo de valores dos parâmetros para a etapa de simula-ções com o grupo neuronal homogêneo.

a b c d Sinapses τ

Mínimo 0.002 0.1 −65.0 0.05 5 1

Máximo 0.100 0.3 −55.0 8.00 50 30

Da mesma forma que na etapa anterior, foram realizadas simulações variando as frequências gradativamente até que não fosse mais possível encontrar sincronicidade. Os melhores resultados obtidos, após 25 rodadas para cada frequência, podem ser observados na Tabela 8.

Referências

Documentos relacionados

O termo extrusão do núcleo pulposo aguda e não compressiva (Enpanc) é usado aqui, pois descreve as principais características da doença e ajuda a

O efetivo pagamento da(s) RECEITA(S) FIXA(S) estará condicionado ao início da operação comercial da(s) USINA(S), devendo os recursos financeiros associados a este

Considerando a importância do assunto, a variabilidade existente nas características físicas e a ausência de dados na literatura especializada referente a

A opinião dos alunos que frequentam o PA sobre a implementação do Programa de Correção de Fluxo Escolar é de extrema importância, visto serem eles os protagonistas

É importante destacar também que, a formação que se propõem deve ir além da capacitação dos professores para o uso dos LIs (ainda que essa etapa.. seja necessária),

Fonte: elaborado pelo autor. Como se pode ver no Quadro 7, acima, as fragilidades observadas após a coleta e a análise de dados da pesquisa nos levaram a elaborar

Na apropriação do PROEB em três anos consecutivos na Escola Estadual JF, foi possível notar que o trabalho ora realizado naquele local foi mais voltado à

Na experiência em análise, os professores não tiveram formação para tal mudança e foram experimentando e construindo, a seu modo, uma escola de tempo