• Nenhum resultado encontrado

cont´em la¸cos de realimenta¸c˜ao das sa´ıdas para as entradas, sendo suas sa´ıdas determinadas pelas entradas atuais e pelas sa´ıdas anteriores. As redes recorrentes, quando organizadas em camadas, possuem interliga¸c˜oes entre neurˆonios da mesma camada e entre camadas n˜ao consecutivas, gerando interconex˜oes bem mais complexas que as redes neurais n˜ao- recorrentes [29].

A.6

Algoritmo de Aprendizagem

A propriedade mais interessante das redes neurais, herdada do sistema nervoso humano, ´e sua habilidade de aprender com o ambiente e melhorar seu desempenho atrav´es deste aprendizado. As redes s˜ao capazes de adquirir conhecimento a partir de experiˆencias com o ambiente que as envolve na tentativa de solucionar problemas. A partir destas experiˆencias, as sinapses s˜ao alteradas de modo a adaptar-se a in´umeras situa¸c˜oes. As sucessivas altera¸c˜oes das sinapses e consequentemente a adapta¸c˜ao das redes neurais caracterizam a aprendizagem tornando capazes de generaliza¸c˜ao e reprodu¸c˜ao de racioc´ınio aproximado [5, 24].

Geralmente uma rede produz resultados cada vez melhores `a medida que existe uma maior quantidade de informa¸c˜oes (dados) inseridos e dispon´ıveis em seu processo de aprendizado. O conjunto de regras e procedimentos num´ericos adotados para a obten¸c˜ao de estabilidade nos parˆametros da rede neural, atrav´es de um ajuste cont´ınuo dos pesos das conex˜oes que definem os procedimentos para a solu¸c˜ao de um problema de aprendizado, ´e chamado de algoritmo de treinamento. Os algoritmos de treinamento mais empregados s˜ao os seguintes:

• Supervisionado: Este m´etodo consiste na apresenta¸c˜ao de um conjunto de padr˜oes para a rede neural, cada qual formado por um par entrada/sa´ıda. Para cada exemplo, a rede neural recebe a entrada e deve aprender a gerar a sa´ıda correspondente. No caso da rede n˜ao gerar a sa´ıda desejada, ´e encontrada a diferen¸ca entre a sa´ıda obtida e a sa´ıda desejada (erro). A partir desta diferen¸ca, os pesos sin´apticos dos neurˆonios s˜ao atuali- zados para que, nas pr´oximas itera¸c˜oes (ou seja, pr´oximos instantes em que um par de entrada/sa´ıda for apresentado `a rede) a sa´ıda obtida se aproxime ao m´aximo da sa´ıda de- sejada. Portanto, n˜ao h´a a necessidade de que a rede neural descubra quais sa´ıdas devem ser apresentadas como resposta `as entradas. As sa´ıdas corretas s˜ao estabelecidas pelos padr˜oes de treinamento. Um exemplo dessa arquitetura ´e o Backpropagation.

5HGH1HXUDO 3DGUmRGH(QWUDGD6DtGD 6DtGD &RPSDUDomR 6XSHUYLVRU 6DtGD REWLGD 6DtGD GHVHMDGD 'LIHUHQoD 

Figura A.7: Aprendizado Supervisionado.

• N˜ao-Supervisionado: Neste tipo de m´etodo, a aprendizagem se processa sem que as sa´ıdas corretas sejam fornecidas. Ao contr´ario do m´etodo supervisionado, somente o padr˜ao de entrada ´e fornecido a rede. Este m´etodo capacita as redes neurais extrairem correla¸c˜oes presentes nos dados de entrada, ou seja, permite a forma¸c˜ao de representa¸c˜oes internas para codificar caracter´ısticas da entrada e criar novas classes automaticamente. Ap´os a aprendizagem, a rede neural torna-se capaz de classificar suas entradas de acordo com as rela¸c˜oes aprendidas. A Figura A.8 ilustra o processamento neural do aprendizado n˜ao- supervisionado.

3DGUmRGH (QWUDGD6DtGD

6DtGD 5HGH1HXUDO

Figura A.8: Aprendizado N˜ao-Supervisionado.

• Aprendizado por Refor¸co: Neste tipo de aprendizado, um agente ´e aquele que, a partir da itera¸c˜ao com o ambiente em que atua, aprende de maneira autˆonoma uma pol´ıtica ´otima de atua¸c˜ao, por experimenta¸c˜ao direta, sem ser ensinado por meio de exemplos fornecidos por um supervisor, como ocorre com o aprendizado supervisionado. Um agente iterage com o ambiente em intervalos de tempo discreto em um ciclo de percep¸c˜ao (Figura A.9) e observa (a cada intervalo do ciclo) o estado atual s e escolhe a a¸c˜ao a para realizar, alterando o estado atual do ambiente. Ao executar a a¸c˜ao, o agente recebe um sinal de refor¸co escalar rs,a indicando o qu˜ao desej´avel ´e o estado resultante. Tal sinal de refor¸co

corresponde a uma penaliza¸c˜ao ou recompensa como consequˆencia da a¸c˜ao realizada pelo agente. O comportamento deve-se restringir a escolha de a¸c˜oes que tendem a aumentar, ao longo do tempo, a soma dos valores do sinal de refor¸co. Desta forma, o agente torna a

A.6 Algoritmo de Aprendizagem 119 rede apta a realizar uma determinada tarefa ao longo das itera¸c˜oes atrav´es da sistem´atica tentativa-e-erro, a qual pode ser realizada por uma grande variedade de algoritmos.

$PELHQWH

$JHQWH

(VWDGR V¶ 5HIRUoR UVD $omR D



Figura A.9: Aprendizado por Refor¸co.

• H´ıbrido: Combina treinamento supervisionado e treinamento n˜ao-supervisionado. Parte de seus pesos s˜ao ajustados atrav´es do treinamento supervisionado enquanto outros s˜ao obtidos atrav´es de treinamentos n˜ao-supervisionados.

A seguir listam-se as topologias neurais mais utilizadas e conhecidas, conforme levantamento dispon´ıvel em [53], subdivididas de acordo com o paradigma de aprendizado adotado, o que demonstra a imensa diversidade de topologias existentes que realizam processamento neural:

1. Algoritmo Supervisionado:

1.1. Feedforward: Linear, Hebbiano (Hebb, 1949; Fausett, 1994), Perceptron (Rosenblatt, 1958, Minsky & Papert, 1969; Minsky & Papert, 1988; Fausett, 1994); Adaline (Widrow & Hoff, 1960; Fausett, 1994), Higher Order (Bishop, 1995), Functional Link (Pao, 1989), MLP - Multilayer Perceptron (Bishop, 1995; Reed & Marks, 1999; Fausett, 1994), Back- propagation (Rumelhart, Hinton & Williams, 1986), Cascade Correlation (Fahlman & Lebiere, 1990; Fausett, 1994), Quickprop (Fahlman, 1989), RPROP (Riedmiller & Braun, 1993), Redes RBF (Bishop, 1995, Moody & Darken, 1989; Orr, 1996); OLS - Orthogo- nal Least Squares (Chen, Cowan & Grant, 1991), CMAC - Cerebellar Model Articulation Controller (Albus, 1975; Brown & Harris, 1994);

1.2. Somente Classificat´orias: LVQ - Learning Vector Quantization (Kohonen, 1988; Fausett, 1994), PNN - Probabilistic Neural Network (Specht, 1990; Masters, 1993, Hand, 1982; Fausett, 1994);

1.3. Somente Regress˜ao: GRNN - General Regression Neural Network (Specht, 1991, Nadaraya, 1964, Watson, 1964), Feedback (Hertz, Krogh & Palmer, 1991; Medsker & Jain, 2000), BAM - Bidirectional Associative Memory (Kosko, 1992; Fausett, 1994), Boltzman Machine (Arkley et al., 1985; Fauset, 1994);

1.4. S´eries de Tempo Recorrentes: Backpropagation through time (Werbos, 1990), Elman (Elman, 1990), FIR - Finite Impuse Response (Wan, 1990), Jordan (Jordan, 1986), Real- time recurrent network (Williams & Zipser, 1989), Recurrent backpropagation (Pineda, 1989; Fausett, 1994), TDNN - Time Delay NN (Lang, Waibel & Hinton, 1990);

1.5. Competitivas: ARTMAP (Carpenter, Grossberg & Reynolds, 1991), Fuzzy ARTMAP (Carpenter et al., 1992; Kasuba, 1993), Gaussian ARTMAP (Williams, 1995), Counterpro- pagation (Hecht-Nielsen, 1987, Hecht-Nielsen, 1988; Hecht-Nielsen, 1990, Fausett, 1994); Neocognitron (Fukushima, Miyake & Ito, 1982; Fukushima, 1988, Fausett, 1994).

2. Algoritmo N˜ao-Supervisionado:

2.1. Competitivo: Vector Quantization (Grossberg, 1976; Kohonen, 1984), Conscience (De- sieno, 1988), Self-Organizing Maps (Kohonen, 1995; Fausett, 1994), Local Linear (Mulier &

Cherkassky, 1995);

2.2. Adaptive Resonance Theory: ART-1 (Carpenter & Grossberg, 1987a; Moore, 1988; Fausett, 1994), ART-2 (Carpenter & Grossberg, 1987b; Fausett, 1994); ART-2A (Carpen- ter,

Grossberg & Rosen, 1991a); ART-3 (Carpenter & Grossberg, 1990), Fuzzy ART (Carpenter, Grossberg & Rosen, 1991b), DCL - Differential Competitive Learting (Kosko, 1992);

2.3. Dimension Reduction: Dimension Reduction (Diamantaras & Kung, 1996), Hebbiano (Hebb, 1949; Fausett, 1994); Oja (Oja, 1989), Sanger (Sanger, 1989), Hebbiano Differen- tial (Kosko, 1992);

2.4 Autoassocia¸c˜ao: Linear autoassociator (Anderson et al., 1977; Fausett, 1994), BSB - Brain State in a Box (Anderson et al., 1977; Fausett, 1994), Hopfield (Hopfield, 1982; Fausett, 1994).

Documentos relacionados