• Nenhum resultado encontrado

4 EXPERIMENTOS E RESULTADOS

4.2 A Experimentação do Ambiente

Para verificar o comportamento do ambiente proposto, foram exploradas todas as suas funcionalidades. Inicialmente, a série Mackey-Glass é obtida a partir de uma base

de dados e alguns detalhes estatísticos são apresentados. Em seguida, são selecionados os atributos usados para previsão e índice, e a representação gráfica da série temporal é exibida para facilitar a definição da estratégia de particionamento da série em conjuntos de treino, validação e teste. O ambiente utilizará todos os recursos existentes em função dessas configurações iniciais. Podem ser executados, então, instâncias de métodos já implementados, contidos em um repositório, ou então estes poderão ser importados. Esses métodos-base podem ser iterativamente instanciados e executados, onde várias de suas configurações são avaliadas por meio dos resultados em um conjunto de validação. Por meio desses resultados, os critérios de seleção de métodos-base descritos neste trabalho podem ser aplicados. Essa última etapa pode ser realizada repetidas vezes, onde novas execuções de métodos-base são permitidas, assim como novas seleções de métodos. Todos os resultados parciais são persistidos, que incluem as configurações que resultaram nos desempenhos obtidos. Desse modo, os resultados dos métodos-base estão disponíveis para a seleção da forma e do método de combinação destes. Os resultados obtidos nessas combinações são apresentados. Nesse ponto é possível agregar ou excluir métodos-base e realizar um novo de ciclo de combinação, onde todos os resultados obtidos nessas combinações estão disponíveis para que se possa confrontar os desempenhos alcançados.

Em função do algoritmo backpropagation possuir uma maior quantidade de parâmetros ajustáveis quando comparada a outros métodos implementados neste trabalho, foi adotada uma notação especial para descrever a configuração dos seus parâmetros nas redes MLP tanto para o nível base quanto para o nível meta, de forma que seja possível consolidar diversos conjuntos de informações em uma única tabela de resultados. Tal notação foi criada da seguinte forma: as letras L, S e T foram utilizadas para descrever as funções de ativação Linear (L), Sigmóide (S) e Tangente Hiperbólica (T), que compõem a configuração dos neurônios das redes MLP. Os números que antecedem essas letras correspondem ao número de neurônios em cada camada; as letras E, T e M representam o número de épocas, a taxa de aprendizado e o termo momento, respectivamente. A título ilustrativo, seguem dois exemplos dessa notação:

(i) configuração da rede: 12L-6S-1L, E = 5000, T = 0,6, M = 0,3

Nesse exemplo é descrita uma arquitetura de rede neural MLP que possui uma camada de entrada com 12 neurônios e função de ativação Linear, uma camada oculta com 6 neurônios e com função de ativação Sigmóide, uma camada de saída com 1 neurônio e função de ativação Linear. O restante da notação descreve uma

quantidade de 5000 épocas para o treinamento, uma taxa de aprendizado de 0,6 e um termo momento de 0,3.

(ii) configuração da rede: 12L-6S-4T-1L, E = 5000, T = 0,6, M = 0,3

Este exemplo é similar ao anterior, onde nessa última configuração foi adicionada uma segunda camada oculta (4T) que contém 4 neurônios e função de ativação Tangente Hiperbólica.

A TAB.4.2 ilustra exemplos da forma como os métodos e seus parâmetros foram especificados nas tabelas de resultados, assim como um detalhamento de suas respectivas configurações.

TAB. 4.2 Exemplos de configurações de métodos para uso nas tabelas de resultados

Método /

(Parâmetros) Descrição da Configuração

Previsão Ingênua Não aplicada. Suavização

Exponencial (α = 0,9)

Fração de erro (α) com valor igual a 0,9.

Média Móvel

(janela = 3) Janela de previsão com um total de três elementos.

Wang-Mendel Adaptado (conjuntos = 7,

janela = 5)

Itens configuráveis:

- tipo de adaptação: usada a proposta de (SILVA, 2007). As outras variações implementadas são: original (WANG e MENDEL, 1992) e modificado (RIBEIRO, 2008).

- quantidade de conjuntos nebulosos: sete. - Janela de previsão: total de cinco elementos. Valores fixos em todos os experimentos: - a função de pertinência é do tipo triangular.

- os limites da variável relacionada à previsão são idênticos aos limites mínimo e máximo do atributo existente na série temporal a ser previsto.

Rede Neural (Algoritmo Backpropagation) 4L-9S-1T E = 5000 T = 0,6 M = 0,3

Rede MLP e algoritmo backpropagation configurados com:

- Quatro neurônios na camada de entrada e funções de ativação do tipo Linear. - Nove neurônios na camada oculta e funções de ativação do tipo Sigmóide. - Um neurônio na camada de saída com função de ativação do tipo Tangente hiperbólica.

- Número de épocas igual a 5.000. - Taxa de aprendizado igual a 0,6. - Termo momento igual a 0,3.

Em virtude do uso de diferentes métodos e diversas formas possíveis de combinações destes, uma série de experimentos foi elaborada com o objetivo verificar a robustez do ambiente. A TAB.4.3 descreve os tipos de experimentos aplicados nas bases de teste selecionadas.

TAB. 4.3 Tipos de Experimentos (métodos no nível base e meta)

Experimentos

Tipo Descrição do Experimento (verificação de desempenhos)

A Métodos base de diversos tipos (todos aqueles listados na TAB. 4.2).

B Métodos base de um mesmo tipo (Wang-Mendel ou algoritmo backpropagation, em função de várias configurações possíveis destes).

C Combinação Linear de várias instâncias do método base fundamentado em redes neurais (algoritmo backpropagation).

D Combinação Linear de várias instâncias do método de Wang-Mendel.

E Combinação Não-Linear por meio do algoritmo backpropagation. As linhas das tabelas de resultados conterão as seguintes informações:

- 1a. linha da tabela (combinação simples): a janela do comitê não é utilizada (uso somente das saídas dos métodos base, que corresponderão ao total de neurônios da camada de entrada da rede neural no nível meta).

- 2a. linha da tabela (combinação conjugada): uso da janela do comitê com o mesmo tamanho da menor janela de previsão dos métodos base (o total de neurônios da camada de entrada da rede neural será dado pelo número de métodos base somados ao tamanho da janela do comitê).

- 3a. linha da tabela (combinação conjugada): uso da janela do comitê com o mesmo tamanho da maior janela de previsão dos métodos base (o total de neurônios da camada de entrada da rede neural será dado pelo número de métodos base somados ao tamanho da janela do comitê).

E.1 Combinação Não-Linear usando o treinamento em fase única (método meta treinado com os mesmos elementos da série temporal utilizados para treinamento dos métodos base, sendo estes gerados por instâncias do algoritmo backpropagation).

E.2 Combinação Não-Linear usando o treinamento em fase única (método meta treinado com os mesmos elementos da série temporal utilizados para treinamento dos métodos base, sendo estes gerados por instâncias do método de Wang-Mendel).

E.3 Combinação Não-Linear usando o treinamento em fase única (método meta treinado com os mesmos elementos da série temporal utilizados para treinamento dos métodos base, sendo estes gerados por instâncias de cada um dos métodos listados na TAB.4.2).

E.4 Combinação Não-Linear usando o treinamento em fase dupla (método meta treinado com uma quantidade maior de elementos da série temporal do que aqueles utilizados para treinamento dos métodos base, sendo estes gerados por instâncias do algoritmo backpropagation).

Documentos relacionados