• Nenhum resultado encontrado

7. ESTUDO DE CASOS

7.1 PRIMEIRO CASO

O ruído ou perturbação Tc é 10% da amplitude da entrada e considerado na fase

de treinamento para dar robustez à rede; foi inserido após o motor CC ter atingido a velocidade de referência, em 1 segundo. Admite-se condições iniciais nulas e como referência um sinal tipo degrau.

7.1.1 Controle Neural Preditivo

Amostras do treinamento 10000

Entrada máxima da planta 8

Entrada mínima da planta -2

Valor máximo do intervalo (seg.) 5 Valor mínimo do intervalo (seg.) 0.05

Limites dos dados da saída Não especificados

Tabela 7.1. Parâmetros para gerar as amostras de treinamento

Figura 7.1. Amostras para treinamento

Tendo prontas as amostras para treinamento, pode-se treinar a rede para identificação especificando parâmetros relacionados a sua arquitetura e ao próprio

Tamanho da camada intermediária 3 Intervalo de amostragem das entradas (seg.) 0.01 No. de entradas retardadas da planta 3

No. de saídas retardadas da planta 3

Tabela 7.2. Arquitetura da Rede

Épocas de treinamento 1000 Função de treinamento TRAINRP

Critério de parada Número de épocas alcançado o erro mínimo atingido

Conjunto de amostras usadas Dados de treinamento. Dados de validação. Dados de teste.

Tabela 7.3. Parâmetros para treinamento

Sendo, o conjunto de dados de validação como o correspondente a pares entrada - saída que não são apresentados à rede durante o treinamento e não são parâmetros para encerrar o treinamento, ou seja, representam um conjunto totalmente novo a ser apresentado à rede para avaliação de desempenho

TRAINRP é uma função do treinamento da rede que atualiza os valores dos pesos e dos bias com o algoritmo backpropagation (RPROP).

Foi testada também como função de treinamento TRAINBR, que é uma função do treinamento da rede que atualiza os valores dos peso e bias em função à otimização de Levenberg-Marquardt. Minimiza uma combinação de erros quadrados de pesos e, a seguir determina a combinação correta para produzir uma rede que generalize bem. O processo é chamado regularização Bayesiana.

Os resultados obtidos pelos dois métodos foram similares, já o tempo tomado pelo ultimo foi menor comparado com o tempo do primeiro. Assim, nos posteriores testes de identificação será utilizada a função TRAINBR.

Parada Erro mínimo de validação

Épocas 207/1000

SSE de treinamento 1.44729e-009

SSE de validação 6.2901e-010

SSE de teste 1.55171e-010

Tabela 7.4. Resultado do treinamento

Parada por erro mínimo de validação, acontece desde que o treinamento é interrompido quando o erro no conjunto de validação atingir um mínimo. A partir deste ponto, supõe-se que a rede só aprenderia detalhes irrelevantes do conjunto de treinamento.

O erro para dados de treinamento seria cada vez menor, mas o erro para dados novos (validação) seria cada vez mais alto.

A figura 7.2 mostra claramente a evolução típica do erro de uma rede ao longo do processo de treinamento, os três sinais de erro vão quase juntos durante todo o processo.

Quando a partir de um certo número de passos, a performance do conjunto de teste pára de decair e começa a piorar, mesmo que a do conjunto de treinamento continue decaindo, inicia-se a super especialização. É virtualmente aceito que a melhor rede é aquela que fornece o menor erro no conjunto de validação e aquela que fornece o mínimo erro para o conjunto de teste.

Figura 7.2. Evolução de erros no processo de treinamento

As figuras 7.3, 7.4 e 7.5 apresentam sinais relacionados aos dados de treinamento, de validação e de teste respectivamente (entrada da planta, saída da planta real, saída da planta modelada por redes neurais e erro da saída).

Figura 7.3. Treinamento de dados para o Controlador Neural Preditivo

207 Epochs

(a) (b)

Figura 7.4. Validação de dados para o Controlador Neural Preditivo

(a) (b)

(c) (d)

(a) (b)

Analisou-se a precisão do algoritmo de identificação, das figuras 7.3, 7.4 e 7.5, podemos dizer que a resposta do modelo identificado pela rede neural praticamente sobrepõe a resposta da variável respectiva. Em simulação, o erro quadrático standard (SSE) para a identificação é de quase zero (Ver tabela 7.4), portanto o processo de identificação teve sucesso. Na prática, o erro normalmente é inicialmente alto, e tende a zero pouco tempo após a inicialização do processo. Uma vez identificada a planta, projetamos o controlador considerando os parâmetros mostrados na Tabela 7.5.

N2 (Horizonte de controle) 5

Nu (Horizonte do erro seguinte) 2 ρ (fator de peso do controle) 1

α (parâmetro da busca) 0.01

Iterações por tempo de amostra 2

Rotina do minimização CSRCHBAC

Tabela 7.5. Parâmetros do controlador

CSRCHBAC encontra o mínimo da função do desempenho no sentido da busca dX, usando o algoritmo do backtracking [11][51].

A figura 7.6 apresenta o resultado da simulação do controlador preditivo e a sinal de ação do controle respectivamente, considerando variações de carga. A respeito do desempenho do controlador Neural Preditivo, pode-se observar que a variável

Figura 7.6. Velocidade de saída controlada com o Controlador Neural Preditivo

Embora ω tenha uma leve tendência a acompanhar a referência dada, a ação de controle não é suficientemente eficiente (Figura 7.7) como para controlar a velocidade final.

Figura 7.7. Ação de Controle Neural Preditivo

(s)

(s) r.p.s

Este problema poderia ser solucionado se acrescentamos o número de iterações por tempo de amostra e mudamos outros parâmetros relacionados ao controle (Tabela 7.5), mas estas modificações estariam fazendo o processo de treinamento mais demorado.

7.1.2 Controle Neural por Linearização Feedback

O processo de simulação é idêntico do que na seção anterior, os dados e parâmetros quase não mudam em relação aos utilizados com o controlador preditivo. Aqui são apresentadas só algumas tabelas.

Amostras do treinamento 5000

Entrada máxima da planta 8

Entrada mínima da planta -2

Valor máximo do intervalo (seg.) 5 Valor mínimo do intervalo (seg.) 0.05

Limites dos dados da saída Não especificados

Tabela 7.6. Parâmetros para gerar as amostras de treinamento

Tamanho da camada intermediária 3

Intervalo de amostragem das entradas (seg.) 0.01 No. de entradas retardadas da planta 3

No. de saídas retardadas da planta 3

Figura 7.8. Amostras de treinamento

Épocas de treinamento 1000 Função de treinamento TRAINBR

Critério de parada Número de épocas alcançado o erro mínimo atingido

Conjunto de amostras usadas Dados de treinamento. Dados de validação. Dados de teste.

Tabela 7.8. Parâmetros para treinamento

Na figura 7.9 pode-se apreciar a evolução típica do erro ao longo do processo de treinamento, Os sinais correspondem ao erro do conjunto de treinamento, ao conjunto de validação e ao conjunto de teste. O resultado de treinamento é apresentado na tabela 7.9.

Figura 7.9. Processo de treinamento

Parada Máximo número de épocas alcançado (1000). SSE de treinamento 1.55402e-009

SSE de validação 1.18343e-009 SSE de teste 5.48249e-010

Tabela 7.9. Resultado de treinamento 1000 Epochs

(c)

(a) (b)

Figura 7.11. Validação de dados para o Controlador por Linearização Feedback (c) (a) (b) (d) (c) (a) (b) (d)

Figura 7.13. Velocidades de referência e de saída controlada por Linearização

Feedback

Figura 7.14. Ação do Controlador Neural por Linearização Feedback

(s)

r.p.s

Figura 7.15. Detalhe para o Torque de carga.

Figura 7.16. Detalhe para o erro da velocidade.

Sobre o desempenho do controlador neural por linearização feedback, pode-se perceber que a ação do controlador faz com que o valor de ω acompanhe o valor referencial de forma eficiente e em menor tempo de simulação do que o anterior controlador. O erro (Figura 7.16) mantém-se próximo de zero, mudando ligeiramente apenas quando há variação no valor da perturbação Tc.

Devido ao controle, as variações de carga não alteram a velocidade do motor, (s)

duas saídas , uma controlada e a outra não, verifica-se como a perturbação pode modificar a velocidade do motor sem e com o controlador de velocidade.

No sistema controlado as variações de Tc (torque de carga) quase não influenciam

no torque de saída, ou torque mecânico (Tm=T-Tc), devido a que é compensado pelo conjugado eletromagnético (T).

Figura 7.17. Velocidades de saída real e saída controlada.

Vale ressaltar que a corrente de armadura (Ia), varia conforme a necessidade de T

em manter Tm constante frente as variações de Tc como mostrado na figura 7.18.

O tempo de computação requerido para a identificação e o controle da planta foi mínimo comparado com o tempo utilizado pelo controlador preditivo, isto é devido a que o modelo neural da planta é treinada com o algoritmo backpropagation estático e o controlador requer computação online mínima por ser um arranjo do modelo da planta.

7.1.3 Controle Neural Baseado em Modelo de Referência.

Os parâmetros de simulação para gerar amostras de treinamento e os parâmetros de treinamento utilizados na seção anterior também são válidos nesta simulação. Para a identificação da planta são considerados 10 neurônios na camada intermediária com 2 entradas e 2 saídas retardadas da planta.

Na figura 7.19 é mostrado o processo de treinamento detalhado e na tabela 7.10 é apresentado o resultado do treinamento.

Figura 7.19. Processo de treinamento

Parada Erro mínimo de validação atingido (410). SSE de treinamento 0.00100115

SSE de validação 0.000750879 SSE de teste 0.000501698

Uma vez desenvolvido o modelo neural da planta, treinamos o controlador neural utilizando este modelo desenvolvido para forçar a saída da planta, de maneira que siga a saída do modelo de referência.

Na tabela 7.11 e 7.12 são detalhados os parâmetros utilizados para gerar amostras e para a arquitetura do controlador.

Amostras do treinamento 10000

Entrada máxima da planta 8

Entrada mínima da planta -2

Valor máximo do intervalo (seg.) 5 Valor mínimo do intervalo (seg.) 0.05

Limites dos dados da saída Não especificados

Tabela 7.11. Parâmetros para gerar as amostras de treinamento

Tamanho da camada intermediária 10

Intervalo de amostragem das entradas (seg.) 0.01 No. de entradas retardadas de referência 2 No. de saídas retardadas do controlador 1

No. de saídas retardadas da planta 2

Tabela 7.12. Arquitetura do controlador

Épocas de treinamento 10 Segmentos de treinamento 30

Função de treinamento TRAINBFGC

TRAINBFGC é uma função do treinamento da rede que atualiza os valores dos pesos e bias da rede de acordo com o método quasi-Newton de BFGS [51]. Backpropagation é usado para calcular derivadas do desempenho com respeito ao peso e às bias.

Nas figuras 7.21 e 7.22, são mostrados os resultados de treinamento do controlador e a resposta da planta controlada pela rede neural.

Figura 7.20. Resultado de treinamento do controlador baseado em modelo de

Figura 7.21. Resposta da planta para o controlador neural baseado em modelo de

referência.

O treinamento e este controlador toma muito mais tempo que os controladores de seções anteriores, isto devido a que usa backpropagation dinâmica (rede recorrente) para treinar o controlador.

Na figura 7.22 é apresentada a resposta do sistema utilizando o controlador baseado em modelo de referência. Como podemos observar, o sinal de controle (figura 7.23) tem uma ação controladora, de maneira que o sinal de saída do sistema segue a referência. O erro obtido com este controlador é pequeno e aceitável (figura 7.24). Comparando os resultados obtidos com o segundo e último controlador, observamos que as duas respostas são aceitáveis para o controle do sistema mas o último resultado tem um valor maior de erro obtido.

Os resultados obtidos pelo controlador baseado em modelo de referência podem melhorar se incrementamos o número de camadas intermediárias e o número de retardos das saídas e entradas requeridas. Mas, tudo isto levaria maior tempo para treinamento e simulação comparando com o controlador de linearização feedback.

Figura 7.22. Ação do controlador baseado em modelo de referência r.p.s

(s)

Figura 7.24. Erro na velocidade de saída.

Documentos relacionados