• Nenhum resultado encontrado

CONTROLADOR HÍBRIDO INDIRETO BASEADO EM REDES NEURAIS - PARTE I: DESENVOLVIMENTO E IMPLEMENTAÇÃO

N/A
N/A
Protected

Academic year: 2021

Share "CONTROLADOR HÍBRIDO INDIRETO BASEADO EM REDES NEURAIS - PARTE I: DESENVOLVIMENTO E IMPLEMENTAÇÃO"

Copied!
6
0
0

Texto

(1)

CONTROLADOR HÍBRIDO INDIRETO BASEADO EM

REDES NEURAIS - PARTE I: DESENVOLVIMENTO E IMPLEMENTAÇÃO

André Laurindo Maitelli

Oscar Gabriel Filho

UFRN - Universidade Federal do RN UNP - Universidade Potiguar 59072-970 - Natal RN 59056-000 - Natal RN maitelli@leca.ufrn.br oscargf@unp.br

Resumo Sistemas de controle usando RNA’s têm sido propostos por vários pesquisadores em todo o mundo. O desenvolvimento de um sistema de controle pode ser abordado de duas maneiras: métodos diretos e métodos indiretos. Direto significa que o controlador é neural, sendo que os seus pesos sinápticos são ajustados diretamente com base nos parâmetros da planta. O método indireto necessita de um modelo neural da planta para ajustar os parâmetros do controlador, que também pode ou não ser baseado nas RNA’s. Este trabalho tem o objetivo de apresentar um novo desenvolvimento de um sistema de Controle Híbrido Indireto, em que o controlador convencional é ajustado “on-line” por um identificador neural possuindo arquitetura de rede multicamadas com aprendizagem baseada na metodologia da Propagação Retroativa do Erro (“Error Back Propagation”). O sistema de controle proposto foi implementado computacionalmente e testes foram realizados para verificar a sua eficiência no controle de plantas não-lineares. Os resultados obtidos na simulação do controle de uma planta não-linear são apresentados neste trabalho. Palavras Chaves: Sistema de Controle Indireto baseado em Redes Neurais, Sistema de Controle Híbrido Indireto usando Redes Neurais, Redes Neurais Artificiais.

Abstract: Control systems based on Artificial Neural Networks - ANN’s have been developed by several researchers in all world. The control design could be approached in two ways: direct design methods and indirect design methods. Direct means that the controller is a neural network, where the synaptic weights are adjusted directly by the plant parameters. The indirect method needs a neural model of the plant to adjust the control parameters, what also could or not could being an ANN’s. This work aims to present a new development approach to obtain an Indirect Hybrid Neural Control System, where the conventional controller is on-line adjusted based on neural identifier having a multiperceptron architecture with backpropagation learning method. The proposed control system has been implemented on a computer and simulations were performed to verify the effectiveness to control nonlinear systems, and results presented by a nonlinear plant are showed in this work.

Keywords: Indirect Control Systems based on Neural Networks, Indirect Hybrid Control Systems using Neural Networks, Artificial Neural Networks.

1 INTRODUÇÃO

Os métodos de controle inteligente baseados em Redes Neurais Artificiais - RNA’s constituem uma classe de abordagem bastante atrativa, devido às seguintes razões: I) RNA’s são essencialmente sistemas adaptativos capazes de aprender como executar tarefas complexas, II) possuem a característica de superar muitas das dificuldades sofridas pelas técnicas de Controle Adaptativo Convencional (Åström e Wittenmark, 1989), principalmente quando estas últimas se deparam com plantas não-lineares, com dinâmica desconhecida ou variantes no tempo e III) o grande avanço na tecnologia de microprocessadores ocorrido na última década tem propiciado o desenvolvimento de programas eficientes capazes de implementar as RNA’s, ou seja, os princípios matemáticos nos quais se acredita estar baseada a inteligência humana.

Dentro dessa abordagem destacam-se os métodos de controle indireto, assim denominados devido à necessidade de um identificador neural da planta para ajustar os parâmetros do controlador. No que se refere ao controlador, este pode ser um controlador convencional ou pode ser também baseado em redes neurais. No caso deste trabalho, o controlador é implementado através de uma lei de controle convencional, portanto, somente o identificador é neural. A principal vantagem neste tipo de projeto é que existe apenas uma rede neural para ser treinada, o que possibilita a aplicação deste esquema de controle em uma classe de plantas mais rápidas. O novo método desenvolvido neste trabalho foi denominado de Controle Híbrido Indireto devido à utilização de um identificador neural e de um controlador convencional no mesmo esquema de controle, construção similar ao que foi proposto por Adetona et alii (2001), porém com algumas diferenças significativas, as quais serão apontadas oportunamente. Para implementar o identificador neural serão usadas as Redes Neurais Artificiais - RNA’s, mais especificamente as Redes Neurais Multicamadas - RNM’s, na elaboração de estratégias de controle inteligente que apresentem um mínimo atraso computacional e que possam ser aplicadas em tempo real (“on-line”). Para o treinamento das redes neurais é usado o método da Descida do Gradiente, conhecido também por Propagação Retroativa do Erro - PRE (“Error Back Propagation”).

As demais seções abordarão os seguintes assuntos: a Seção 2 trata das Redes Neurais Artificiais - RNA`s, com ênfase para as Redes Neurais Multicamadas - RNM’s e o método da

(2)

Propagação Retroativa do Erro - PRE. Este método foi implementado computacionalmente, sendo a ele incorporadas algumas técnicas para aceleração de convergência, conforme descrito detalhadamente em Gabriel (1996). A Seção 3 aborda a questão da Identificação de Sistemas Não-Lineares usando Redes Neurais Artificiais, visando formar a base teórica necessária à compreensão da estratégia de identificação da planta a ser controlada, com a finalidade de extrair os parâmetros a serem utilizados no projeto do controlador convencional. A Seção 4 apresenta o desenvolvimento do Esquema de Controle Híbrido Indireto usando redes neurais. A Seção 5 apresenta os resultados obtidos através de simulação de um Exemplo de planta não-linear retirada da literatura técnica e, finalmente, a Seção 6 apresenta as Conclusões obtidas com a simulação do esquema de Controle Híbrido Indireto baseado nas RNA’s.

2 REDES NEURAIS ARTIFICIAIS - RNA`s

As Redes Neurais Artificiais - RNA’s têm o propósito de simular o comportamento do sistema nervoso biológico através de programas de computador (“software”) ou de circuitos elétricos (“hardware”), com a finalidade de tirar proveito destes poderosos sistemas de inteligência com que é dotado o ser humano vivo (Rumelhart et alii, 1986). O grande avanço na tecnologia de microprocessadores ocorrido na última década tem propiciado o desenvolvimento de programas eficientes capazes de implementar as RNA’s, ou seja, os princípios matemáticos nos quais se acredita estar baseada a inteligência humana (Gabriel, 1996).

As redes neurais são compostas de vários elementos conectados entre si de alguma forma, possibilitando a sua operação em paralelo. Estes elementos são baseados no sistema nervoso do ser humano e são denominados de neurônios. Cada neurônio (figura 1), quando ativado por um sinal de entrada, apresenta uma resposta que obedece a função matemática escolhida para modelar o seu comportamento.

Figura 1: Representação do Neurônio

Com base na figura 1, define-se sinal de ativação NET de um neurônio j, como sendo

NETj wj x i I i = = +

, 1 1 i (1)

em que yj = f(NET), wj,i é o peso sináptico, xi é a entrada, i é

o índice do neurônio de origem e j é o índice do neurônio de destino, para i = 1, 2,..., I, I+1 e j = 1, 2,..., J. A entrada com valor fixo -1 é para o limiar de operação (“threshold”), o qual é implementado pelo peso sináptico extra wj,I+1.

2.1 Redes Neurais Multicamadas - RNM's

A maneira como os neurônios são organizados define a arquitetura da rede. Este trabalho usa a organização em várias camadas justapostas (figura 2), conhecida na literatura especializada como Redes Neurais Multicamadas - RNM’s.

Figura 2: Rede Neural Multicamadas - RNM`s Os neurônios estão dispostos em camadas que se justapõem umas às outras, formando uma configuração em cascata, podendo existir mais de uma camada intermediária. A primeira camada (pseudocamada) é a camada de entrada (“input layer”), as camadas intermediárias são as camadas escondidas (“hidden

layers”) e a última camada é a camada de saída (“output layer”). É imediato constatar que a rede funciona no sentido

direto da entrada para a saída (“feedforward”) e a camada de entrada não possui processamento. Segundo Haykin (1999), as Redes Neurais Multicamadas - RNM’s são boas para aprender relações matemáticas a partir de um conjunto de dados de entrada-saída, sendo, por isso, consideradas aproximadores universais de funções matemáticas.

2.2 Propagação Retroativa do Erro - PRE

("Error Back Propagation")

O processo de aprendizagem de uma rede neural consiste na adaptação de seus pesos sinápticos de tal maneira que a diferença entre os valores da saída desejada e de sua saída atual, calculada para todos os pontos de treinamento, seja mínima. O Algoritmo de Propagação Retroativa do Erro - PRE é baseado no Método de Descida do Gradiente. O ajuste (ou atualização) dos pesos das sinapses dá-se no sentido inverso (“backward”), conforme expressões abaixo:

wj i,

(

)

w[c+1] =w[ ]c + −1 α w[ ]c +α∆w[c−1] (2) ∆w E w = −η∂ ∂ (3)

[ ]

E e k K k = =

1 2 1 2 (4) ek =dkzk (5)

em que c o ciclo de treinamento (ou época), η a constante de aprendizagem, α é a constante de momento, E a função erro (ou função custo), dk é a saída desejada para o neurônio de

(3)

corrente assumido pelo mesmo neurônio, após o processamento da rede no sentido direto (“forward”).

A fórmula para ajustar os valores dos pesos sinápticos de cada conexão existente entre um neurônio j da camada escondida e um neurônio k da camada de saída, de maneira que o erro global E seja igual ou menor que uma tolerância

previamente especificada, i. e, tal que , é a seguinte:

wk j,

ε

E≤ ε [ ]

[

(

) (

)

[ ] ∆wk j d z f NET y c k k o k j c , = η − ′

]

)

)

) θ

)

] (6) para j = 1, 2,..., J+1 e k = 1, 2,..., K, onde é a derivada da função de ativação dos neurônios da camada de saída (“output layer”). A fórmula para ajustar os valores dos pesos sinápticos que interligam um neurônio i da camada de entrada da rede neural com um neurônio j da camada escondida, é a seguinte:

fo( ). wj i, [ ]

(

)

∆wj ic f NET x w h j i k k j k K c , , [ ] = ′      =

η δ 1 (7)

para i = 1, 2,..., I+1 e j = 1, 2,..., J, onde é a derivada da função de ativação dos neurônios da camada escondida (“hidden layer”) e δ . O algoritmo PRE pode sofrer problemas de convergência (Pansalkar e Sastry, 1994). Para superar tais dificuldades foram utilizadas as técnicas do η-adaptativo e do momento normalizado (Gabriel, 1996). ′ fh( ).

(

NETk

(

)

k = dkzk fo

3 IDENTIFICAÇÃO DE SISTEMAS

NÃO-LINEARES USANDO RNA`s

A técnica de identificação a ser usada baseia-se nas Redes Neurais Artificiais - RNA’s. No modelo entrada-saída, as entradas e as saídas da planta são representadas por suas respectivas derivadas, sendo que a ordem destas derivadas é que determinará o comportamento dinâmico da planta. As notações usadas para identificar a ordem da entrada e da saída, assim como o atraso da planta, são definidas conforme se segue: ny = ordem da saída da planta, nu = ordem da entrada da

planta, n = ordem da planta (igual a ordem da saída, ou seja, n = ny) e d = atraso de transporte da planta (d = ny - nu ).

Tomando por base o caso linear discreto, a relação entre o sistema físico (ou planta) e o seu modelo linear é dado por

(

)

(

)

(

y k d+ =ϕT k d n, , . $θ+e k d+ (8) em que y é a saída da planta, é o vetor regressor de entrada do modelo linear, θ é o vetor de parâmetros estimados da planta a ser identificada e e é o erro de estimação,

, que substituído na expressão (8) fornece a saída estimada dada por

ϕ

$ d ( + e k d( + )=y k d( + )−y k$

(

)

(

)

$ , , . $ y k d+ = ϕT k d n (9)

Estendendo o modelo linear da expressão (8) para o caso não-linear usando RNA’s, a relação entre o sistema físico (ou

planta) e o seu modelo de redes neurais passa a ser descrita, de uma forma geral, por

(

)

[

(

)

]

(

y k d+ =gϕ , , ,k d n W +e k d+ (10) em que y é a saída da planta, g é a função escolhida para modelar o comportamento dinâmico da planta,

ϕ

é o vetor regressor de entrada do modelo, W é uma matriz contendo os parâmetros ajustáveis da rede neural (pesos sinápticos), donde se deduz imediatamente que a saída estimada pelo modelo é dada por

$( ) [ ( , , ),

y k d+ = ϕg k d n W (11) A identificação de sistemas físicos usando RNA’s pode ser feita através da utilização de um dos modelos de estruturas descritos em Nφrgaard et alii (2001). Neste trabalho, será adotado o modelo NNARX mostrado a seguir.

3.1 Rede Neural Autoregressiva com

Entradas Exógenas (“Neural Network

AutoRegressive with eXogeneous

inputs” - NNARX)

A expressão matemática do modelo não-linear estendido

NNARX é dado pela expressão (11), onde o vetor regressor

ϕ

é dado por ϕ( , , ) [ ( ) ,..., ( ) ( ) , ( ) ,..., ( ) , ] k d n y k d y k d n u k u k u k d n = + − + − − + − 1 1 −1 (12)

em que a entrada extra com valor fixo -1 corresponde à entrada do limiar de operação da rede neural (“threshold”). A arquitetura do modelo NNARX é a seguinte:

Figura 3: Modelo de estrutura NNARX

Trata-se de um modelo estável no sentido BIBO (“Bounded

Input, Bounded Output”), pela razão de não possuir

realimentação da saída estimada. A inexistência de problemas relativos à estabilidade faz deste modelo de estrutura a escolha preferida quando o sistema a ser modelado é determinístico ou o nível de ruído não é significativo (Nφrgaard et alii, 2001). O modelo NNARX equivale ao modelo Série-Paralelo de Narendra e Parthasarathy (1990). Neste último, as contribuições da entrada e da saída são matematicamente

(4)

separadas em duas redes neurais, de tal modo que a expressão (11) é desmembrada e passa a ser escrita na forma

$( ) ( ( , , ), ) ( ( , ), )

y k d+ = gy ϕy k d ny Wy +gu ϕu k n Wu u (13) em que gy e gu são funções que representam a saída e a

entrada do modelo Série-Paralelo, respectivamente.

4 ESQUEMA DE CONTROLE

HÍBRIDO INDIRETO

Até o momento, pretendeu-se apenas apresentar alguns conceitos básicos sobre as Redes Neurais Artificiais - RNA’s e os modelos de estruturas aplicados para a identificação de sistemas não-lineares de dinâmica desconhecida, com o propósito de dar uma fundamentação teórica para o Esquema de Controle Híbrido Indireto a ser desenvolvido nesta seção. A denominação de indireto decorre dos parâmetros do controlador serem ajustados com base num modelo estimado da planta e não no seu modelo nominal, isto devido provavelmente aos seguintes motivos: I) impossibilidade do controlador acessar diretamente o valor dos parâmetros da planta e/ou II) dificuldade para obter o valor exato dos parâmetros da planta, devido principalmente à existência de dinâmica não-linear de natureza desconhecida.

Para o desenvolvimento do esquema de Controle Híbrido Indireto utilizou-se um identificador neural (in) e um controlador convencional dispostos conforme figura abaixo:

Figura 4: Esquema de Controle Híbrido Indireto

em que z-1 é o operador de atraso unitário e e

in(k+d) é o erro

usado para treinamento do identificador neural em tempo real. O cálculo do sinal de controle u(k) a ser aplicado na planta, de modo a se obter uma saída y(k+d) o mais próximo possível da referência y_Ref(k+d), será feito com base na identificação da planta, obedecendo a seguinte seqüência de passos:

1o passo: No intervalo de tempo entre k-1 e k o identificador

neural é treinado com os dados obtidos até o instante k-1, possibilitando assim o cálculo do Jacobiano estimado da planta, que é dado pela seguinte expressão matemática

$( ) $( ( ) J k d y k d u k + − = + − − 1 1 1 ∂ ∂ ) (14)

2o passo: Tomando uma aproximação para a derivada, tem-se

$( ) $( ) ( ) $( ) $( ) ( ) ( ) J k d y k d u k y k d y k d u k u k + − ≅ + − − = + − − + − − − − 1 1 1 1 2 1 2 ∆ ∆ u k J k d u k J k d y k d y k d ( ). $( ) ( ). $( ) $( ) $( ) − + − − − + − + − − + − 1 1 2 1 2 = 1 (15) 3o passo: Como a expressão (15) foi obtida a partir da premissa

de que o identificador neural já está treinado com os dados disponíveis até o instante k-1, a idéia agora é usá-la para estimar o valor do próximo sinal de controle u(k) a ser aplicado na planta, na hipótese de que torne-se igual a y_Ref(k+d), sendo que este último é conhecido. Portanto, partindo da expressão (15), pela simples substituição do último sinal de controle disponível, u(k-1), por u(k) a ser calculado, e de por y_Ref(k+d), tem-se

$( y k d+ − 1) ) 1 = $( y k d+ − 1 u k J k d u k J k d y k d y k d ( ). $( ) ( ). $( ) _ ( ) $( ) + − − − + − = + − + − 1 2 1 2 Ref (16)

Subtraindo a expressão (16) de (15) e manipulando algebricamente, com o objetivo de eliminar o par de entrada-saída estimada mais distante, [u(k-2),y k d$( + − 2)], virá u k J k d u k J k d y k d y k d ( ). $( ) ( ). $( ) _ ( ) $( ) + − − − + − = + − + − 1 1 1 Ref [ ( ) ( )]. $( ) _ ( ) $( ) u k u k J k d y k d y k d − − + − + − + − 1 1 1 Ref u k u k y k d y k d J k d ( ) ( ) _ ( ) $( $( ) = − + + − + − + − 1 1 1 Ref ) ) (17)

A expressão (17) é similar à expressão desenvolvida por Adetona et alii (2001). A diferença básica é que esses autores usaram um modelo matemático baseado na linearização da planta por série de Taylor, enquanto que o desenvolvimento matemático usado neste trabalho tem como ponto de partida uma aproximação da derivada que fornece o Jacobiano estimado da planta. De outra maneira, significa dizer que Adetona et alii (2001) construiram uma lei de controle indireto com foco inicial no modelo linearizado da planta para depois incorporarem um identificador, de modo a viabilizar o esquema de controle proposto. Por outro lado, este trabalho já partiu admitindo a necessidade operacional do identificador neural e assim, embora por caminhos diferentes, ambos chegaram na mesma equação dada pela expressão (17).

De acordo com a lei de controle dada pela expressão (17), fica claro que a finalidade do identificador neural é obter um valor estimado para a saída e para o Jacobiano da planta. Como neste trabalho pretende-se usar, no máximo, uma rede neural contendo 03 (três) camadas - entrada, escondida e saída, com função de ativação não-linear (p.ex. sigmóide bipolar) na camada escondida e função de ativação linear na camada de saída, por sua característica de aproximador universal (Haykin, 1999) e também por razões relacionadas com o tempo de treinamento, será desenvolvida uma expressão para o cálculo de baseada nos valores dos parâmetros do identificador neural após o seu treinamento. Obviamente, se for usada também uma função linear para a camada escondida da

$(

(5)

rede acima citada, recai-se no caso de linearização da planta. Iniciando-se o processo de cálculo do Jacobiano estimado aplicando-se o identificador neural especificado, tem-se

$( ) (

y k d+ − =1 f NETo o1) (18) J k

em que fo(.) é a função de ativação da camada de saída (a letra

o vem de “output” = saída) e o número 1 subescrito que

aparece em NET é devido ao identificador possuir apenas uma saída. Derivando em relação ao sinal de entrada e aplicando a regra da cadeia, tem-se

∂ ∂ ∂ ∂ ∂ ∂ $( ) ( ) $( ) . ( ) y k d u k y k d NET NET u k o o + − − = + − − 1 1 1 1 1 1 (19)

A primeira derivada que surge no membro direito da expressão (19), pode ser escrita como

∂ ∂ ∂ ∂ $( ) ( ) ( ) ' y k d NET f NET NET f NET o o o o o o + −1 = = 1 1 1 1 (20)

e a segunda derivada parcial do membro direito da expressão (19), pode ser deduzida conforme se segue

NET f NET w f NET w

f NET w w o h h o h h o h hJ o J o J 1 1 1 1 2 1 2 1 1 1 = + − + ( ). ( ). . ( ). , , , , , , , , + +.. ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ NET u k f NET NET u k w f NET NET u k w f NET NET u k w o h h h o h h h o h hJ hJ o J 1 1 1 1 1 2 2 1 2 1 1 1 1 1 ( ) ( ). ( ). ( ). ( ). ... ( ). ( ). ' , , ' , , ' , , − = − + − + + − ∂ ∂ ∂ ∂ NET u k f NET NET u k w o h hj hj o j j p 1 1 1 1 1 ( ) ( ). ( ). ' , , − =

= − (21)

em que fh(.) é a função de ativação da camada escondida (a

letra h vem de “hidden” = escondida) e p é o número de neurônios da camada escondida. O valor da derivada parcial da expressão (21) é dado por

NET w y k d n i w u k d n i w u k w hj h j i i n h j i i n n d h j n d h j n d = + − + − + − + − + − − = = + − − + − +

, , , , , , , , . ( ) . ( ) . ( ) 2 2 2 1 1 1 2 2 1 2 2 + ∂ ∂ NET u k w hj h j n d ( − ) = , , − + 1 2 1 (22)

em que 2n-d+1 é o número de entradas, excluindo a entrada do limiar de operação (“threshold”).

Substituindo a expressão (22) em (21), tem-se ∂ ∂ NET u k f NET w w o h hj h j n d o j p 1 2 1 1 1 1 ( ) ( ). . ' , , , , − = − + =

j (23)

Finalmente, substituindo as expressões (23) e (20) em (19), obtém-se a expressão para cálculo do Jacobiano estimado da planta, qual seja

$( ) $( ). ( ) d y k d NET NET u k o o + − = + − − 1 1 1 1 1 ∂ ∂ ∂ ∂ = − + =

f NETo o f NETh hj wh j n d wo j p ' ' , , , , ( 1). ( ). 2 . 1 1 1j (24) Ressalta-se que os pesos correspondem à conexão da entrada u(k-1), de posição 2n-d+1 contada de cima para baixo, com os neurônios j da camada escondida.

wh j n d, ,2− +1

5 EXEMPLO

Visando possibilitar a avaliação da eficiência do esquema de Controle Neural Indireto foi realizada uma simulação, em que o identificador neural contém uma camada escondida, com funções de ativação sigmóide bipolar na camada escondida e linear na camada de saída. A constante de aprendizagem foi auto-ajustada pelo método do η-adaptativo. O sistema a ser controlado foi retirado do trabalho de Adetona et alii (2001). Trata-se de uma planta não-linear de 2a ordem com atraso de

transporte unitário, cuja expressão é a seguinte:

y k y k y k sin y k y k u k u k y k y k u k u k y k ( ) . cos[ . ( ( ) ( ))] . [ . ( ( ) ( )) ( ) ( )] . [ ( ) ( )] ( ( ) ( )) cos( ( )) + = + + + + + − + + + + + − + + − +       1 0 2 0 8 1 0 4 0 8 1 2 1 01 9 1 2 1 1 − (25) A referência a ser seguida é dada pela seguinte expressão

y_Ref(k+ =) . + . sink sin k sin k

  +    +           1 10 01 50 100 150 π π π (26) A simulação apresentou os seguintes resultados:

0.00 200.00 400.00 600.00 800.00 K 0.00 0.20 0.40 0.60 0.80 1.00 1.20 1.40 1.60 1.80 2.00 Sa íd a da Pl an ta - - - Referência Saída da Planta

Figura 5: Saída da Planta y

A figura 5 mostra que, após o identificador neural aprender o comportamento da planta em tempo real, a saída da planta (linha cheia) segue a referência (linha pontilhada), com um erro de controle decorrente do erro de treinamento da rede neural artificial.

(6)

0.00 200.00 400.00 600.00 800.0 K 0 -0.60 -0.40 -0.20 0.00 0.20 Si na l de Co nt ro le

Figura 6: Sinal de Controle u

A figura 6 mostra o sinal de controle que foi aplicado na planta, durante o processo de controle.

6 CONCLUSÕES

O esquema de Controle Híbrido Indireto baseado nas Redes Neurais Artificiais - RNA’s apresentou dificuldade no início do controle, o que seria de se esperar pelo fato de que o treinamento do identificador neural foi realizado totalmente “on-line”, i.e, sem nenhum pré-treinamento. Entretanto, a partir do instante que a planta foi controlada, o que ocorreu antes da iteração 100, a saída da planta acompanhou a referência demonstrando assim a eficiência do sistema de controle indireto desenvolvido neste trabalho. Voltando à questão da oscilação (“chattering”) no estado transitório, os autores acreditam que é possível desenvolver uma técnica auxiliar capaz de minimizar este efeito indesejável. Provavelmente, esta técnica deverá ponderar o sinal de controle com base em uma regra que considere o erro de convergência do identificador neural, de maneira similar a utilizada por Adetona et alii (2001), porém apresentando uma maneira para calcular efetivamente este erro devido ao treinamento do identificador neural. No momento em que este trabalho estava sendo escrito, a metodologia para o cálculo do limite superior dos erros de modelagem devido ao erro de treinamento da rede neural já estava concluída e será mostrada na Parte II: Estabilidade e Robustez, em continuidade ao estudo do esquema de Controle Híbrido Indireto.

Referência Bibliográfica

Adetona, O., Sathananthan, S. e Keel, L.H. (2001). Robust Nonlinear Adaptive Control Using Neural Networks. In:

Proc of the American Control Conference, pp. 3884-3889.

Arlington, VA. USA.

Åström, K.J. e Wittenmark, B., (1989). Adaptive Control. Addison - Wesley. Reading, Massachusetts. USA.

Gabriel Fo, O., (1996). Um Esquema de Controle Adaptativo

Neural com Treinamento em Tempo Real. Dissertação de

Mestrado. Universidade Federal do Rio Grande do Norte-UFRN. Natal, Rio Grande do Norte. Brasil

Haykin, S., (1999). Redes Neurais. Artmed Editora Ltda. Porto Alegre, Rio Grande do Sul. Brasil.

Narendra, K. e Parthasarathy, K., (1990). Identification and control of dynamical system using neural networks. IEEE

Transactions on Neural Networks, Vol. 1, No. 1, pp. 4-27.

USA.

Nφrgaard, M., Rvn, O., Poulse, N.K. e Hansen, L.K., (2001).

Neural Networks for Modelling and Control of Dynamic Systems. Springer-Verlag London Limited. London.

England.

Pansalkar, V.V. e Sastry, P.S., (1994). Analysis of the Back-Propagation Algorithm with Momentum. IEEE

Transactions on Neural Networks, Vol. 5, No. 3, pp.

505-506. USA.

Rumelhart, D.E., McClelland, J.L. e The PDP Group, (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vols. 1 e 2. The MIT Press. Cambridge, Massachusetts. USA.

Referências

Documentos relacionados

c.4) Não ocorrerá o cancelamento do contrato de seguro cujo prêmio tenha sido pago a vista, mediante financiamento obtido junto a instituições financeiras, no

Os autores relatam a primeira ocorrência de Lymnaea columella (Say, 1817) no Estado de Goiás, ressaltando a importância da espécie como hospedeiro intermediário de vários parasitos

Painel de comandos Touch Control com display digital branco | 4 lâmpadas LED | Três velocidades + uma intensiva | Indicador digital de velocidade selecionada | Programação do tempo

É primeiramente no plano clínico que a noção de inconscien- te começa a se impor, antes que as dificuldades conceituais envolvi- das na sua formulação comecem a ser

Verificada a efetividade da proposta, a Comissão de Licitações declarou vencedor o licitante Francisco Souza Lima Helm, sendo o total do item 14 licitado o valor de

Note on the occurrence of the crebeater seal, Lobodon carcinophagus (Hombron & Jacquinot, 1842) (Mammalia: Pinnipedia), in Rio de Janeiro State, Brazil.. On May 12, 2003,

Resumidamente a forma de comercialização dos apartamentos FLAT e operação de locação dos apartamentos do HOTEL para uma bandeira hoteleira proposta a seguir objetiva a

Activia funciona para você. Muita gente não vai ao banheiro todos os dias e acha que é normal, mas não é. Devemos ir ao banheiro diariamente. Milhões de pessoas já sabem disso