• Nenhum resultado encontrado

Identificação e controle de sistemas dinâmicos utilizando uma Fuzzy Wavelet Neural Network

N/A
N/A
Protected

Academic year: 2021

Share "Identificação e controle de sistemas dinâmicos utilizando uma Fuzzy Wavelet Neural Network"

Copied!
54
0
0

Texto

(1)

UNIVERSIDADEFEDERALDO RIO GRANDE DO NORTE

UNIVERSIDADEFEDERAL DORIOGRANDE DONORTE CENTRO DETECNOLOGIA

PROGRAMA DEPÓS-GRADUAÇÃO EMENGENHARIAELÉTRICA E DE COMPUTAÇÃO

UFRN CT PPGEEC

Identificação e Controle de Sistemas Dinâmicos

utilizando uma Fuzzy Wavelet Neural Network

Fábio Ricardo de Lima Souza

Orientador: Prof. Dr. Fábio Meneghetti Ugulino de Araújo

Dissertação de Mestrado apresentada ao Programa de Pós-Graduação em Engenharia Elétrica e de Computação da UFRN (área de concentração: Automação e Sistemas) como parte dos requisitos para obtenção do título de Mestre em Ciências.

Número de ordem PPgEEC: M529

Natal, RN, julho de 2018

(2)

Souza, Fábio Ricardo de Lima.

Identificação e Controle de Sistemas Dinâmicos utilizando uma Fuzzy Wavelet Neural Network / Fábio Ricardo de Lima Souza. -2018.

53f.: il.

Dissertação (Mestrado) - Universidade Federal do Rio Grande do Norte, Centro de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica e de Computação, Natal, 2018.

Orientador: Dr. Fábio Meneghetti Ugulino de Araújo.

1. Redes Neurais Artificias - Dissertação. 2. Controlador PID - Dissertação. 3. Identificação de sistemas - Dissertação. 4. Funções Wavelet - Dissertação. 5. Fuzzy Wavelet Neural Network. I. Araújo, Fábio Meneghetti Ugulino de. II. Título.

RN/UF/BCZM CDU 004.032.26 Universidade Federal do Rio Grande do Norte - UFRN

Sistema de Bibliotecas - SISBI

Catalogação de Publicação na Fonte. UFRN - Biblioteca Central Zila Mamede

(3)
(4)

Aos meus pais, Francisco e Maria, e

ao meu irmão, Fagner, por todo o

apoio oferecido durante a realização

deste trabalho.

(5)

Agradecimentos

Agradeço aos meus pais, Francisco de Assis e Maria da Cruz, e ao meu irmão, Fagner Rogério, por serem uma família maravilhosa que sempre me apoia.

Ao meu orientador, o professor Fábio Meneghetti Ugulino de Araújo, pela oportunidade de trabalharmos juntos ao longo da iniciação científica e do mestrado, pelo conhecimento transmitido, pela atenção e paciência.

Aos colegas de pesquisa e amigos do Laboratório de Controle de Processos do Depar-tamento de Engenharia de Computação e Automação/UFRN, André Henrique, Mário Sérgio, José Kleiton, Alcemy Gabriel, André Luiz, Missilene Farias, Jean Mário, Ícaro Bezerra, Willians Ribeiro, Pedro André e Danilo Ichihara pelas sugestões, paciência e momentos de descontração.

A Anne Karoline, que ofereceu grande apoio durante a realização deste trabalho.

A todos os meus familiares, que foram de grande importância, não apenas na realização deste trabalho, mas na minha formação como pessoa.

(6)

Resumo

A modelagem matemática é uma tarefa de vital importância para o desenvolvimento da ciência e da tecnologia, cujo objetivo é obter uma descrição matemática de um fenô-meno real. Independente de sua natureza, os sistemas reais precisam ser estudados e sua dinâmica deve ser conhecida para que seu funcionamento se dê como desejado. A forma clássica de obter uma representação matemática é através da análise das relações feno-menológicas que regem os sistemas. No entanto, devido a complexidade desses é, muitas vezes, difícil ou impossível seguir por esse caminho. Uma alternativa é a identificação de sistemas. A identificação de sistemas dinâmicos tem como objetivo obter uma repre-sentação matemática do comportamento de um sistema com base em dados de entrada e saída do mesmo. Uma característica dos sistemas dinâmicos que influencia na escolha do método utilizado para a identificação é a linearidade dos mesmos. Os sistemas dinâ-micos reais são não lineares, todavia, em algumas aplicações, as aproximações lineares são suficientes. Quando as representações lineares não expressam a dinâmica do processo da forma necessária, é preciso utilizar um modelo não linear. Nas últimas décadas, as redes neurais têm se estabelecido como uma das principais ferramentas para a identifica-ção de sistemas dinâmicos não lineares, pois essas possuem características que as tornam atrativas para a identificação, como a não linearidade e a capacidade de generalização e aprendizado. De posse de um modelo que represente de forma satisfatória a dinâmica de um sistema, esse pode ser utilizado para aplicações como controle, predição, inferência, entre outros. O presente trabalho aplica uma Fuzzy Wavelet Neural Network na identifica-ção de sistemas dinâmicos não lineares. Essa técnica híbrida combina as características de multirresolução da teoria wavelet com a capacidade de aprendizado e generalização das redes neurais e a capacidade de tratar incertezas da lógica fuzzy. O modelo obtido será utilizado para a sintonia de um controlador PID. No decorrer do trabalho, serão apresen-tados os conceitos e técnicas necessárias para a realização da identificação e da sintonia do controlador. Os resultados obtidos atestam a eficiência das técnicas utilizadas.

Palavras-chave: Identificação de sistemas, Controlador PID, Redes Neurais Artifici-ais, Funções Wavelet, Fuzzy Wavelet Neural Network.

(7)

Abstract

Mathematical modeling is a task of vital importance for the development of science and technology, since its objective is to obtain a mathematical description of a real phe-nomenon. Regardless of their nature, real systems need to be studied and their dynamics must be known in order for their functioning to take place as desired. The classical way of obtaining a mathematical representation is by analyzing the physical laws governing systems. However, in this case, in addition, they are (often) difficult or even impossible to follow this path, and a plausible alternative is the identification of systems. The identifi-cation of dynamic systems aims to obtain a mathematical representation of the dynamics of a system based on input and output data. Real dynamic systems are nonlinear. In some applications, as linear approximations are sufficient, however, when linear representations do not express a dynamic process, it is necessary to use a nonlinear model. In the last de-cades, as neural networks have been installed as one of the main tools for an identification of nonlinear dynamic systems, as they have characteristics that make them attractive for identification, due to nonlinearity and generalization and learning. From the possession of a model that satisfactorily represents the dynamics of a system, it can be used for applica-tions such as control, prediction, inference, among others. The present work proposes the application of a Fuzzy Wavelet Neural Network in the identification of nonlinear dynamic systems. This hybrid technique combines the multiresolution features of the Wavelet the-ory with the learning ability and the generalization of the neural networks together with the ability to deal with Fuzzy logic uncertainties. The obtained model is used for the tu-ning of a PID controller. In the course of the work, the concepts and techniques necessary to perform identification and controller tuning will be presented. And the results obtained attest to the efficiency of the techniques used.

Keywords: Systems Identification, PID Controller, Artificial Neural Networks, Wa-velet Functions, Fuzzy WaWa-velet Neural Network.

(8)

Sumário

Sumário i

Lista de Figuras iii

Lista de Símbolos e Abreviaturas v

1 Introdução 1

2 Fundamentação Teórica 5

2.1 Fuzzy . . . 5

2.1.1 Conjuntos Fuzzy . . . 5

2.1.2 Lógica Fuzzy . . . 6

2.1.3 Sistemas de Inferência Fuzzy . . . 7

2.2 Redes Neurais Artificiais (RNA’s) . . . 7

2.3 Funções Wavelets . . . 10

2.4 Wavelet Neural Network(WNN) . . . 13

2.5 Fuzzy Wavelet Neural Network(FWNN) . . . 14

2.5.1 Camada 1 . . . 17 2.5.2 Camada 2 . . . 17 2.5.3 Camada 3 . . . 17 2.5.4 Camada 4 . . . 17 2.5.5 Camada 5 . . . 18 2.5.6 Camada 6 . . . 18 2.5.7 Treinamento da FWNN . . . 18

3 Identificação de Sistemas Dinâmicos 21 3.1 Coleta de Dados . . . 22

3.2 Seleção da Estrutura do Modelo . . . 22

3.3 Estimação de Modelo . . . 24

3.4 Validação de Modelo . . . 24

4 Controle de Sistemas Dinâmicos 25 4.1 Controlador PID . . . 26

4.2 Sintonia de Controlador PID Através de um Modelo FWNNARX . . . 27

(9)

5 Resultados 30 5.1 Sistema Dinâmico 1 . . . 30 5.2 Sistema Dinâmico 2 . . . 34

6 Conclusões 38

(10)

Lista de Figuras

2.1 (a) Funções características para conjuntos “crisp”. (b) Funções

triangula-res características dos conjuntos fuzzy. . . 6

2.2 Sistema de inferência fuzzy. . . 7

2.3 Rede MLP totalmente conectada de três camadas, adaptado de ARAÚJO JÚNIOR (2014). . . 8

2.4 (a) Função linear. (b) Função sigmoide. (c) Função tangente hiperbólica. . 9

2.5 Waveletda família Mexican Hat. . . 11

2.6 Funções Mexican Hat transladadas. . . 11

2.7 Funções Mexican Hat deslocadas. . . 12

2.8 Estrutura básica de uma rede wavelet, adaptado de ARAÚJO JÚNIOR (2014). . . 13

2.9 Estrutura da um neurônio da quinta camada das FWNN tradicionais. . . . 15

2.10 Estrutura da rede Fuzzy Wavelet Neural Network, adaptado de ARAÚJO JÚNIOR (2014). . . 16

2.11 Estrutura de um neurônio presente na camada consequente. . . 18

3.1 Procedimento para identificação de processos, adaptado de Coelho e Co-elho (2004). . . 21

3.2 Etapas do procedimento de identificação. . . 22

3.3 Estrutura do modelo NNARX. . . 23

3.4 Diagrama de identificação de ajuste do modelo. . . 24

4.1 Sistema de controle em malha aberta, adaptado de Dorf et al. (2001). . . . 25

4.2 Sistema de controle em malha fechada, adaptado de Dorf et al. (2001). . . 26

4.3 Estrutura da sintonia do PID. . . 27

5.1 Curva de aprendizagem do treinamento da FWNN para o sistema dinâ-mico 1. . . 31

5.2 Validação do modelo obtido para o sistema 1. . . 31

5.3 Resposta do sistema (a) e sinal de controle (b) do controle do sistema 1. . 32

5.4 Parâmetros kp(a), ki(b) e kd (c) do controle do sistema 1. . . 33

5.5 Sistema de tanques acoplados da Quanser. . . 34

5.6 Curva de aprendizagem do treinamento da FWNN para o sistema de tanques. 35 5.7 Validação do modelo do sistema de tanques acoplados. . . 35

5.8 Resposta do sistema (a) e sinal de controle (b) do controle do sistema de tanques acoplados. . . 36

(11)

5.9 Parâmetros kp(a), ki (b) e kd (c) do controle do sistema de tanques aco-plados. . . 37

(12)

Lista de Símbolos e Abreviaturas

ANFIS: Adaptive Neuro Fuzzy Inference System ARMA: AutoRegressive, Moving Average

ARMAX: AutoRegressive, Moving Average, eXternal input ARX: AutoRegressive, eXternal input

BIBO: Bounded Input, Bounded Output

CFWNN: Clustering Fuzzy Wavelet Neural Network FIR: Finite Impulse Response

FWNN: Fuzzy Wavelet Neural Network

FWNNARX: Fuzzy Wavelet Neural Network AutoRegressive, eXternal input IID: Independente e Identicamente Distribuído

MLP: Multlayer Perceptron

NNARX: Neural Network AutoRegressive, eXternal input OE: Output Error

PCA: Principal Component Analysis PID: Proporcional Integral Derivativo PRBS: Pseudo Random binary Signal PRS: Pseudo Random Signal

PSO: Particle Swarm Optimization RNA’s: Redes Neurais Artificiais SSIF: State Space Innovations Form WNN: Wavelet Neural Network

(13)

Capítulo 1

Introdução

Os estudos do cérebro humano estão presentes na história da humanidade há milha-res de anos. Com o avanço da ciência e da tecnologia, tornou-se cada vez maior o seu entendimento e o desejo de reproduzir, em máquinas, sua forma de processar dados. A inteligência artificial é o ramo da ciência que realiza estudos nessa esfera, e as Redes Neurais Artificiais (RNA’s), que são técnicas computacionais inspiradas na estrutura do cérebro, estão entre as técnicas mais difundidas e estudadas.

A era moderna das redes neurais artificiais teve início com o trabalho de McCulloch e Pitts (1943). O neurofisiologista Warren McCulloch e o matemático Walter Pitts deram um importante passo na história da inteligência artificial, com o trabalho intitulado “Um cálculo lógico das ideias imanentes na atividade nervosa”, em que escreveram sobre como o cérebro poderia produzir padrões complexos usando muitas células básicas conectadas entre si. Essas células cerebrais básicas são chamadas de neurônios. Inspirados nos neurô-nios biológicos McCulloch e Pitts produziram um modelo do neurônio que ainda é usado atualmente.

McCulloch e Pitts basearam-se no caráter “tudo ou nada” das atividades nervosas para tratá-las por meio da lógica proposicional, unificando os estudos da neurofisiologia com a lógica matemática. Essa consideração significa que o neurônio estará no estado ativado se a sua saída ultrapassar um valor limite, caso contrário, ficará no estado de repouso (esse princípio originou a função limiar no modelo matemático do neurônio).

No modelo de neurônio de McCulloch e Pitts, a atividade de uma sinapse inibitória, que previne a excitação do neurônio biológico, é retratada pelos pesos sinápticos. Estes pesos associam a cada entrada um valor que, caso seja positivo, tenderá a excitar a célula; e caso seja negativo, tenderá a inibir.

Além de contribuir com uma ferramenta para o tratamento simbólico das redes conhe-cidas, McCulloch e Pitts mostraram que mesmo tipos simples de redes neurais poderiam, em princípio, calcular qualquer função computável, e, assim, deram um grande impulso ao estudo das redes neurais artificias e da inteligência artificial.

Nas décadas seguintes vários pesquisadores propuseram modelos de redes neurais fazendo modificações no modelo original de McCulloch e Pitts e com regras para modi-ficações dos pesos sinápticos. Um dos trabalhos mais impactantes da época foi o de Ro-senblatt (1958), que propôs o modelo de redes neurais chamado perceptron. O Perceptron proposto por Rosenblatt consistia de uma camada de unidades sensoriais, denominada

(14)

re-CAPÍTULO 1. INTRODUÇÃO 2

tina; uma camada de unidades ocultas, chamada de camada associativa; e uma camada de saída, chamada de camada de resposta.

O Perceptron de Rosenblatt foi desenvolvido para lidar com o problema de reconheci-mento de padrões. Verificou-se que um perceptron de camada única era útil na classifica-ção de um conjunto de entradas de valor contínuo em uma de duas classes. Infelizmente, o perceptron é limitado e foi provado como tal no livro Perceptrons de Marvin Minsky e Seymour Papert.

Minsky e Papert (1969) forneceram uma análise cuidadosa das condições em que tais sistemas são capazes de realizar os mapeamentos necessários. Eles mostram casos que redes desse tipo são incapazes de resolver os problemas. A incapacidade de calcular a paridade mostrou-se particularmente significativa, uma vez que isso mostrou que um perceptron não poderia aprender a avaliar a função lógica “ou exclusivo” (XOR).

Minsky e Papert mostraram que o perceptron tem limitações severas, porém, conside-raram importante a continuidade da investigação das redes neurais de modo que pudesse ser encontrado algum novo “teorema de aprendizagem” capaz de lidar com redes de múl-tiplas camadas.

Todavia, os estudos sobre redes neurais se reduziram muito, até a descoberta do al-goritmo do Backpropagation, proposto por Rumelhart et al. (1988). O psicólogo David Everett Rumelhart deu uma das maiores contribuições para a história das redes neurais ar-tificiais com seu algoritmo que forneceu uma regra para a atualização dos pesos sinápticos de redes com múltiplas camadas.

Com uma regra de aprendizagem para redes neurais de múltiplas camadas os estudos nessa área voltaram a se fortalecer, em especial, após o trabalho de Cybenko (1989). George Cybenko provou que uma rede neural com uma única camada escondida, com funções de ativação sigmoidais, tem a capacidade de aproximar qualquer função real.

Os trabalhos do final da década de 80 fizeram aumentar os estudos das redes neurais e esta é até hoje uma das áreas mais fortes da inteligência artificial, com novos trabalhos apresentando diferentes arquiteturas e métodos de treinamento.

Assim como as RNA’s, a teoria wavelet tem sido extensivamente estudada e apli-cada. Um modelo resultante da combinação dessas duas teorias é a Wavelet Neural Netork (WNN), proposta inicialmente por Zhang e Benveniste (1992). Este tipo de rede neural tem uma estrutura similar à rede Multlayer Perceptron (MLP), porém, utiliza funções wa-veletscomo função de ativação dos neurônios da camada escondida. É provado por Zhang que essa nova rede conserva a propriedade de aproximador universal das redes MLP, ou seja, as WNN também têm a capacidade de aproximar qualquer função real.

As potencialidades acrescentadas às redes neurais pelas wavelets fazem com que essa rede neural seja muito estudada e aplicada. El-Masry e El-Dib (2016) aplica uma WNN à arquitetura de um conversor analógico-digital assíncrono para melhorar a precisão da saída. A melhora na resolução e a redução do ruído de quantização alcançados em razão da utilização da WNN como técnica de interpolação atestam a qualidade da técnica.

Zheng et al. (2016) propôs uma WNN adaptativa otimizada pela técnica de Enxame de Partículas (PSO – do inglês Particle Swarm Optimization). Para comprovar o fun-cionamento da técnica, Zheng a aplicou em dois estudos de caso: na segmentação de imagens e na previsão de nível mensal de água subterrânea em duas bacias hidrográficas.

(15)

CAPÍTULO 1. INTRODUÇÃO 3

Os resultados obtidos foram comparados aos resultados alcançados com uma MLP e com a técnica da Média Móvel Auto Regressiva (ARMA - do inglês AutoRegressive, Moving Average) e mostraram uma maior eficiência da técnica proposta.

No âmbito da inteligência artificial, outra técnica muito difundida é a lógica fuzzy. A primeira publicação sobre lógica fuzzy data de 1965, realizada por Lotfi A. Zadeh, da Universidade da Califórnia em Berkeley. Zadeh (1965) descreveu a matemática da teoria dos conjuntos fuzzy e, por extensão, a lógica fuzzy.

Ele observou que recursos tecnológicos, baseados na lógica booleana, não eram su-ficientes para automatizar atividades relacionadas a problemas de natureza industrial, bi-ológica ou química. Então ele criou a lógica fuzzy para permitir que os computadores determinassem as distinções entre os dados com tons de cinza, semelhante ao processo de raciocínio humano.

Com o grande número de estudos e aplicações de diferentes técnicas inteligentes era de se esperar o surgimento de técnicas híbridas. O conceito de sistema híbrido inteligente ou de método híbrido de aquisição de conhecimentos é bastante amplo e pode englobar diferentes tipos de abordagens. De uma maneira mais geral, pode-se dizer que todo sis-tema que integre dois ou mais métodos diferentes para a solução de um problema é um sistema híbrido.

Apesar dos sistemas híbridos serem mais complexos e difíceis de serem implementa-dos, devido ao simples fato de serem compostos por múltiplos módulos e também porque é preciso fazer esses módulos interagirem, os sistemas híbridos têm sido muito estudados e aplicados (OSÓRIO; VIEIRA, 1999). Uma justificativa para a utilização dos sistemas hí-bridos é a busca por um sistema que consiga incorporar as principais vantagens de cada técnica, de modo a formar um sistema com uma maior capacidade para a solução de pro-blemas. Da mesma forma, é desejável que na integração das diferentes técnicas, uma consiga suprir as deficiências da outra.

Os sistemas híbridos neuro-fuzzy são uma das categorias de sistemas híbridos que mais se desenvolveram, pois a lógica nebulosa e as redes conexionistas possuem muitos pontos em comum (OSÓRIO; VIEIRA, 1999). Um dos sistemas neuro-fuzzy mais conhe-cidos é o ANFIS (do inglês - Adaptive-Network-Based Fuzzy Inference System), desen-volvido por Jang (1993). Essa técnica, que usa a inferência de um sistema fuzzy em uma estrutura de uma RNA, se assemelha às redes neurais do tipo feedforward com algumas diferenças. A diferença mais importante, está no fato dessa possuir uma topologia fixa onde o papel de cada neurônio é conhecido, ao contrário das RNA’s do tipo MLP, cuja estrutura é de difícil definição e não se pode explicar o funcionamento de suas camadas internas (MASSELLI, 2009).

Uma combinação da estrutura neuro fuzzy ANFIS com a WNN é a Fuzzy Wavelet Neural Networks(FWNN). Nesse caso, redes WNN são interpoladas pelas regras fuzzy no lugar das funções Sugeno. Essa técnica é o foco de muitos estudos e devido à sua capacidade e multidisciplinaridade vem sendo aplicada em diversas áreas.

Davanipour et al. (2016) utilizou uma FWNN para modelagem e controle de um sistema de nível de líquido através de um controlador Proporcional-Integral-Derivativo (PID) auto ajustável. Ele excitou a planta simulada do sistema e, a partir dos dados cole-tados, obteve um modelo. A saída desse modelo foi comparada com a saída do modelo

(16)

CAPÍTULO 1. INTRODUÇÃO 4

matemático do sistema e os resultados mostraram-se satisfatórios.

O passo seguinte foi realizar o controle da planta à uma entrada do tipo degrau. Utili-zando o método do gradiente descendente, Davanipour ajustou os parâmetros do controla-dor PID. O resultado obtido foi comparado a outros métodos de sintonia de controlacontrola-dores PID’s e a técnica proposta mostrou-se satisfatória.

Kodogiannis e Alshejari (2016) realizaram a detecção de deterioração de carne usando um nariz eletrônico através de uma Clustering Fuzzy Wavelet Neural Network (CFWNN). A técnica foi utilizada como um classificador, para classificar amostras de carne em três níveis de deterioração (fresco, semifresco e podre); e como preditor, para prever a sua população microbiológica associada.

Kodogiannis aplicou uma técnica de Análise de Componentes Principais (PCA – do inglês Principal Component Analysis) para reduzir a dimensionalidade dos dados obtidos do nariz eletrônico. A estrutura da CFWNN proposta por Kodogiannis utiliza funções wavelets da família Mexican Hat na camada de fuzzificação. Devido a importância da inicialização dos parâmetros dessas funções, foi utilizado um método de clusterização no conjunto de treinamento da CFWNN para definir o número de funções wavelets necessá-rias e seus parâmetros.

Os resultados obtidos por Kodogiannis foram comparados aos resultados atingidos com outras técnicas e mostraram uma boa eficiência da CFWNN tanto na classificação dos níveis de deterioração quanto na predição da população microbiológica.

As RNA’s são usadas em diversos tipos de aplicações como a classificação de padrões, filtragem de sinais, análise de imagens, controle e identificação de sistemas dinâmicos. Sendo esta última a aplicação alvo deste trabalho. Nas últimas décadas, as redes neurais têm se estabelecido como uma das principais ferramentas para a identificação de siste-mas dinâmicos não lineares. O que se deve às suas características interessantes para a resolução desse tipo de problema como a não linearidade e as capacidades de adapta-ção e aproximaadapta-ção universal. Este trabalho tem como objetivo aplicar a técnica FWNN na identificação de sistemas dinâmicos não lineares e posteriormente utilizar o modelo obtido para a sintonia de um controlador PID.

O presente trabalho está organizado da seguinte maneira: o Capítulo 2 apresenta os conceitos básicos necessários para a realização do trabalho; o Capítulo 3 detalha todo o procedimento de identificação de sistemas utilizando uma FWNN; o Capítulo 4 apresenta o método para a sintonia de um controlador PID utilizando o modelo obtido; no Capítulo 5 são discutidos os resultados obtidos e o por fim, no Capítulo 6, são expostas as conclusões as expectativas para trabalhos futuros.

(17)

Capítulo 2

Fundamentação Teórica

2.1

Fuzzy

Além da complexidade dos processos industriais, outro problema é bastante presente na cotidiano de quem trabalha na indústria: a imperfeição dos dados. Dentre os principais aspectos dessa deficiência da informação estão a imprecisão e a incerteza.

As teorias mais conhecidas para tratar desses aspectos são a teoria dos conjuntos e a teoria das probabilidades, porém, essas nem sempre conseguem captar a riqueza da infor-mação fornecida pelos homens (SANDRI; CORREA, 1999). Essa característica dificulta a implementação em sistemas computacionais de estratégias adotadas por operadores hu-manos, que são de natureza imprecisa e geralmente expressas em termos linguísticos.

Se o conhecimento de um operador humano for expresso através de regras da forma se...então, a teoria dos conjuntos fuzzy e os conceitos da lógica fuzzy podem fornecer as ferramentas matemáticas que possibilitem a implementação desse conhecimento em computadores, resultando em um sistema de inferência fuzzy baseado em regras.

2.1.1

Conjuntos Fuzzy

Na teoria dos conjuntos clássica, o conceito de pertinência de uma elemento a um conjunto é bem definido. Dado um universo X , um elemento x ∈ X está ou não contido num determinado conjunto A, com um grau de pertinência definido por:

µA(x) = (

1 se e somente se x ∈ A

0 se e somente se x /∈ A (2.1) Para os conjuntos fuzzy, a função que define o grau de pertinência de um elemento x em um conjunto A pode ser expressa da seguinte forma:

• µA(x) = 1 indica que x é completamente compatível com A. • µA(x) = 0 indica que x é completamente incompatível com A.

• 0 < µA(x) < 1 indica que x é parcialmente compatível com A, com grau de perti-nência µA(x).

Um conjunto da teoria clássica, também chamado de conjunto “crisp”, é um caso particular de um conjunto fuzzy, tal que, a função que define sua compatibilidade com um

(18)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 6

determinado conceito assume apenas os valores 0 ou 1, e não qualquer valor entre 0 e 1. Ademais, um mesmo elemento pode ter graus de pertinências diferentes de 0 para mais de um conjunto fuzzy. A diferença entre as funções características de um conjunto “crisp” e as funções de pertinência de um conjunto fuzzy pode ser observada na Figura 2.1.

(a) (b)

Figura 2.1: (a) Funções características para conjuntos “crisp”. (b) Funções triangulares características dos conjuntos fuzzy.

Para expressar conceitos, os humanos usam termos como “pouco”, “muito”, “baixo”, “médio”, entre outros. Esses termos, qualitativos ao invés de quantitativos, são captura-dos pela definição de variável linguística. Essas variáveis têm por característica assumir valores dentro de um conjunto de termos linguísticos, ou seja, palavras ou frases. Sua principal função é fornecer uma maneira sistemática de aproximação de fenômenos com-plexos ou mal definidos (GONÇALVES, 2007). Para atribuir um significado aos termos linguísticos, associa-se cada um deles à um conjunto fuzzy definido sobre um universo de discurso comum (GOMIDE; GUDWIN, 1994), como na Figura 2.1(b).

2.1.2

Lógica Fuzzy

Uma forma comum de expressar conhecimento é por meio de regras linguísticas, cons-tituídas de frases na forma se x é A, então y é B. Uma frase desse tipo também é chamada de implicação. Quando uma regra apresenta mais de uma variável antecedente (x é A), elas geralmente são combinadas através do conectivo e. O mesmo pode ocorrer com o consequente (y é B).

Os conceitos da lógica fuzzy nasceram inspirados na lógica clássica. A extensão ocor-reu através da substituição das funções características da lógica clássica pelas funções de pertinência fuzzy. Assim, na lógica fuzzy, um elemento pertence a um conjunto com um certo grau de pertinência, fazendo com que uma determinada sentença possa ser parcial-mente verdadeira e parcialparcial-mente falsa.

O processo de avaliação dos antecedentes das regras fuzzy para obter conclusões utilizando-se a teoria de conjuntos fuzzy é chamado de inferência fuzzy. Esse processo pode ser feito através de modelos de inferência, cuja escolha deve levar em consideração o tipo de problema a ser resolvido, obtendo-se assim um melhor processamento. Existem vários métodos de inferência, mas os mais utilizados são os métodos de Mamdami e de Takagi-Sugeno.

(19)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 7

2.1.3

Sistemas de Inferência Fuzzy

Os sistemas de inferência fuzzy são utilizados em diversas aplicação, como controle, modelagem, previsão, entre outras. Suas capacidades de lidar com dados imprecisos e incorporar o conhecimento de especialistas humanos os torna uma ferramenta muito inte-ressante para indústria e diversos outros setores da ciência. O esquemático de um sistema de inferência fuzzy é ilustrado na Figura 2.2.

Figura 2.2: Sistema de inferência fuzzy.

Na maioria das aplicações práticas, os dados estão no domínio real. Dessa forma, o primeiro passo a ser realizado pelo sistema de inferência fuzzy é o mapeamento desses dados para o domínio fuzzy, chamado de fuzzyficação. As informações necessárias para a fuzzificação estão contidas nas funções de pertinência definidas para a entrada do sistema. Após converter as entradas do domínio “crisp” para o fuzzy é realizado o processo de inferência. Esse processo consiste em duas partes: a avaliação das regras para a determi-nação do grau de validade de cada uma sobre seus consequentes, e a combidetermi-nação de todas as regras para a geração de um resultado final.

Se o método de inferência utilizado for o Mandani, a combinação dos resultados das regras será um conjunto fuzzy, o que requer, para a apresentação do resultado final, uma transformação do domínio fuzzy para o domínio “crisp”. Essa transformação é denomi-nada de defuzzificação. Caso o método de inferência utilizado seja o Takagi-Sugeno, o resultado da combinação das regras já estará no domínio real, não sendo necessário o procedimento de defuzzificação.

2.2

Redes Neurais Artificiais (RNA’s)

As redes neurais artificiais têm características interessantes para a resolução de pro-blemas de identificação de sistemas dinâmicos, tais como sua característica não linear e as suas capacidades de adaptação e de aproximação universal. Segundo Haykin (2001), essas características dão às redes neurais a capacidade de resolver problemas complexos (de grande escala).

Uma das principais arquiteturas de redes neurais é a multilayer perceptron. A arquite-tura dessa rede pode ser observada na Figura 2.3. A arquitearquite-tura básica dessa rede possui

(20)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 8

os seus neurônios dispostos em camadas, em que cada neurônio de uma camada recebe como entrada apenas as saídas dos neurônios da camada imediatamente anterior ou das entradas da rede (NØRGÅRD et al., 2000).

31/10/2017 rna12.xml 1/1

f

a1

f

a1

f

a2

f

a2 x1 x2 x3 +1 +1 Z1 Z2 W11 W12 W22 W21 W31 W32 W01 W02 W11 W21 W12 W22 W10 W20

Camada 1 Camada 2 Camada 3

Figura 2.3: Rede MLP totalmente conectada de três camadas, adaptado de ARAÚJO JÚNIOR (2014).

A MLP ilustrada na Figura 2.3 possui três camadas (camada de entrada, uma única ca-mada escondida de neurônios não lineares e uma caca-mada de saída de neurônios lineares). A última camada é chamada de camada de saída, pois fornece as saídas da rede neural. A segunda camada é chamada de camada escondida, intermediária ou oculta, por estar entre a camada de entrada e a camada de saída da rede neural. Ainda pode-se observar que essa rede neural é totalmente conectada, pois todos os neurônios de uma camada está conectado a todos os neurônios das camadas vizinhas através de parâmetros ajustáveis, pesos sinápticos.

As conexões de pesos sinápticos entre as camadas da MLP são ajustadas através do processo chamado de aprendizagem ou treinamento, que normalmente é feito de modo supervisionado. Nesse processo, os pesos sinápticos, que são parâmetros livres, devem ser adaptados com base em um conjunto de observações de pares entrada-saída e uma função custo. Dessa forma, é dado um conjunto de exemplos de entrada e saída, e o objetivo é o de minimizar o valor da função custo, tal que a saída da rede se aproxime o máximo possível da saída desejada (HAYKIN, 2001).

A Equação 2.2 expressa matematicamente o funcionamento de uma rede neural MLP de três camadas. Zi(x, θ) = f ai " n2

j=1 Wi jf ai n1

l=1 wjlxl+ wj0 ! +Wi0 # (2.2)

O vetor de parâmetros θ contém todos os parâmetros ajustáveis da rede: pesos sináp-ticos e bias. Nesse caso, o bias pode ser interpretado como um peso sendo aplicado a uma

(21)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 9

entrada fixa de valor unitário. O número de neurônios da camada escondida e o número de entradas da rede são, respectivamente, n2e n1, enquanto f ai e f aj são as funções de ativação dos neurônios das camadas da saída e escondida. As funções de ativação mais comumente utilizadas nas redes perceptron de múltiplas camadas são a linear, a sigmoide e tangente hiperbólica (ARAÚJO JÚNIOR, 2014). Essas funções são dadas pelas Equações 2.3, 2.4 e 2.5, respectivamente. f a(x) = kx (2.3) f a(x) = 1 1 + e−ax, a > 0 (2.4) f a(x) = tanh(x) = 1 − e −γx 1 + e−γx, γ > 0 (2.5) Os parâmetros dessas funções podem ser ajustados durante o treinamento da MLP. Todavia, geralmente, eles são escolhidos inicialmente, de forma aleatória ou por meio de algum método pré-treinamento, e mantidos fixos. Na Figura 2.4, essas funções de ativação são ilustradas com os parâmetros k, a e γ iguais a 1.

Unidade de entrada -10 -8 -6 -4 -2 0 2 4 6 8 10 Unidade de saída -10 -5 0 5 10 (a) Unidade de entrada -10 -8 -6 -4 -2 0 2 4 6 8 10 Unidade de saída -1 -0.5 0 0.5 1 (b) Unidade de entrada -5 -4 -3 -2 -1 0 1 2 3 4 5 Uniade de saída -1 -0.5 0 0.5 1 (c)

(22)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 10

2.3

Funções Wavelets

Na última década, as wavelets têm despertado interesse tanto do ponto de vista teórico como aplicado. O rápido avanço da teoria wavelet se deve, basicamente, à sua origem interdisciplinar, que tem seduzido pesquisadores de diferentes áreas do conhecimento, e à forma simples e versátil com que certos conceitos são abordados, de forma unificada (CÂNDIDO, 2008).

Waveletssão funções matemáticas que processam os dados em diferentes componen-tes de frequência e estudam cada componente com uma resolução correspondente à sua escala. Essas funções foram desenvolvidas independentemente do campo de aplicação e atualmente vêm sendo utilizadas em diversas áreas do conhecimento: visão compu-tacional e humana, radar e sonar, computação gráfica, bancos de filtros, compressão de imagens, etc (OLIVEIRA, 2007).

As wavelets utilizam a ideia de aproximação usando a superposição de funções. Essa ideia tem sua origem no trabalho de Joseph Fourier, que no século XIX descobriu que poderia utilizar senos e cosenos para representar outras funções. A novidade em relação a Fourier é que a análise em wavelet não é feita segundo a frequência, mas sim segundo a escala. Assim, os algoritmos wavelet processam dados em diferentes escalas e resoluções, permitindo que sejam vistos tanto características globais quanto detalhes locais de um sinal (GRAPS, 1995).

Na análise wavelet, o sinal original é representado por versões de uma função wavelet base, ou wavelet mãe, através da transformada wavelet. Nesse caso, a wavelet base pode ser comprimida ou alongada através de seu parâmetro de dilatação e/ou sofrer um desloca-mento, por meio de seu parâmetro de translação. Essa flexibilidade permite que a análise do sinal possa ser realizada em frequências e resoluções diferentes, o que caracteriza uma forma de análise conhecida por análise multirresolução (ROCHA, 2008).

Na Figura 2.5 é apresentado o gráfico de uma função wavelet da família Mexican Hat, com parâmetros de translação e dilatação iguais a 0 e 1, respectivamente. Essa função é expressa pela Equação 2.6.

ψk= 1 −  x − tk dk 2! exp −0.5 x − tk dk 2! 1 √ dk (2.6)

O parâmetro tkindica que a função ψk(x) foi transladada de uma distância equivalente a tk, sendo então um parâmetro de translação. Da mesma forma, variando-se dké possível alongar ou comprimir a forma da função. Por isso dk é conhecido como parâmetro de dilatação.

(23)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 11 Unidade de entrada -6 -4 -2 0 2 4 6 Unidade de saída -0.5 0 0.5 1

Figura 2.5: Wavelet da família Mexican Hat.

No gráfico da Figura 2.6(a) o parâmetro de dilatação manteve-se em 1, enquanto o parâmetro de translação foi alterado para −2, deslocando a função Mexican Hat para esquerda. Na Figura 2.6(b), o parâmetro de translação foi alterado para 2, deslocando a função para a direita.

Unidade de entrada -6 -4 -2 0 2 4 6 Unidade de saída -0.5 0 0.5 1 (a) Unidade de entrada -6 -4 -2 0 2 4 6 Unidade de saída -0.5 0 0.5 1 (b)

Figura 2.6: Funções Mexican Hat transladadas.

Nos gráficos da Figura 2.7, o parâmetro de translação é mantido em 0 e o parâmetro de dilatação utilizado foi de 0, 5 e 2, respectivamente. Causando uma compressão da função waveletno primeiro caso e um alongamento no segundo.

(24)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 12 Unidade de entrada -6 -4 -2 0 2 4 6 Unidade de saída -1 -0.5 0 0.5 1 1.5 (a) Unidade de entrada -6 -4 -2 0 2 4 6 Unidade de saída -0.4 -0.2 0 0.2 0.4 0.6 0.8 (b)

Figura 2.7: Funções Mexican Hat deslocadas.

Em termos matemáticos, para que uma função seja considerada do tipo wavelet, ela tem de satisfazer a certas propriedades matemáticas (GRAPS, 1995). Essas propriedades são apresentadas a seguir:

1. A integral da função wavelet deve ser zero, isto é:

Z ∞

−∞Ψ(t)dt = 0 (2.7)

2. A integral do quadrado da função wavelet deve ser unitária:

Z ∞

−∞Ψ(t)

2dt = 1 (2.8)

3. A energia da função wavelet deve ser finita:

Z ∞

−∞|Ψ(t)|

2dt < ∞ (2.9)

4. Se ˆΨ( f ) é a transformada de Fourier da wavelet Ψ(t), a seguinte condição de ad-missibilidade deve ser satisfeita:

Z

0

| ˆΨ( f )|2

(25)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 13

2.4

Wavelet Neural Network

(WNN)

A teoria wavelet tem encontrado muitas aplicações em processamento e análise de sinais. No entanto, suas implementações são geralmente limitadas a casos de pequena dimensão. Sabe-se que as redes neurais podem ser utilizadas para o tratamento de pro-blemas de grandes dimensões. No entanto, a aplicação das redes neurais sofre da falta de métodos eficientes, tanto para a determinação dos parâmetros dos neurônios quanto para a escolha da estrutura da rede. Recentemente, muitos estudos bem-sucedidos têm sido relatados na integração de wavelets com redes neurais. O estudo sobre as neuro wavelets é um dos temas atraentes na identificação de sistemas dinâmicos. Devido à semelhança entre a decomposição wavelet e redes neurais de uma camada oculta, a ideia de combinar as wavelets e redes neurais foi proposta com a expectativa de uma remediar a fraqueza da outra, resultando em redes com métodos eficientes e capazes de lidar com problemas de dimensão moderadamente grande (TAN et al., 2000).

Devido às características citadas anteriormente, as funções wavelets vêm sendo uti-lizadas como funções de ativação nas redes neurais tradicionais, como por exemplo, a rede MLP, que passa a ser denominada de rede WNN (ARAÚJO JÚNIOR, 2014). A WNN herda vantagens de ambos, incluindo recursos de localização em tempo-frequência das wavelets, assim como autoaprendizagem, adaptabilidade, robustez e tolerância a falhas e de generalização das redes neurais, e, portanto, tem amplas perspectivas de aplicação (SONG; LIU, 2011).

Uma rede neural WNN geralmente consiste em uma rede neural do tipo feedforward com, normalmente, uma única camada escondida, cujos neurônios apresentam funções de ativação obtidas de uma família ortonormal de wavelets. Esses neurônios são também conhecidos como wavelons (VEITCH, 2005). Na literatura podem ser encontradas diversas estruturas para esse modelo de rede neural, uma dessas estruturas pode ser observada na Figura 2.8. 31/10/2017 wnn1.xml 1/1

ψ

1

ψ

2

ψ

L ∑

...

...

Z W1 W2 WL x1 x2 xN

Figura 2.8: Estrutura básica de uma rede wavelet, adaptado de ARAÚJO JÚNIOR (2014). Nessa rede, as entradas são enviadas diretamente para a camada escondida. Ao ser calculado o valor da função wavelet para cada entrada, as saídas dos neurônios presentes nessa camada são multiplicados por pesos sinápticos, e então, enviados para a última camada, em que por meio de um neurônio contendo uma função de ativação linear, a

(26)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 14

saída da rede será calculada. Assim, na rede WNN, como as funções de ativação são wavelets, a saída da rede é dada pela Equação 2.11.

Z(x/θ) = L

k=1 wkψk  x − tk dk  (2.11)

Onde θ são os parâmetros adaptativos da rede: [wk; dk;tk] em que wk são os pesos sinápticos presentes na camada de saída, dk é o parâmetro de dilatação e tk é a translação da wavelet.

Existem diversas famílias de funções wavelets. Contudo, na maioria dos casos, (ZHANG; BENVENISTE, 1992), (KARAMI; YAZDANPANAH, 2011), (YANG et al., 2009), a WNN utiliza o algoritmo de treinamento backpropagation, que faz uso de derivadas para minimizar um função de custo. Sendo assim, deve ser usada uma função wavelet continuamente diferenciável como função de ativação.

2.5

Fuzzy Wavelet Neural Network

(FWNN)

Segundo ARAÚJO JÚNIOR (2014), entre os diversos tipos de redes neurais utilizadas na identificação de sistemas, uma que se pode destacar é a WNN. Pelo fato de combinar as características de multirresolução da teoria wavelet com a capacidade de aprendizado e generalização das redes neurais, essa rede pode fornecer modelos mais precisos do que os obtidos pelas redes neurais tradicionais.

Uma evolução dessas redes neurais é a Fuzzy Wavelet Neural Network que é uma combinação da estrutura neuro-fuzzy ANFIS, baseada no sistema fuzzy Takagi-Sugeno, com a WNN. Nesse caso, as funções Sugeno são substituídas por redes WNN.

A estrutura ANFIS é uma técnica híbrida, mais especificamente uma técnica neuro-fuzzyque infere conhecimento utilizando uma estrutura com lógica fuzzy, fácil de tratar, e acrescenta a possibilidade de aprendizagem inerente às redes neurais artificiais. Essa rede também pode ser vista como uma rede neural de seis camadas, em que cada uma é responsável por uma operação que resultará em uma saída equivalente a encontrada por um sistema fuzzy do tipo Takagi-Sugeno (JANG; SUN, 1995;JANG et al., 1997).

O fluxo de dados no ANFIS pode ser descrito em camadas. Na camada de número um estão dispostas as entradas da rede. Na camada dois, os valores das entradas são operados por funções de pertinência que indicam o grau de compatibilidade de cada entrada nos conjuntos fuzzy de entrada. Na camada três, as regras fuzzy são geradas, e a normalização dessas ocorre na camada quatro. Já na camada cinco, os valores das regras normalizados são utilizados para multiplicar polinômios Takagi-Sugeno, cujos valores são calculados em função das entradas. Por fim, as saídas desses neurônios da camada consequente são somadas na camada seis (ARAÚJO JÚNIOR, 2014).

No ANFIS, o ajuste dos parâmetros ocorre, principalmente, em duas camadas: na ca-mada número dois e na caca-mada número quatro. Os neurônios dessas caca-madas possuem funções com parâmetros variáveis que podem ser ajustados para otimizar uma função objetivo, da mesma forma que as redes neurais artificiais tradicionais, com aplicação de

(27)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 15

métodos de aprendizagem baseados no gradiente, como a retropropagação do erro (back-propagation) (RODRIGUES, 2010).

Uma evolução do ANFIS é a FWNN, nesta técnica as funções wavelets são agregadas à uma estrutura similar ao ANFIS com o intuito de aumentar sua capacidade para ana-lisar os dados. Geralmente, as wavelets apresentam-se nas camadas ajustadas durante o treinamento.

Encontram-se na literatura diferentes estruturas de redes FWNN, algumas diferem das redes ANFIS pelo fato de que as funções de pertinência da segunda camada são wavelets. No entanto, na maioria das redes FWNN, a segunda camada se apresenta exatamente como no ANFIS, geralmente com funções bell shaped, e a alteração ocorre na quinta camada. Nessa estrutura, os polinômios Takagi-Sugeno são substituídos por funções wa-veletsponderadas por pesos sinápticos, caracterizando assim, redes WNN. A estrutura de um neurônio da quinta camada dessa rede neural é ilustrada na Figura 2.9.31/10/2017 neuronioquintacamadafwnntradicionais.xml

1/1 ψ1j ψ2j ψnj ∑ ∏

...

x1 x2 xn gj μ ¯¯¯j W1 W2 Wn

Figura 2.9: Estrutura da um neurônio da quinta camada das FWNN tradicionais. A ponderação das funções wavelets, na quinta camada da FWNN, pode ocorrer de duas maneiras. Na primeira, em cada neurônio, as entradas do sistema passam pelas funções wavelets e, em seguida, são somadas antes de serem multiplicadas por um peso sináptico. Na segunda forma de ponderação, as saídas de cada função wavelet presentes nos neurônios da quinta camada são multiplicadas por pesos sinápticos e depois somadas. Com respeito ao treinamento das redes FWNN, o procedimento ocorre de forma similar à rede ANFIS, onde há um passo para frente (forward) e um passo para trás (backward). No passo para frente as entradas do sistema seguem o fluxo até a saída. Com a diferença entre a saída desejada e a saída da rede, é calculado um erro que é retro-propagado no passo para trás. No passo para trás, com a utilização do backpropagation, são atualizados os valores dos pesos sinápticos e dos parâmetros de dilatação e transla-ção das redes WNN presentes na quinta camada, além dos parâmetros das funções de pertinência da segunda camada.

O algoritmo backpropagation será utilizado no treinamento da FWNN, esse consiste em dois passos de computação. O primeiro passo é conhecido como passo para frente (forward), ou propagação, e o segundo é chamado de passo para trás (backward), ou re-tropropagação. No passo para frente, os parâmetros ajustáveis se mantêm inalterados em

(28)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 16

toda a rede e os sinais de saída dos neurônios da rede são calculados individualmente. Já no passo para trás, para aplicação do algoritmo backpropagation, é necessária a utilização das derivadas parciais do erro em relação aos parâmetros ajustáveis da rede. Dessa forma, foi escolhida a função bell shaped como função de pertinência dos neurônios da segunda camada. Como função wavelet para os neurônios da camada cinco foi escolhida a função Mexican Hat.

No presente trabalho, a rede FWNN utilizada para identificação foi proposta por ARAÚJO JÚNIOR (2014). Como dito pelo próprio em sua tese, essa rede se diferen-cia das outras existentes na literatura, como as apresentadas por (ABIYEV; KAYNAK, 2008; YILMAZ; OYSAL, 2010;LU, 2011), pelo fato de que os consequentes são constituídos ape-nas por funções wavelets, ponderadas apeape-nas pelos pesos de ativação das regras fuzzy, não existindo uma segunda ponderação, que é ocasionada pela multiplicação das wave-letspor pesos sinápticos. Isso difere de outras estruturas FWNN presentes na literatura, em que as wavelets existentes em cada nó da camada consequente são multiplicados por pesos sinápticos, fazendo com que cada modelo local seja ponderado duas vezes, pelas regras fuzzy e pelos pesos, tornando a quantidade de parâmetros ajustáveis maior que a estrutura apresentada em sua tese. A ausência dessa segunda ponderação, realizada pelos pesos sinápticos da quinta camada, é possibilitada pelo ajuste adequado das funções de pertinência da segunda camada durante o treinamento da rede.

Essa rede FWNN apresenta uma estrutura menos complexa matematicamente e é de mais fácil compreensão e implementação. O fato dessa estrutura contar com menos parâ-metros ajustáveis, torna sua implementação menos custosa computacionalmente, princi-palmente durante o processo de treinamento.

A Figura 2.10 ilustra a rede FWNN proposta por ARAÚJO JÚNIOR (2014) e utilizada neste trabalho. Em seguida será detalhado todo o fluxo de dados nessa estrutura para facilitar a compreensão de seu funcionamento.31/10/2017 estruturafwnnmodificada.xml

1/1 A11 A12 A1k1

...

A21 A22 A2k2

...

An1 An2 Ankn

...

R1 R2 Rp Rm N1 N2 Np Nm ∑ Ψ1 Ψ2 Ψp Ψm

...

...

...

...

...

...

...

x1x2...xn μ ¯¯¯ 2 μ ¯¯¯1 μ ¯¯¯ p μ ¯¯¯ m μ1 μ2 μp μm x1 x2 xn Z

Camada 1 Camada 2 Camada 3 Camada 4 Camada 5 Camada 6

Figura 2.10: Estrutura da rede Fuzzy Wavelet Neural Network, adaptado de ARAÚJO JÚNIOR (2014).

(29)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 17

2.5.1

Camada 1

A primeira camada é a camada de entrada da rede. Através dela, o vetor contendo os sinais de entrada, x = [x1, x2, ..., xn], propaga os dados de entrada para os neurônios da segunda camada.

2.5.2

Camada 2

A segunda camada é a de fuzzificação. Nesta camada, que contém nós adaptativos, as entradas da rede passam pelas funções de pertinência. De forma que a saída dos neurônios desta camada é o grau de pertinência de suas respectivas entradas. Como dito anterior-mente, a função de pertinência utilizada na FWNN deste trabalho é a bell shaped, que é definida conforme a Equação 2.12:

Aqr xq = 1 1 + xq−cqr aqr 2bqr (2.12)

em que q = 1, 2, ..., n e r = 1, 2, ..., kqcorrespondem à r-ésima função de pertinência rela-tiva ao q-ésimo sinal de entrada da camada 1. As variáveis aqr, bqr e cqr são, respectiva-mente, a abertura, a inclinação e o centro da função de pertinência. Cada um dos sinais de entrada possuem kqfunções de pertinência.

2.5.3

Camada 3

A terceira camada é responsável pela geração das regras. Os nós dessa camada são fixos e a saída de cada um deles é uma operação do tipo T-norma, de todos os sinais de entrada dessa camada. As saídas µidos nós desta camada Ri, i = 1, 2, ..., m, são calculados de acordo com as Equações 2.13.

µ1= A11(x1) A12(x2) . . . An1(xn) µ2= A11(x1) A21(x2) . . . An2(xn) .. . µm= A1k1(x1) A2k2(x2) . . . Ankn(xn) (2.13)

Apesar de ocorrer a combinação de todas as funções de pertinência presentes em todas as entradas, o número de regras acaba não se tornando excessivo, pois com um número limitado de funções de pertinência em cada entrada já é possível formar uma ampla base de regras.

2.5.4

Camada 4

A quarta camada realiza a normalização das regras, ou seja, a normalização das saídas dos neurônios da camada anterior. O fator de normalização µida i-ésima regra é calculado

(30)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 18 por: µi= µi m ∑ i=1 µi i= 1, 2, ..., m (2.14)

2.5.5

Camada 5

A quinta camada contém os consequentes, que, no caso desta FWNN, são funções wavelets. A partir das entradas, das regras normalizadas e dos parâmetros ajustáveis des-sas funções, cada nó desta camada terá sua saída gjcalculada de acordo com as Equações 2.15 e 2.16. gj= µjψj j= 1, 2, ..., n (2.15) gj= µj ∑m i=1  1 − x−t i j di j 2 exp  −0.5x−ti j di j 2 1 √ di j j= 1, 2, ..., m (2.16) A variável n corresponde ao número de funções wavelets em um nó wavelet desta camada. A Figura 2.11 apresenta com maiores detalhes a estrutura de um nó wavelet, ilustrando suas entradas, as wavelets e a ponderação proveniente das regras fuzzy.31/10/2017 neuronioquintacamadafwnn.xml

1/1 ψ1j ψ2j ψnj ∑ ∏

...

x1 x2 xn gj μ ¯¯¯j

Figura 2.11: Estrutura de um neurônio presente na camada consequente.

2.5.6

Camada 6

Nessa camada, todas as saídas dos neurônios da camada 5 são somadas, resultando assim na saída da FWNN. Z= m

j=1 gj (2.17)

2.5.7

Treinamento da FWNN

A partir da rede apresentada na Figura 2.10 e representada pelas equações 2.12 a 2.17, pode-se identificar claramente que os neurônios que necessitam de aprendizado

(31)

es-CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 19

tão presentes na segunda e quinta camadas, pois na camada 2 estão localizadas as funções de pertinência de entrada e na camada 5, as wavelets, que definem as implicações das regras (ARAÚJO JÚNIOR, 2014).

Para a execução do procedimento de aprendizagem da FWNN por meio do algoritmo backpropagation, é necessário obter as derivadas parciais da função custo adotada em relação aos parâmetros ajustáveis rede. Dessa forma, o procedimento de treinamento envolve a utilização de derivadas parciais em relação aos parâmetros de dilatação di j e translação ti j das wavelets e de abertura aqr, inclinação bqr e centro cqr das funções de pertinência Aqr.

No presente trabalho, a função custo utilizada no algoritmo backpropagation é dada pela Equação 2.18. E= 1 2e 2= 1 2(Zd− Z) 2 (2.18) em que Zd e Z são a saída desejada fornecida por um exemplo de treinamento e a saída estimada pela rede, respectivamente.

Assim, as derivadas de E em relação aos parâmetros ajustáveis das funções wavelets são apresentadas nas equações 2.19 e 2.20.

∂E ∂di,l = − (Zd− Z) µi " exp −0.5 xi− ti,k di,k 2! 3 xi− ti,k di,k 2 − xi− ti,k di,k 4!# 1 q di,k3 (2.19) ∂E ∂ti,l = − (Zd− Z) µi " exp −0.5 xi− ti,k di,k 2! 3 xi− ti,k di,k  − xi− ti,k di,k 3!# 1 q d3i,k (2.20)

O ajuste dos parâmetros das funções de pertinência do sistema necessita das derivadas parciais das mesmas em relação aos seus parâmetros:

∂E ∂aqr = ∂E ∂Z ∂Z ∂Ψ ∂Ψ ∂µ ∂µ ∂µ ∂µ ∂A ∂A ∂aqr (2.21) ∂E ∂bqr = ∂E ∂Z ∂Z ∂Ψ ∂Ψ ∂µ ∂µ ∂µ ∂µ ∂A ∂A ∂bqr (2.22) ∂E ∂cqr = ∂E ∂Z ∂Z ∂Ψ ∂Ψ ∂µ ∂µ ∂µ ∂µ ∂A ∂A ∂cqr (2.23) em que: ∂Aqr ∂aqr =2bqr aqr Aqr 1 − Aqr  (2.24) ∂Aqr ∂bqr = ( −2ln xq−cqr aqr Aqr 1 − Aqr , se xq6= cqr, 0, se xq= cqr. (2.25) ∂Aqr ∂cqr = ( 2b qr xq−cqrAqr 1 − Aqr , se xq6= cqr, 0, se xq= cqr. (2.26)

(32)

CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA 20

De posse das derivadas parciais do erro em relação aos parâmetros ajustáveis, pode-se calcular o valor das atualizações desses parâmetros utilizando as Equações a seguir:

di, j(k + 1) = di, j(k) − η ∂E ∂di, j (2.27) ti, j(k + 1) = ti, j(k) − η ∂E ∂ti, j (2.28) ai, j(k + 1) = ai, j(k) − η ∂E ∂ai, j (2.29) bi, j(k + 1) = bi, j(k) − η ∂E ∂bi, j (2.30) ci, j(k + 1) = ci, j(k) − η ∂E ∂ci, j (2.31) A cada época, o algoritmo backpropagation ajustará os parâmetros da rede FWNN para minimizar a média da energia do erro, dada pela Equação 2.32, de todos os exemplos de treinamento apresentados à rede, até que seja atingido um determinado número de épocas ou o valor da média da energia do erro atinja um valor desejado.

Eav= 1 N N

i=1 Ei= 1 2N N

i=1  Zdi − Zi 2 (2.32)

em que Zid e Zi são, respectivamente, a saída desejada e a saída da rede FWNN para o i-ésimo exemplo de treinamento e N é o número total de pares entrada-saída do sistema a ser identificado utilizado durante a etapa de treinamento do modelo.

Uma informação importante é que se deve dar especial atenção à inicialização dos parâmetros da wavelet. Uma inicialização inadequada pode comprometer o treinamento, e consequentemente, a qualidade do resultado final. Uma boa escolha dos parâmetros de dilatação e translação incrementa a velocidade de treinamento e resulta em rápida convergência.

No presente trabalho, após experimentos que objetivaram o melhor desempenho du-rante o treinamento da FWNN, optou-se por iniciar os parâmetros ajustáveis da funções wavelets(parâmetros de dilatação e translação) com valores aleatórios entre 0.1 e 0.9. Já as funções de pertinência presentes na segunda camada foram inicializadas de tal forma que a cobertura do intervalo entre 0 e 1 fique igualmente dividida entre as funções de cada entrada.

(33)

Capítulo 3

Identificação de Sistemas Dinâmicos

A identificação de sistemas, ou modelagem empírica, dedica-se a encontrar uma rela-ção matemática entre as entradas e as saídas de um sistema, sem necessariamente conter as relações físicas que o regem (DALLAGNOL FILHO et al., 2005).

Para processos industriais, o modelo pode ser obtido a partir do tratamento de medidas (procedimento estatístico, filtragem de dados) coletadas a partir de uma realização expe-rimental. O modelo matemático final é uma forma do conhecimento da relação existente entre os sinais de entrada e saída, caracterizada no processo físico pela função de transfe-rência (COELHO; COELHO, 2004). A Figura 3.1 ilustra a composição básica em blocos de uma tarefa de identificação.

Figura 3.1: Procedimento para identificação de processos, adaptado de Coelho e Coelho (2004).

De modo geral, a identificação consiste em quatro etapas: coletar dados, selecionar estrutura do modelo, estimar modelo e validar modelo. A Figura 3.2 ilustra as diferentes etapas da identificação de processos.

(34)

CAPÍTULO 3. IDENTIFICAÇÃO DE SISTEMAS DINÂMICOS 22

Figura 3.2: Etapas do procedimento de identificação.

3.1

Coleta de Dados

Os dados utilizados para identificar modelos dinâmicos são denominados dados de identificação. Os dados de identificação são gerados por medições da resposta y(t) do sistema alimentado por uma entrada u(t) pré especificada. O sinal de entrada u(t) deve possuir espectro suficientemente amplo em amplitude e frequência para fazer excursionar o sistema pelos regimes dinâmicos de interesse (RODRIGUES, 1996).

A ideia consiste em variar os sinais de entrada do sistema e observar a influência dessa variação em suas saídas. Em muitos casos, para intervir no processo e coletar os dados necessários à identificação, são aplicados ao sistema sinais de entrada ou de excitação ricos em frequência. Os sinais PRS (Pseudo Random Signal) e suas variações, como os sinais PRBS (Pseudo Random Binary Signal), são muito utilizados na prática por possuírem essa característica (ARAÚJO JÚNIOR, 2014).

3.2

Seleção da Estrutura do Modelo

Os sistemas dinâmicos encontrados na prática são, em última análise, não lineares. Em alguns casos, as aproximações lineares são suficientes para aplicações práticas. No entanto, modelos lineares nem sempre são satisfatórios e representações não lineares de-vem ser utilizadas. Na medida em que as representações lineares são substituídas em algumas identificações por representações não lineares, torna-se possível analisar e repro-duzir certos fenômenos e comportamentos dinâmicos mais complexos (AGUIRRE, 2004). Nesses casos, as RNA’s se apresentam como uma alternativa apropriada, pois por meio de seu processo de aprendizagem e de sua capacidade de aproximação universal, essas estruturas conseguem, a partir de um conjunto de amostras experimentais, representar a

(35)

CAPÍTULO 3. IDENTIFICAÇÃO DE SISTEMAS DINÂMICOS 23

função dinâmica correspondente ao sistema a ser identificado com relativa simplicidade (LINHARES, 2010).

As estruturas de modelo baseadas em rede neural, apropriadas para a identificação de sistemas não lineares, são generalizações das estruturas de modelo linear. Elas são caracterizadas por seu vetor de regressão, ou seja, por um vetor que contém as variá-veis usadas para estimar a saída do sistema. Algumas estruturas de modelo linear são: FIR (Finite Impulse Response), ARX (AutoRegressive, eXternal input), ARMAX (Au-toRegressive, Moving Average, eXternal input), OE (Output Error) e SSIF (State Space Innovations Form). Dependendo da escolha do vetor de regressão, diferentes estruturas de modelo neural emergem. Se o vetor de regressão utilizado como entrada da rede for selecionado como para modelos ARX, a estrutura do modelo neural é chamada NNARX (Neural Network ARX). Do mesmo modo, NNFIR, NNARMAX, NNOE e NNSSIF ( LU-CENA, 2005). Essa nomenclatura é geralmente utilizada na literatura, como em Nørgård et al.(2000), para modelos neurais com redes tradicionais, como a MLP, todavia, como a rede neural utilizada neste trabalho é uma FWNN, a estrutura passa a ser chamada de FWNNARX.

O modelo NNARX trata-se de um modelo estável no sentido BIBO (“Bounded Input, Bounded Output”), pela razão de não possuir realimentação da saída estimada. A ine-xistência de problemas relativos à estabilidade faz desse modelo de estrutura a escolha preferida quando o sistema a ser modelado é determinístico ou o nível de ruído não é significativo (NØRGÅRD et al., 2000).

Devido a esses motivos, a estrutura de modelo escolhida para realizar identificação no presente trabalho foi a NNARX. A expressão matemática discreta dessa estrutura de modelo é apresentada na Equação 3.1.

ˆ

y(k) = f (y(k − 1), ..., y(k − α), u(k − d), ..., u(k − d − β)) (3.1) em que ˆyé a saída estimada da planta, k é o k-ésimo instante de tempo, d é o atraso da planta, α é a ordem da saída da planta, β é a ordem da entrada da planta, f é uma função que pode ser não linear, mapeada pela rede neural, y é a saída da planta e u é a entrada da planta. A Figura 3.3 ilustra a estrutura do modelo NNARX.

y(k − 1) y(k − 2) y(k − d) y(k − α) y(k − d − 1) y(k − d − β)

...

...

Rede Neural ŷ (k)

(36)

CAPÍTULO 3. IDENTIFICAÇÃO DE SISTEMAS DINÂMICOS 24

3.3

Estimação de Modelo

A estimação de parâmetros é um procedimento numérico que determina os valores dos parâmetros do modelo (desconhecidos) e pode ser formulada como um problema de otimização no qual o melhor modelo é aquele que melhor se ajusta às medidas (saídas do sistema) para um determinado critério (COELHO; COELHO, 2004). O procedimento de ajustar os parâmetros do modelo estimado de modo que o erro entre a saída do sistema e a do modelo seja mínimo, de acordo com um determinado critério está mostrado na Figura 3.4. Algoritmo de ajuste dos parâmetros Modelo Sistema Entrada Saída Erro + −

Figura 3.4: Diagrama de identificação de ajuste do modelo.

3.4

Validação de Modelo

Uma vez estimado um modelo que represente o sistema, deve-se validar esse modelo, pois um bom desempenho na estimação do modelo não garante que esse modelo vai aten-der às exigências. Entre as diversas técnicas de validação, a utilizada no presente trabalho é a comparação da resposta do sistema real com a resposta obtida pelo modelo estimado. O modelo é adequado se o erro cometido está entre valores preestabelecidos.

Essa comparação deve ser efetuada com medidas em um conjunto de dados que não foi utilizado na estimação do modelo matemático, para verificar a generalização do modelo. Ademais, é interessante excitar o sistema de forma que as características que se deseja do modelo sejam averiguadas.

(37)

Capítulo 4

Controle de Sistemas Dinâmicos

Dentre os preceitos da engenharia está o controle dos recursos e forças da natureza em benefício na humanidade. O conhecimento teórico e o domínio de tecnologias, cada vez mais avançadas, permitem criação e manipulação de plantas industriais de grande comple-xidade. Com a grande competitividade do mercado e a obrigatoriedade das empresas de buscar constantemente a maior eficiência em seus produtos, uma das áreas tecnológicas fundamentais para a indústria é a de controle, automatização e otimização de processos (CAMPOS; TEIXEIRA, 2006).

Um sistema de controle é uma interconexão de componentes formando uma confi-guração de sistema que produzirá uma resposta desejada do sistema (DORF et al., 2001). Esses sistemas podem ser executados em malha aberta, com a constante necessidade de intervenção humana, ou de forma automática, em malha fechada.

Os sistemas de controle em malha aberta são simples e baratos, mas não compen-sam as possíveis variações internas da planta, nem as perturbações externas inerentes a um processo industrial (CAMPOS; TEIXEIRA, 2006). Os avanços na teoria e na prática do controle automático propiciam meios para se atingir desempenho ótimo de sistemas di-nâmicos, melhoria da produtividade, alívio no trabalho enfadonho de muitas operações manuais repetitivas e muito mais (OGATA; SEVERO, 1998).

No controle em malha aberta não há retroação (ou realimentação) do sinal de saída do sistema, como mostrado na Figura 4.1. De maneira oposta, um sistema de controle em malha fechada utiliza a medida da saída para efetuar o controle, Figura 4.2. É comprovado que um sinal de realimentação pode ser usado para controlar uma vasta variedade de sistemas dinâmicos (FRANKLIN et al., 2013).

(38)

CAPÍTULO 4. CONTROLE DE SISTEMAS DINÂMICOS 26

Figura 4.2: Sistema de controle em malha fechada, adaptado de Dorf et al. (2001).

Em um sistema de controle em malha fechada, o sinal de erro (diferença entre o valor desejado para a saída e a resposta observada na saída) excita o controlador de modo que o sistema se comporte da forma desejada. Os problemas de controle em malha fechada podem ser classificados em duas classes principais: regulatório, onde o sistema deve se manter em um ponto de operação desejado, rejeitando as perturbações (interferências externas); e servo, onde a saída do sistema deve seguir uma trajetória. Na área indus-trial, o controlador mais utilizado é o Proporcional-Integral-Derivativo (PID) (CAMPOS; TEIXEIRA, 2006). Esse controlador tem vantagens como: bom desempenho em muitos processos; estrutura versátil; poucos parâmetros a serem sintonizados.

4.1

Controlador PID

O controlador PID gera um sinal de controle em função do erro entre a variável que se deseja controlar e o seu valor desejado, de forma a eliminar esse erro. Essa função é composta por três termos: o proporcional (P), o integral (I) e o derivativo (D). A função de transferência desse controlador é dada pela Equação 4.1.

Gc(s) = kp+ ki

s + kds (4.1)

Com saída no domínio do tempo dada pela Equação 4.2. u(t) = kpe(t) + ki

Z

e(t)dt + kd de(t)

dt (4.2)

Há diversas formas de implementar o controlador PID, todavia, como atualmente a maioria dos controladores são digitais, utiliza-se normalmente a implementação do algo-ritmo em velocidade, que apresenta vantagens como a de permitir eliminar a saturação do termo integral de maneira mais simples. A Expressão para saída do controlador PID em velocidade é:

u(k) = u(k − 1) + kp[e(k) − e(k − 1)] + kie(k) + kd[e(k) − 2e(k − 1) + e(k − 2)] (4.3) na qual e(k) é a diferença entre a saída desejada e a saída real do sistema e kp, ki e kd são os termos que ponderam as ações de controle proporcional, integral e derivativa, respectivamente.

(39)

CAPÍTULO 4. CONTROLE DE SISTEMAS DINÂMICOS 27

4.2

Sintonia de Controlador PID Através de um Modelo

FWNNARX

A estratégia que o presente trabalho propõe para a sintonia de um controlador PID é apresentada por Davanipour et al. (2016). Nela, os parâmetros kp, kie kd do controlador são otimizados para minimizar a função custo dada por:

E= 1

2(yd− ˆy) 2

(4.4) em que ydé a saída desejada do sistema (setpoint) e ˆyé a saída estimada pela FWNN. Primeiramente, é realizada a identificação do sistema (off-line) e após obter-se um modelo, a FWNN é utilizada, com todos os seus parâmetros fixos, para o ajuste dos parâmetros do controlador (on-line). A estrutura em malha fechada da combinação da identificação com o ajuste dos parâmetros do controlador pode ser observada na Figura 4.3. Controlador PID FWNN Sintonização do Controlador Planta + + y ŷ  eid u e yd kp ki kd + + − −

Figura 4.3: Estrutura da sintonia do PID.

Os parâmetros do controlador serão otimizados para minimizar a função custo atra-vés do algoritmo do gradiente descendente. A expressão que descreve a variação dos parâmetros é: ∆kp= −ηp ∂E ∂kp ∆ki= −ηi ∂E ∂ki ∆kd = −ηd ∂E ∂kd (4.5)

em que ηp, ηie ηd são as taxas de aprendizagem e ∂E ∂kp é dado por: ∂E ∂kp =∂E ∂ ˆy ∂ ˆy ∂u ∂u ∂kp = −e∂ ˆy ∂u ∂u ∂kp (4.6)

(40)

CAPÍTULO 4. CONTROLE DE SISTEMAS DINÂMICOS 28

Para obter ∂ ˆy

∂ué necessário calcular a retro-propagação do erro pela FWNN. Para isso, utilizam-se os gradientes locais (que representam o sinal do erro nas camadas internas) em cada camada. Supondo uma rede neural com K camadas, cada camada com Nkneurônios, a expressão para o gradiente local de cada neurônio de cada camada é:

δk,i= Nk+1

m=1 δk+1,m ∂ fk+1,m ∂Xk,i (4.7) O cálculo do sinal de erro da camada k depende do resultado do sinal do erro nas camada k + 1. Assim, pode-se concluir que é necessário calcular primeiro o sinal de erro da última camada e retro-propagar esse sinal camada por camada, até a entrada da rede (RODRIGUES, 2006). O sinal de erro para a última camada é:

δ6,1= ∂E

∂ ˆy = −(yd− ˆy) (4.8)

A derivada da camada 6 para a camada 5 é:

δ5,1= δ5,2= δ5,3= δ5,4= δ6,1 (4.9) A derivada da camada 5 para a camada 4 é:

δ4,1= δ5,1ψ1 δ4,2= δ5,2ψ2 δ4,3= δ5,3ψ3 δ4,4= δ5,4ψ4

(4.10)

A derivada da camada 4 para a camada 3 é: δ3,1= δ4,1ω2+ω3+ω4 (∑4i=1ωi) 2 + δ4,2 −ω2 (∑4i=1ωi) 2+ δ4,3 −ω3 (∑4i=1ωi) 2+ δ4,4 −ω4 (∑4i=1ωi) 2 δ3,2= δ4,2ω1+ω3+ω4 (∑4i=1ωi) 2 + δ4,1 −ω1 (∑4i=1ωi) 2+ δ4,3 −ω3 (∑4i=1ωi) 2+ δ4,4 −ω4 (∑4i=1ωi) 2 δ3,3= δ4,3ω1+ω2+ω4 (∑4i=1ωi) 2 + δ4,1 −ω1 (∑4i=1ωi) 2+ δ4,2 −ω2 (∑4i=1ωi) 2+ δ4,4 −ω4 (∑4i=1ωi) 2 δ3,4= δ4,4ω1+ω2+ω3 (∑4i=1ωi) 2 + δ4,1 −ω1 (∑4i=1ωi) 2+ δ4,2 −ω2 (∑4i=1ωi) 2+ δ4,3 −ω3 (∑4i=1ωi) 2 (4.11)

A derivada da camada 3 para a camada 2 é:

δ2,1= δ3,1A21(x2) + δ3,2A22(x2) δ2,2= δ3,3A21(x2) + δ3,4A22(x2) δ2,3= δ3,1A11(x1) + δ3,3A12(x1) δ2,4= δ3,2A11(x1) + δ3,4A12(x1)

(41)

CAPÍTULO 4. CONTROLE DE SISTEMAS DINÂMICOS 29

A derivada da camada 2 para a camada 1 é:

δ1,1= δ2,1A011(x1) + δ2,2A012(x1) δ1,2= δ2,3A021(x2) + δ2,4A022(x2)

(4.13) Para a entrada da FWNN que recebe o sinal de controle, temos:

∂ ˆy

∂u = δ1,u (4.14)

Por fim, para obter a atualização de todos dos parâmetros do controlador, temos: ∂u ∂kp (k) = ∂u ∂kp (k − 1) + e(k) − e(k − 1) ∂u ∂ki (k) = ∂u ∂ki (k − 1) + e(k) ∂u ∂kd (k) = ∂u ∂kd

(k − 1) + e(k) − 2e(k − 1) + e(k − 2)

(4.15)

As derivadas ∂E ∂ki

e ∂E ∂kd

são obtidos de forma semelhante à ∂E ∂ki

apresentada nas Equa-ções 4.6 à 4.15.

Referências

Documentos relacionados

Em última análise, se por um lado temos acesso à linguagem afásica e aos efeitos que dela decorrem, por outro, no caso do fenômeno de desregramento, não teríamos acesso à

Neste contexto, o objetivo do presente trabalho foi desen- volver um estudo entre a associação entre indicadores epidemio- lógicos (taxa de mortalidade infantil, mortalidade

Portanto, os objetivos neste trabalho foram otimizar um processo de extração aquosa do óleo da amêndoa de Macaúba, avaliando os parâmetros pH, tempo e temperatura em relação

Considerando a formação da equipe de trabalho, o tempo de realização previsto no projeto de extensão e a especificidade das necessidades dos catadores, algumas

Era como se Tohka tivesse algo complicado para dizer, então ela delicadamente olhou para outro lado.. —Ontem, durante os exames, eu ouvi um

Foram registradas 137 espécies de aves nas áreas amostradas, correspondendo a aproximadamente 20% das espécies registradas para o Rio Grande do Sul (Tabela 1), sendo que 14,5%

A potência de 35 kW torna-a perfeita também para condutores com carta de condução A2, assim como para condutores mais experientes à procura de uma Custom-Tourer de dimensão

 Um dos meios de transmissão utilizados para o envio e receção de informação são designados cabos elétricos que são meios de transmissão metálicos e que por