• Nenhum resultado encontrado

Estimação On-Line de parâmetros dependentes do estado (State Dependent Parameter - SDP) em modelos de regressão não lineares

N/A
N/A
Protected

Academic year: 2021

Share "Estimação On-Line de parâmetros dependentes do estado (State Dependent Parameter - SDP) em modelos de regressão não lineares"

Copied!
80
0
0

Texto

(1)

Elvis Omar Jara Alegria

Estimação On-Line de parâmetros dependentes

do estado (State Dependent Parameter - SDP)

em modelos de regressão não lineares

Campinas

2015

(2)
(3)

UNIVERSIDADE ESTADUAL DE CAMPINAS

Faculdade de Engenharia Elétrica e de Computação

Elvis Omar Jara Alegria

Estimação On-Line de parâmetros dependentes do estado

(State Dependent Parameter - SDP) em modelos de

regressão não lineares

Dissertação apresentada à Faculdade de Enge-nharia Elétrica e de Computação da Univer-sidade Estadual de Campinas como parte dos requisitos exigidos para a obtenção do título de Mestre em Engenharia Elétrica, na Área de Automação.

Orientador: Prof. Dr. Celso Pascoli Bottura

Este exemplar corresponde à versão final da dissertação defendida pelo aluno Elvis Omar Jara Alegria, e orientada pelo Prof. Dr. Celso Pascoli Bottura

Campinas

2015

(4)

Ficha catalográfica

Universidade Estadual de Campinas Biblioteca da Área de Engenharia e Arquitetura Elizangela Aparecida dos Santos Souza - CRB 8/8098

Alegria, Elvis Omar Jara,

AL25e AleEstimação On-Line de parâmetros dependentes do estado (State Dependent

Parameter - SDP) em modelos de regressão não lineares / Elvis Omar Jara

Alegria. – Campinas, SP : [s.n.], 2015.

AleOrientador: Celso Pascoli Bottura.

AleDissertação (mestrado) – Universidade Estadual de Campinas, Faculdade de

Engenharia Elétrica e de Computação.

Ale1. Sistemas não lineares. 2. Identificação de sistemas. 3. Análise de séries

temporais. I. Bottura, Celso Pascoli,1938-. II. Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação. III. Título.

Informações para Biblioteca Digital

Título em outro idioma: State dependent parameters (SDP) On-line estimation for nonlinear

regression models

Palavras-chave em inglês:

Nonlinear systems System identification Time-series analysis

Área de concentração: Automação Titulação: Mestre em Engenharia Elétrica Banca examinadora:

Celso Pascoli Bottura [Orientador] Ginalber Luiz de Oliveira Serra João Bosco Ribeiro do Val

Data de defesa: 25-02-2015

Programa de Pós-Graduação: Engenharia Elétrica

Powered by TCPDF (www.tcpdf.org)

(5)
(6)
(7)

Resumo

Este trabalho é sobre a identificação recursiva em tempo real das dependências parâmetro-estado em modelos de regressão de series temporais estocásticas não lineares. O descobri-mento dessas dependências é útil para obter uma nova e mais acurada estrutura do modelo. Os métodos recursivos convencionais de estimação de parâmetros variantes no tempo, não conseguem bons resultados quando os modelos apresentam parâmetros dependentes do es-tado (SDP), pois eles tem comportamento altamente não linear e inclusive caótico. Nossa proposta está baseada no estudo de Peter Young para SDPs no caso Off-Line. É discutido o método que ele propõe para reduzir a entropia das séries nos modelos com SDP e para isto se propõe umas transformações dos dados. São propostas mudanças no seu algoritmo Off-Line que o fazem mais rápido, eficiente e manejável para a implementação do modo On-Line. Três exemplos numéricos são mostrados para validar as nossas propostas. Finalmente, uma aplicação original na área de detecção de falha paramétrica é apresentada. Todas as funções foram implementadas no MATLAB e conformam o Toolbox INCA para identificação de SDP em modelos de regressão não lineares.

Palavras-chaves: Estimação de parâmetros dependentes do estado; métodos recursivos;

(8)
(9)

Abstract

This work is about the identification of the dependency among parameters and states in regression models of non linear stochastic time series. The discovery of that dependency can be useful to obtain a more accurate model structure. Conventional recursive algorithms for estimation of Time Variable Parameters (TVP) do not provide good results in models with state-dependent parameters (SDP) because these may have highly non-linear and even chaotic behavior. This work is based on Peter Young’s studies about Off-Line SDP. Young’s methods to data entropy reduction are discussed and some data transformations are proposed for this. Later, are proposed some changes on the Off-Line algorithm in order to improve its velocity, accuracy, and tractability to generate the On-Line version. Three numeric examples to validate our proposal are shown. Finally an original application to parametric fault detec-tion is presented. All the funcdetec-tions were implemented in MATLAB and conform the Toolbox INCA for the SDP identification in non linear regression models.

Keywords: State dependent parameters estimation; recursive methods; structure

(10)
(11)

Sumário

1 Introdução . . . . 1

1.1 Motivação e contribuições . . . 3

I

Fundamento teórico

5

2 Fundamento teórico . . . . 6

2.1 Modelo de regressão com passeio aleatório geral (General Random Walk -GRW) para estimação de parâmetros que mudam no tempo (Time varying parameters - TVP) . . . . 6

2.1.1 Estimação de parâmetros no modelo de regressão GRW . . . 7

2.2 Suavização simples de intervalo fixo (do inglês SFIS) para estimação de TVP 8 2.2.1 Exemplo de estimação SFIS . . . 9

2.3 O modelo de regressão linear com parâmetros que dependem do estado (SDP) 10 2.4 Proposta do Young para estimação de SDP . . . 11

2.4.1 Reordenamento de dados e estimação SDP . . . 11

2.5 Parametrização das relações estado - parâmetro estimadas . . . 12

2.5.1 Regressão mediante vetor suporte (SVR) . . . 13

2.5.2 Regressão mediante soma de funções base . . . 16

II Algoritmo de estimação de modelos com dependência parâmetro

- estado (SDP)

18

3 Algoritmo de estimação SDP On-Line . . . . 19

3.1 O problema do fator de esquecimento quando os dados são reordenados . . . 21

3.2 O problema do offset da estimação quando os regressores são unitários . . . 23

3.3 Reinicialização do algoritmo SDP On-Line . . . . 24

3.4 Pseudocódigo do algoritmo de estimação SDP On-Line . . . . 26

III Resultados e melhoras futuras

27

4 Exemplos numéricos . . . . 28

4.1 Exemplo de modelo com vários SDPs . . . 28

4.2 Exemplo de aplicação On-Line em identificação de modelo MISO de quatro tanques para detecção de falhas . . . 32

(12)

4.2.2 Modelo em tempo discreto tipo MISO . . . 34

4.2.3 Estimação SDP Off-Line do sistema de quatro tanques . . . . 35

4.2.4 Estimação SDP On-Line para detecção de falhas no modelo de quatro tanques . . . 38

5 Pesquisa em processo: Estimação de modelos com um SDP usando transfor-mação de dados (DT) . . . . 43

5.1 Duas propostas de transformação de dados para estimação SDP . . . 44

5.2 Algoritmo de estimação de SDP usando transformação de dados DT . . . 45

5.3 Exemplo em modelo puramente estocástico . . . 46

Conclusão . . . . 49

Referências Bibliográficas . . . . 50

Apêndice A O Toolbox INCA para Matlab . . . . 53

(13)

Ao meu pai Juan,

À minha mãe Marina,

Ao meu irmão Mario,

À minha irmã Lisset,

À minha cidade Andahuaylas.

(14)
(15)

Agradecimentos

Agradeço especialmente a meu orientador Celso Pascoli Bottura, pela amizade e pelos conselhos para a minha vida, não só no aspecto acadêmico como também no pessoal.

Agradeço ao professor Gilmar Barreto pela guia e a ajuda ao longo do mestrado. Agradeço aos meus colegas do Laboratório de Controle e Sistemas Inteligentes da FEEC-Unicamp, pela bonita e sincera amizade, que fez o trabalho diário bem mais agradável. Agradeço também ao grupo de sistemas de controle avançado da Universidade Poli-técnica de Catalunha UPC: Joaquim Blesa, Vicenç Puig e Sebastian Tornil, pelos três meses de orientação e apoio desinteressado em dar a este trabalho uma aplicação real na área de detecção de falhas.

Agradeço também à minha família que sempre me deu ânimo de continuar crescendo academicamente.

Agradeço à CAPES e ao Banco Santander pelas bolsas de estudo no Brasil e na Es-panha respectivamente.

(16)
(17)

“Só há duas maneiras de viver a vida: a primeira é vivê-la como se os milagres não existissem. A segunda é vivê-la como se tudo fosse milagre.” (Albert Einstein)

(18)
(19)

Artigos previos do autor

1. Alegria, E. J., Bottura, C. P., "Identification of state-dependent parameter models using data transformation", XXI International Conference on Electrical Eng., Electronics Eng. and Computer Science INTERCON, Arequipa-Peru, August 2014. ISBN: 978-9972-825-67-5, <published>.

2. Alegria, E. J., Tanzarella, H. T., Bottura C. P., "State-dependent parameter models identification using data transformations and support vector regression", SAI Intelligent Systems Conference - IntelliSys 2015, London-Uk, <submitted>.

3. Alegria, E. J., Tanzarella, H. T., Bottura C. P., "Off-line state-dependent parameter models identification using simple fixed interval smoothing", 12th International Confer-ence on Informatics in Control, Automation and Robotics (ICINCO), Colmar-France, <submitted>.

(20)
(21)

Lista de ilustrações

Figura 1 – Estimação baseada em EWP usando dados ordenados normalmente (es-querda), inversamente (centro) e a combinação das duas chamada estima-ção SFIS (direita). As linhas continuas mostram os sinais estimados e as linhas tracejadas mostram os sinais de referência. . . 10 Figura 2 – Efeito do reordenamento temporal em um sinal 𝑦(𝑘) de alta entropia. . 12 Figura 3 – Perda de margem suave para um SVR linear. . . 14 Figura 4 – Representação dos processamentos de dados recursivo e iterativo para uma

janela retangular. . . 20 Figura 5 – Funções de ponderação exponencial EWP para um fator de esquecimento,

ou fator de filtro, de 𝛼 = 0, 95 e de 𝛼 = 0, 7. . . . 22 Figura 6 – Comportamento da janela retangular em movimento para atualização das

estimações. . . 24 Figura 7 – Reinicialização do algoritmo de estimação SDP On-Line. . . . 25 Figura 8 – Sinais das entradas 𝑢𝑖(𝑘) e da medida 𝑦(𝑘) do modelo da equação 4.1. . . 29 Figura 9 – Dados do estado 𝑥3(𝑘) e do sinal 𝑦𝑚𝑑𝑣3 ordenados temporalmente

(es-querda) e reordenados segundo a ordem crescente de magnitude do estado

𝑥3(𝑘)(direita) 4.1. . . . 30 Figura 10 – Dependências parâmetro - estado estimadas usando a função estimation_sdp.m

do INCA, com fator de filtro 0,9 e 20 iterações (pontilhado), dependência real (tracejada) e parametrização SVR da dependência Off-Line estimada (linha solida). . . 31 Figura 11 – Dependências parâmetro - estado estimadas usando o CAPTAIN com 20

iterações (pontilhado) e dependência real (tracejada). . . 31 Figura 12 – Modelo hidráulico do processo de quatro tanques . . . 33 Figura 13 – Planta real instalada no laboratório de controle automático da

Universi-dade Politécnica de Catalunha . . . 34 Figura 14 – Primeiros dois mil pontos do sinal ℎ1 que depende dos sinais ℎ3 e 𝑣1

se-gundo a equação 4.12 . . . 35 Figura 15 – Estimação SDP Off-Line do INCA, com 30 iterações e fator de filtro 𝛼 =

0, 75 (pontilhada) e a referência real (tracejada). . . . 37 Figura 16 – Estimação SDP do CAPTAIN (pontilhada) e a referência real da

(22)

Figura 17 – Procedimento proposto para detecção de falhas paramétricas usando os algoritmos implementados para SDP Off-Line (acima) e On-Line (abaixo). 39 Figura 18 – Sinais dos estados ℎ1, ℎ3 e 𝑣1 no processo On-Line para detecção de falhas 39 Figura 19 – Efeito em ℎ1 da falha simulada no parâmetro 𝑎1 no tempo 𝑘 = 1200. . . 40 Figura 20 – Estimação SDP Off-Line da saída 𝑦(𝑘) com dados com falha em 𝑎1. . . 40 Figura 21 – Evolução On-Line da estimação dos parâmetros 𝑆𝐷𝑃 1 = 𝜌1, 𝑆𝐷𝑃 2 = 𝜌2

e 𝑆𝐷𝑃 3 = 𝜌3, pontos vermelhos, quando toda a janela não tem falha (a), quando tem falha parcialmente (b) e quando tem todos os dados com falha (c). Em pontos azuis se mostra a referência sem falhas obtida em modo

Off-Line. . . . 41 Figura 22 – Estimação do erro paramétrico. Cada ponto representa o erro médio para

cada posição da janela. . . 42 Figura 23 – Série temporal no espaço não transformado (superior), dados reordenados

temporalmente TDR (meio) e usando uma transformação de dados à média DTM (inferior) . . . 45 Figura 24 – Estimação do SDP ̂𝑎*1(𝑘) no espaço transformado usando transformação

de dados (acima). Dependência real (abaixo - círculos) e estimada (abaixo - x). . . 47 Figura 25 – Modelamento SVR dos parâmetros que dependem do estado (𝐶 = 400 e

𝜀 = 0, 2). As linhas tracejadas representam a verdadeira dependência entre

o parâmetro 𝛼1 e o estado 𝑦(𝑘 −1); a linha sólida representa a aproximação SVR desta dependência. . . 48

(23)

Lista de tabelas

Tabela 1 – Erros de estimaçaõ da dependência parâmetro - estado (SDP) usando a função estimation_sdp.m do INCA, com 𝛼 fixo e usando a função sdp.m do CAPTAIN. . . 32 Tabela 2 – Valores reais dos parâmetros do sistema de quatro tanques, medidos no

laboratório. . . 34 Tabela 3 – Resultados da estimaçaõ SDP Off-Line com 𝛼 fixo usando a função

im-plementada no INCA, estimation_sdp.m, e a função sdp.m do CAPTAIN. 38 Tabela 4 – Comparação dos resultados dos Toolboxes INCA e CAPTAIN para o

exem-plo 3. . . 38 Tabela 5 – Resultados da parametrização SVR na identificação do SDP para o

(24)
(25)

Lista de Siglas e Acrônimos

Andahuaylas

ARX - Autoregressive Exogenous DT - Data Transformation

DTM - Data Transformation to the Mean DTZ - Data Transformation to Zero EWP - Exponential Window Past FIS - Fixed Interval Smoothing GRW - General Random Walk IRW - Integrated Random Walk KKT - Karush Kuhn Tucker MAE - Mean Absolute Error

MDV - Modified Dependent Variable MSE - Mean Squared Error

NSV - Number of Support Vectors PWM - Pulse Width Modulation RBF - Radial Basis Functions RLS - Recursive Least Square RW - Random Walk

SDP - State Dependent Parameter SFB - Soma de Funções Base

SFIS - Simples Fixed Interval Smoothing SNR - Sinal Noise Ratio

SRW - Smoothed Random Walk SVR - Support Vector regression TDR - Temporal Data Reordering TVP - Time Varying Parameter

(26)
(27)

1

1 Introdução

Os parâmetros dos modelos de regressão lineares podem ser estimados satisfatori-amente usando métodos convencionais de estimação de parâmetros que mudam no tempo (Time Variable Parameter - TVP) baseados em técnicas de mínimos quadrados. Um re-querimento importante para o sucesso da estimação é que o comportamento do parâmetro no tempo possa ser representado mediante um passeio randômico ou que a sua variação temporal seja lenta comparada com a do estado (BAR-SHALOM et al., 2001). Estes al-goritmos convencionais foram muito estudados por muitos autores durante os últimos 50 anos: ver por exemplo (YOUNG, 2011; LJUNG, 1999; JAZWINSKI, 2007; NORTON, 2009; QUEVEDO, 2013). Mas só quando o modelo apresenta parâmetros que dependem do estado (SDP) (YOUNG, 1969; PRIESTLEY, 1988; YOUNG et al., 2001; HU et al., 2001) a resposta do modelo pode ser altamente não linear e inclusive caótica (YOUNG et al., 2001). Métodos recursivos convencionais não podem estimar modelos com SDPs pois seus parâmetros va-riam muito rapidamente e não podem ser representados mediante passeios randômicos. Estes métodos precisam ser modificados consideravelmente para permitir estimar parâmetros que variam rapidamente ou de alta entropia. Isto não é fácil e uma solução elegante e recursiva pode tomar muitos anos (YOUNG, 2000).

Métodos baseados em velocity-based linearization e redes neurais são propostos em: (ÅKESSON; TOIVONEN, 2006; TOIVONEN et al., 2007; TÖTTERMAN; TOIVONEN, 2009). Mas devido à complexidade numérica, estes métodos estão limitados ao modo

Off-Line e além disso requerem um conhecimento prévio da dinâmica do sistema não linear.

Os modelos de regressão que apresentam SDP, chamados de modelos ARX-SDP (PRI-ESTLEY, 1988; YOUNG et al., 2001) ou quasi-ARX (HU et al., 1998; HU et al., 2001; PREVIDI, 2003), são sempre não lineares devido ao produto entre regressor e parâmetro; este último não é constante e representa uma função do estado. Young propôs uma solução limitada e aproximada, mas útil, para a estimação de modelos com SDP (YOUNG, 2000). Ela é baseada em um reordenamento temporal dos dados para simplificar o processo de es-timação, pois esse reordenamento permite a suavização do comportamento dos dados. Isto permite usar um algoritmo de estimação de TVP, chamado Fixed Interval Smoothing (FIS). A justificação deste reordenamento de dados é baseada no fato de que, se a dependência entre o parâmetro e o estado existe, então um reordenamento temporal que suaviza o estado, também tem que suavizar o parâmetro quando é reordenado na mesma ordenação do estado. Young mostra que quando os parâmetros estimados retornam à ordem temporal normal,

(28)

en-2

tão fica evidente a relação de dependência entre o parâmetro e o estado. Quando um estado do modelo ARX-SDP é reordenado em ordem ascendente, segundo a sua magnitude, e os ou-tros sinais do modelo também são reordenados conforme o primeiro, então a rápida variação deles é eliminada e também a sua entropia é reduzida.

Obviamente a natureza do sorteio da ordem afetará a estimação e uma ordem as-cendente não necessariamente será a melhor escolha. O critério para hierarquizar o tipo de sorteio é em função da mínima variância do erro estimado (YOUNG, 2000). Então é possí-vel achar outra transformação de dados melhor que o sorteio ascendente que também possa suavizar os sinais?. Esta pergunta permitiu o inicio da nossa pesquisa ao procurar opções alternativas ao ordenamento ascendente que se ajustem às necessidades de um algoritmo On-Line. Uma limitada transformação de dados é proposta como alternativa ao reordenamento e o seu estudo ainda se limita ao caso de apenas um SDP, mas mesmo assim é mostrado o avanço desta proposta e as suas limitações no caso multiparamétrico.

No aprofundamento do estudo dos algoritmos de Young para estimação SDP, des-cobrimos interessantes detalhes que devem ser considerados para melhorar seu rendimento. Um deles é o fator de esquecimento do algoritmo FIS pois, logo após o reordenamento dos dados, os últimos dados na verdade nem sempre continuam sendo-os depois do reordena-mento, então não precisam ter menor ponderação pelo fator de esquecimento. Neste trabalho usamos o termo fator de filtro para o fator de esquecimento e demostramos que um valor fixo e relativamente baixo dele produz melhores resultados do que quando ele é otimizado. Outras possibilidades foram implementadas como a opção de parâmetros de inicio de itera-ção ou escolha do tipo de parametrizaitera-ção; estas não existem no Computer-Aided Program

for Time-series Analysis and Identification of Noisy Systems (CAPTAIN) Toolbox do Young

(TAYLOR et al., 2007). Além disso, não é possível gerar uma versão On-Line baseada no CAPTAIN pois ele é de código fechado. Neste trabalho uma versão On-Line da estimação de SDPs com base no nosso algoritmo Off-Line para SDPs é desenvolvida.

Depois de ter identificado, mediante identificação não-paramétrica, o tipo de depen-dência entre parâmetros e estados, o passo seguinte consiste na parametrização das relações gráficas obtidas. Para isto são apresentados os métodos baseados em soma de funções base e regressão mediante vetores suporte (SVR) (SJÖBERG et al., 1995; SUYKENS et al., 1996; SMOLA; SCHÖLKOPF, 2004; NØRGAARD et al., 2000).

Na busca de um problema real para testar os nossos algoritmos, se fez contato com a Universidade Politécnica de Catalunha, Espanha, para tentar resolver um problema hidráu-lico de controle de quatro tanques. Esse modelo altamente não linear apresenta três SDPs e as estimativas deles pelos nossos métodos foram satisfatórias. O trabalho conjunto

(29)

per-1.1. Motivação e contribuições 3

mitiu também testar nossa proposta On-Line para monitorar o funcionamento da planta e detectar possíveis falhas paramétricas no modelo físico real; os resultados também foram sa-tisfatórios. Os detalhes deste estudo em conjunto, UNICAMP do Brasil e UPC da Espanha, são apresentados no exemplo 2 do capítulo 4 deste trabalho.

O capítulo 2 mostra brevemente os conceitos básicos de estimação recursiva de TVP e apresenta o algoritmo de Young para estimação SDP em modo Off-Line. Além disso são mostradas duas parametrizações ou ajustes: soma de funções base e regressão mediante veto-res suporte (SVR). O capítulo 3 detalha os algoritmos implementados para estimar modelos com SDPs em modo Off-Line e On-Line. O capítulo 4 mostra dois exemplos numéricos que testam os algoritmos propostos. Finalmente o capítulo 5 mostra possíveis melhoras futuras e se apresenta as propostas de transformações de dados (DT) alternativas ao reordenamento ascendente de Young e as suas limitações.

1.1

Motivação e contribuições

Os métodos de identificação permitem representar analiticamente a dinâmica interna de uma serie temporal. Uma representação boa, no sentido de gerar uma menor covariância do erro na saída, pode predizer melhor o comportamento futuro dos sinais envolvidos.

O método apresentado nesta tese se caracteriza por estar baseado em mínimos qua-drados recursivo. Isto faz que possam ser implementados facilmente em algum software como Matlab e se adaptar ao modo On-Line, ou de tempo real, usando uma simples janela de memória de dados. Estas vantagens permitiram gerar o Toolbox INCA que contem todos os algoritmos de estimação estudados.

Pode se dizer que a pesquisa desenvolvida nesta tese gerou uma ferramenta que per-mite analisar séries temporais, que sem importar o conhecimento das leis físicas que as gover-nam ou sua natureza interna, i.e. uma caixa preta, podemos obter um modelo matemático de tipo paramétrico que os represente. Nossa proposta, além de ter em conta a covariância do erro na saída, permite obter um modelo mais exato da estrutura da serie temporal. Então, nosso algoritmo também pode ser usado como um estimador da estrutura de um modelo não linear (ARX-SDP) baseado em um modelo de regressão linear (ARX).

Mesmo para o processo de identificação, nosso método não precisa do conhecimento da natureza interna do sistema. Alguma pista prévia do tipo de estrutura, ou algumas relações conhecidas entre os sinais pode ser de muita ajuda para obter estimações mas exatas. Neste caso, pode-se dizer que trabalhamos com uma caixa cinza. No caso em que o modelo físico é conhecido, nosso método de estimação pode ser usado para a sua validação. Neste caso

(30)

1.1. Motivação e contribuições 4

pode-se dizer que trabalhamos com uma caixa branca.

Finalmente ressaltamos especialmente o modo On-Line do nosso algoritmo de esti-mação pois, pelo que sabemos, até hoje não existe um método similar ao nosso, capaz de monitorar as mudanças paramétricas de um modelo de regressão tipo ARX-SDP com a sim-plicidade e rapidez da nossa proposta. Esse foi o motivo para que nos resultados do análise

On-Line aplicado à detecção de falhas, no exemplo 4.2, não tivéssemos nenhuma referência

para comparar nossos resultados com os de algum outro método. Em todos os outros resul-tados numéricos a referência usada para medir as vantagens das nossas propostas Off-Line, foi o Toolbox CAPTAIN de Young.

(31)

Parte I

(32)

6

2 Fundamento teórico

Nesta parte se mostra o resumo dos principais conceitos necessários para uma boa compreensão dos seguintes capítulos. Primeiro, como introdução da seção, se apresenta o comportamento dos parâmetros como passeio aleatório, caracterizados pela sua baixa entro-pia; também é mostrado um método convencional de estimação deste tipo de parâmetros. Depois é apresentado o modelo com dependências estado-parâmetro e o seu respectivo mé-todo de estimação proposto por Young. Finalmente dois mémé-todos de parametrização são mostrados.

2.1

Modelo de regressão com passeio aleatório geral (General

Ran-dom Walk - GRW) para estimação de parâmetros que mudam

no tempo (Time varying parameters - TVP)

Este modelo considera que os parâmetros desconhecidos 𝜌(𝑘) são processos estocásti-cos e podem assim ser representados no espaço de estado pelo vetor da dinâmica do parâmetro

a𝑖(𝑘): a𝑖(𝑘) = A𝑖a𝑖(𝑘 − 1) + D𝑖𝜂𝑖(𝑘 − 1), 𝑖 = 1, 2, ..., 𝑛, (2.1) onde a𝑖(𝑘) = ⎡ ⎣ 𝜌𝑖(𝑘) ∇𝜌𝑖(𝑘) ⎤ ⎦ A𝑖 = ⎡ ⎣ 𝛼 𝛽 0 𝛾 ⎤ ⎦, D𝑖 = ⎡ ⎣ 𝛿 0 0 𝜀 ⎤ ⎦ (2.2)

também 𝜂𝑖(𝑘) é um vetor de ruido branco de média zero e matriz de covariância Q𝑛𝑖,

que gera a variabilidade estocástica e ∇𝜌𝑖(𝑘) = 𝜌𝑖(𝑘) − 𝜌𝑖(𝑘 − 1) representa o gradiente do parâmetro. As matrizes A𝑖 e D𝑖 podem ser configuradas dependendo do tipo de compor-tamento desejado para 𝜌(𝑘); por exemplo, para o caso especial do Integrated Random Walk (IRW), tem-se 𝛼 = 𝛽 = 𝛾 = 𝜀 = 1; 𝛿 = 0. Para o caso do simples Random Walk (RW), tem-se 𝛽 = 𝛾 = 𝜀 = 0, 𝛼 = 𝛿 = 1 . Para o caso de um Smoothed Random Walk (SRW), tem-se 0 < 𝛼 < 1, 𝛽 = 𝛾 = 𝜀 = 1; 𝑒 𝛿 = 0.

Para diferenciar os parâmetros a serem estimados 𝜌(𝑘) dos outros como 𝛼, 𝛽, 𝛾, 𝜀 e

(33)

2.1. Modelo de regressão com passeio aleatório geral ( General Random Walk - GRW) para estimação de parâmetros que mudam no tempo ( Time varying parameters - TVP) 7

2.1.1

Estimação de parâmetros no modelo de regressão GRW

Agora, baseados no modelo paramétrico da equação (2.1), geramos o modelo com-pleto, i.e. modelo ARX considerando comportamento paramétrico tipo GRW:

x(𝑘) = Ax(𝑘 − 1) + D𝜂(𝑘 − 1) (2.3)

𝑦(𝑘) = h𝑇(𝑘)̂x(𝑘) + 𝑒(𝑘)

onde o vetor de estado x(𝑘) está composto de subvetores de parâmetros a𝑖, 𝑖 = 1, 2, ..., 𝑛, cada um deles definido por um modelo GRW (2.1), i.e.,

̂

x𝑇(𝑘) =[︁a𝑇

1(𝑘) a𝑇2(𝑘) · · · a𝑛𝑇(𝑘)

]︁

(2.4)

Além disso, as matrizes A, D e 𝜂 contem como elementos as matrizes A𝑖, D𝑖 e 𝜂𝑖 que podem ser configuradas independentemente, 𝑦 representa o sinal medido e h representa o vetor de observação,

h𝑇(𝑘) =[︁𝑥1(𝑘) 0 𝑥2(𝑘) 0 𝑥3(𝑘) 0 · · · 0 𝑥𝑛(𝑘) 0

]︁

(2.5)

Conhecendo o modelo paramétrico, é possível estimar seu estado futuro e então se obtém o seguinte algoritmo de predição e correção recursiva de TVP de tipo GRW: GRWTVP (YOUNG, 2011): Predição: ̂ x(𝑘|𝑘) = Âx(𝑘 − 1) P(𝑘|𝑘) = AP(𝑘 − 1)A𝑇 + DQ𝑛𝑣𝑟D𝑇 Correção: ̂ x(𝑘) = ̂x(𝑘|𝑘 − 1) + g(𝑘){︁𝑦(𝑘) − h𝑇(𝑘)̂x(𝑘|𝑘 − 1)}︁ g(𝑘) = P(𝑘|𝑘 − 1)h(𝑘)[︁1 + h𝑇(𝑘)P(𝑘|𝑘 − 1)h(𝑘)]︁−1 P(𝑘) = P(𝑘|𝑘 − 1) − g(𝑘)h𝑇(𝑘)P(𝑘|𝑘 − 1)

onde P(𝑘) é a matriz de covariância referente ao erro de estimação e Q𝑛𝑣𝑟 = Q𝑎/𝜎2 representa a matriz da relação entre o ruido e a variância (Noise-Variance Ratio NVR) do sinal medido (LJUNG, 1999).

(34)

2.2. Suavização simples de intervalo fixo (do inglês SFIS) para estimação de TVP 8

Este algoritmo de predição tem semelhança com o filtro de Kalman sem entradas exógenas. Este modelo de predição não foi utilizado no nosso trabalho e só é apresentado para mostrar uma vantagem do modelamento paramétrico.

2.2

Suavização simples de intervalo fixo (do inglês SFIS) para

esti-mação de TVP

Uma estimação simples e útil na prática pode ser obtida pela combinação de duas estimações recursivas, a primeira para a frente, i.e com dados amostrados de 𝑘 = 1 até

𝑘 = 𝑁 , e a segunda para trás, i.e. com dados amostrados de 𝑘 = 𝑁 até 𝑘 = 1. Além disso,

para a estimação de TVP é usada uma janela exponencial do passado (Exponential Windows

Past - EWP) em cada caso. Quando o fator de esquecimento 𝛼(𝑘) da janela exponencial

é considerado fixo e a suavização é obtida pela combinação acima descrita, o algoritmo é chamado por nós como SFIS e se esse fator for otimizado então na literatura o algoritmo é chamado FIS ótimo ou simplesmente FIS (YOUNG, 2011; NORTON, 2009; JAZWINSKI, 2007).

Seja o modelo de regressão ARX:

𝑦(𝑘) = z𝑇(𝑘)𝜌(𝑘) + 𝑒(𝑘); 𝑒(𝑘) = 𝒩 (0, 𝜎2)

onde 𝑦(𝑘) é o sinal medido, z(𝑘) é o vetor de regressores, 𝜌(𝑘) representa o vetor de parâmetros desconhecidos e o sinal 𝑒(𝑘) representa o sinal do ruido na saída.

Com base no método de mínimos quadrados recursivo (RLS), escolhemos a função de custo 𝒥𝐸𝑊 𝑃: 𝒥𝐸𝑊 𝑃 = 𝑘 ∑︁ 𝑖=1 [︁ 𝑦(𝑖) − z𝑇(𝑖) ̂𝜌(𝑖)]︁2𝛼(𝑖) 0 < 𝛼 < 1.0 (2.6)

e fixando o fator variável 𝛼(𝑖) = 𝛼 obtemos o seguinte algoritmo recursivo de estimação paramétrica SFIS:

(35)

2.2. Suavização simples de intervalo fixo (do inglês SFIS) para estimação de TVP 9

Estimação para frente 𝑘 = 1, 2, · · · , 𝑁 :

̂ 𝜌𝑓(𝑘) = 𝜌̂𝑓(𝑘 − 1) + g(𝑘){︁𝑦(𝑘) − z𝑇(𝑘) ̂𝜌𝑓(𝑘 − 1)}︁ g(𝑘) = P(𝑘 − 1)z(𝑘)[︁𝛼 + z𝑇(𝑘)P(𝑘 − 1)z(𝑘)]︁−1 P(𝑘) = 1 𝛼 {︁ P(𝑘 − 1) − g(𝑘)z𝑇(𝑘)P(𝑘 − 1)}︁ Estimação para trás 𝑘 = 𝑁, 𝑁 − 1, · · · , 1: ̂ 𝜌𝑏(𝑘) = 𝜌̂𝑏(𝑘 − 1) + g(𝑘){︁𝑦(𝑘) − z𝑇(𝑘) ̂𝜌𝑏(𝑘 − 1)}︁ g(𝑘) = P(𝑘 − 1)z(𝑘)[︁𝛼 + z𝑇(𝑘)P(𝑘 − 1)z(𝑘)]︁−1 P(𝑘) = 1 𝛼 {︁ P(𝑘 − 1) − g(𝑘)z𝑇(𝑘)P(𝑘 − 1)}︁

Estimação SFIS (Suavização):

̂

𝜌(𝑘) = 𝜌̂𝑓(𝑘) + ̂𝜌𝑏(𝑘)

2

A vantagem deste algoritmo SFIS, especificamente no nosso caso de estudo, é que considera um fator de esquecimento fixo ao invés do caso otimizado FIS (YOUNG, 2011). A vantagem desta característica é detalhada na secção 3.1.

2.2.1

Exemplo de estimação SFIS

Seja o modelo de regressão com dois parâmetros desconhecidos:

𝑦(𝑘) = 𝜌1(𝑘)𝑦(𝑘 − 1) + 𝜌2𝑦(𝑘 − 2) + 𝑒(𝑘), 𝑒(𝑘) = 𝒩

(︁

0, 10−3)︁

onde o primeiro parâmetro 𝜌1(𝑘) é variável no tempo segundo um passeio aleatório do tipo IRW, ver 2.1:

⎡ ⎣ 𝜌1(𝑘) ∇𝜌1(𝑘) ⎤ ⎦= ⎡ ⎣ 𝜌1(𝑘 − 1) + △𝜌1(𝑘 − 1) ∇𝜌1(𝑘 − 1) ⎤ ⎦+ ⎡ ⎣ 0 𝜂2(𝑘) ⎤ ⎦, 𝜂2(𝑘) = 𝒩 (︁ 0, 3 × 10−4)︁

(36)

2.3. O modelo de regressão linear com parâmetros que dependem do estado (SDP) 10 0 5 10 x 104 −0.2 −0.15 −0.1 −0.05 0 0.05

Estimação para frente

Tempo â1 0 5 10 x 104 −0.2 −0.15 −0.1 −0.05 0 0.05 Estimação para trás Tempo â1 0 5 10 x 104 −0.2 −0.15 −0.1 −0.05 0 0.05 Estimação SFIS Tempo â1

Figura 1 – Estimação baseada em EWP usando dados ordenados normalmente (esquerda), inversamente (centro) e a combinação das duas chamada estimação SFIS (direita). As linhas continuas mostram os sinais estimados e as linhas tracejadas mostram os sinais de referência.

O resultado da estimação do primeiro parâmetro 𝜌1(𝑘), baseada no algoritmo SFIS, é mostrado na figura (1). A combinação das estimações para frente e para trás mostradas nas duas primeiras figuras, gera a estimação suavizada mostrada na terceira.

2.3

O modelo de regressão linear com parâmetros que dependem do

estado (SDP)

Neste trabalho, o modelo de regressão linear com SDP é representado pela seguinte equação (2.7): 𝑦(𝑘) = z𝑇(𝑘)𝜌(𝑘) + 𝑒(𝑘); 𝑒(𝑘) = 𝒩 (0, 𝜎2) (2.7) onde, z𝑇(𝑘) = [︁ −𝑦(𝑘 − 1) −𝑦(𝑘 − 2) · · · −𝑦(𝑘 − 𝑛) 𝑢(𝑘 − 𝜏 ) · · · 𝑢(𝑘 − 𝜏 − 𝑚) ]︁ 𝜌(𝑘) = [︁ 𝜌1{𝒳 (𝑘)} 𝜌2{𝒳 (𝑘)} · · · 𝜌𝑛+𝑚+1{𝒳 (𝑘)} ]︁𝑇

O vetor de regressão z(𝑘) é composto da medida 𝑦(𝑘) e da entrada externa 𝑢(𝑘). Os SDPs 𝜌𝑖, 𝑖 = 1, 2, ...𝑛 + 𝑚 + 1, com respeito aos parâmetros 𝑎𝑖 ou 𝑏𝑖, são supostos ser funções

(37)

2.4. Proposta do Young para estimação de SDP 11

de alguma variável no vetor de estado 𝒳𝑇(𝑘) =[︁ z𝑇(𝑘) U𝑇(𝑘) ]︁, onde U(𝑘) é um vetor de outras variáveis que podem afetar a relação entre as variáveis 𝜌𝑖 e 𝒳 (𝑘). Além disso, 𝜏 é um fator de retardo na variável de entrada e 𝑒(𝑘) é um ruido branco de media zero.

Para simplificar, supomos que cada SDP é uma função de só uma variável de estado. A seguinte equação (2.8) é um simples e típico exemplo do tipo de modelo ARX-SDP:

𝑦(𝑘) = 𝑎1{𝑦 (𝑘 − 1)} 𝑦 (𝑘 − 1) + 𝑏0{𝑢 (𝑘)} 𝑢 (𝑘) + 𝑒 (𝑘) (2.8)

onde 𝑎1{𝑦 (𝑘 − 1)} = 𝜐 − 𝜐𝑦 (𝑘 − 1) e 𝑏0{𝑢 (𝑘)} = 1.0 ∀𝑘.

Uma característica interessante deste modelo é que ele pode ter respostas do simples ao complexo dependendo de 𝜐 (YOUNG et al., 2001).

2.4

Proposta do Young para estimação de SDP

Young propõe um método interessante e simples que simplifica o problema de estima-ção SDP baseado em um reordenamento dos dados que é detalhado a seguir. Este método é interessante por demostrar a sua utilidade prática em casos de dependência entre parâmetros e estados. O método separa todo o processo em duas partes; a primeira consiste na estimação não paramétrica das relações entre os parâmetros e os estados; para isto faz uso de reorde-namento de dados e do algoritmo FIS; a segunda consiste na parametrização dos resultados obtidos na primeira parte. Como resultado final se tem uma nova e mais exata estrutura do modelo de regressão linear inicial (YOUNG et al., 2001).

2.4.1

Reordenamento de dados e estimação SDP

Neste trabalho, um reordenamento temporal de dados é considerado como uma

trans-formação de dados, onde só a ordem no tempo é afetada. Isto é feito para simplificar o

processo de estimação reduzindo a rápida variação estocástica, ou a elevada entropia, dos dados. Neste caso são considerados dois espaços de observação, chamados de espaço não transformado e espaço transformado. A Fig. 2, mostra os dois tipos de espaços de observação quando o reordenamento gera dados ascendentes.

A proposta de estimação SDP de Young considera que o reordenamento dos dados deve ser feito baseado em um estado escolhido. Neste processo é importante salvar o vetor de índices originais pois ele vai ser usado para voltar os resultados ao espaço não transformado. Além disso, todos os outros estados e regressores do modelo também devem ser reordenados segundo os índices obtidos.

(38)

2.5. Parametrização das relações estado - parâmetro estimadas 12 0 200 400 600 800 1000 −2 −1 0 1 2

Observação no espaço não transformado

Tempo y(k) 0 200 400 600 800 1000 −2 −1 0 1 2

Transformação de dados reordenados (TDR)

Índices de tempo reordenado

y*(k)

Figura 2 – Efeito do reordenamento temporal em um sinal 𝑦(𝑘) de alta entropia.

A suavização do estado reordenado gera também uma suavização no parâmetro que depende dele, sempre que a dependência exista. Esta suavização de estado e parâmetro faz possível o uso de algum algoritmo convencional de estimação de TVP. Para isto, Young usa o algoritmo de suavização ótima FIS. Como resultado se obtém um conjunto de pontos que representam a relação entre estado e parâmetro. A seguinte etapa do método, chamada de parametrização ou ajuste, pode ser feita por muitos métodos como: aproximação de funções base, funções de base radial (RBF), regressão por vetores suporte (SVR), etc.

2.5

Parametrização das relações estado - parâmetro estimadas

A primeira etapa de estimação SDP consiste em determinar a forma da dependência dos SDPs. Mas essa forma é obtida de forma não paramétrica e é representada como pontos em um gráfico do estado 𝑥𝑖 vs o parâmetro 𝜌𝑖. A segunda etapa consiste na parametrização desses resultados. Nesta seção, se mostram brevemente os conceitos gerais de dois métodos de parametrização: regressão mediante vetores suporte e soma de funções base. Eles são usados nos exemplos 2 e 3 respectivamente. O aporte deste trabalho não tem a ver com esta etapa de parametrização e seu uso só serve para ter uma medida dos erros de estimação e para poder comparar os nossos resultados com os do CAPTAIN. Então, a leitura desta seção não é indispensável para entender o aporte deste trabalho.

(39)

2.5. Parametrização das relações estado - parâmetro estimadas 13

2.5.1

Regressão mediante vetor suporte (SVR)

Nesta secção se mostra conceitos gerais de Support Vector Regression (SVR); para mais detalhes ver (SMOLA; SCHÖLKOPF, 2004). O objetivo do problema SVR é a apren-dizagem da função:

𝑓 (x) = wT𝜙(x) (2.9)

Isto da uma boa aproximação de um conjunto de dados {x𝑖, 𝑦𝑖} 𝑛

𝑖=1 onde x𝑖 ∈ R𝑚 e 𝑦𝑖 ∈ R é a saída observada, {𝜙 (𝑥)}𝑚𝑗=1𝑏 é um conjunto de funções base não lineares que mapeiam um espaço de entrada em um espaço específico, o vetor de parâmetros w ∈ R𝑚𝑏 é

desconhecido. O problema é calcular as estimativas de w que minimizam a norma ‖w‖2 =

w𝑇w. Então podemos descrever o problema como um problema de otimização convexa:

minimizar: 1 2w Tw sujeito a: 𝑦𝑖− wT𝜙(x𝑖) ≤ 𝜀 wT𝜙(x 𝑖) − 𝑦𝑖 ≤ 𝜀 𝑖 = 0, 1, . . . , 𝑛 (2.10)

O método de vetor suporte (SV) foi primeiro desenvolvido para reconhecimento de padrões (CORTES; VAPNIK, 1995). Para generalizar o algoritmo SV para o caso de regres-são, foi construída uma margem suave análoga no espaço da saída observada 𝑦 usando a função de custo 𝜀-insensível de Vapnik (VAPNIK, 1995) descrita por:

𝑐(x, 𝑦, 𝑓 (x)) := |𝑦 − 𝑓 (x)|𝜀 := max{0, |𝑦 − 𝑓 (x)| − 𝜀} (2.11)

A Fig. 3 mostra a situação graficamente. Somente os pontos fora da região sombreada contribuem ao custo na medida, os desvios são penalizados de forma linear.

Agora, podemos transformar o problema de otimização (2.10) introduzindo variáveis de folga, denotados por 𝜉𝑖, 𝜉𝑖′. Assim, chegamos à formulação:

Minimizar: 1 2w Tw + 𝐶 𝑛 ∑︁ 𝑖=0 (𝜉𝑖+ 𝜉𝑖′) sujeito a: 𝑦𝑖− wT𝜙(x𝑖) ≤ 𝜀 + 𝜉𝑖 wT𝜙(x 𝑖) − 𝑦𝑖 ≤ 𝜀 + 𝜉𝑖𝜉𝑖, 𝜉𝑖 ≥ 0 𝑖 = 0, 1, . . . , 𝑛 (2.12)

(40)

2.5. Parametrização das relações estado - parâmetro estimadas 14 𝑥 𝑦 × × × ××××× ×× ×× × × ×× × × ×× × × 𝜉 × ×𝜉+𝜀 0 −𝜀

(a) Um tubo com raio 𝜀 é ajustado aos dados para um problema de regres-são linear unidimensional.

𝑦 − 𝑓 (x, w) 0 𝑐𝜀(𝑦, 𝑓 (x, w)) −𝜀 +𝜀 × × 𝜉 × ×𝜉

(b) A função de custo linear

𝜀-insensível.

Figura 3 – Perda de margem suave para um SVR linear.

onde, o termo de regulação 12wTw penaliza a complexidade do modelo, e 𝐶 é uma ponderação não negativa que penaliza quanto o erro de predição excede o umbral ou threshold

𝜀.

O problema de minimização (2.12) é complexo de resolver quando o numero 𝑛 é grande. Para abordar estes assuntos, pode-se resolver o problema primal através do dual, que pode ser formulado encontrando um ponto de sela (saddle point) do Lagrangiano associado (VAPNIK, 1995). 𝐿(w,𝜉, 𝜉, 𝛼, 𝛼, 𝛽, 𝛽′) =1 2||w|| 2+ 𝐶 𝑛 ∑︁ 𝑖=0 (𝜉𝑖+ 𝜉𝑖) − 𝑛 ∑︁ 𝑖=0 (𝛽𝑖𝜉𝑖 + 𝛽𝜉𝑖′) + 𝑛 ∑︁ 𝑖=0 𝛼𝑖(𝑦𝑖 − wT𝜙(x𝑖) − 𝜀 − 𝜉𝑖) + 𝑛 ∑︁ 𝑖=0 𝛼𝑖(wT𝜙(x𝑖) − 𝑦𝑖− 𝜀 − 𝜉𝑖) (2.13)

Ele é minimizado com respeito a w, 𝜉𝑖 e 𝜉𝑖′ e maximizado com respeito aos multipli-cadores de Lagrange 𝛼𝑖, 𝛼𝑖, 𝛽𝑖, 𝛽𝑖′ ≥ 0. Disto resulta a condição de ponto de sela: as derivadas parciais de 𝐿 com respeito às variáveis principais (w𝑖, w0, 𝜉𝑖, 𝜉𝑖) tem que ser nulas pela oti-mização.

(41)

2.5. Parametrização das relações estado - parâmetro estimadas 15 𝜕w𝐿 = w − 𝑛 ∑︁ 𝑖=1 (𝛼𝑖− 𝛼𝑖)x𝑖 = 0, (2.14) 𝜕𝜉𝑖𝐿 = 𝐶 − 𝛼𝑖− 𝛽𝑖 = 0, (2.15) 𝜕𝜉𝑖𝐿 = 𝐶 − 𝛼𝑖− 𝛽𝑖 = 0, (2.16) 𝑖 = 1, . . . , 𝑛 𝜕w0𝐿 = 𝑛 ∑︁ 𝑖=0 (𝛼𝑖− 𝛼𝑖′) = 0 (2.17)

Substituindo (2.14)–(2.17) em (2.13) obtemos o problema de otimização dual:

Maximizar: −1 2 𝑛 ∑︁ 𝑖,𝑗=0 (𝛼𝑖− 𝛼𝑖)(𝛼𝑗− 𝛼𝑗)𝜙(x𝑖)T𝜙(x𝑗) + 𝑛 ∑︁ 𝑖=0 (𝛼𝑖− 𝛼𝑖)𝑦𝑖− 𝜀 𝑛 ∑︁ 𝑖=0 (𝛼𝑖+ 𝛼𝑖) sujeito a: 𝑛 ∑︁ 𝑖=0 (𝛼𝑖− 𝛼𝑖) = 0 0 ≤ 𝛼𝑖, 𝛼𝑖 ≤ 𝐶 𝑖 = 0, 1, . . . , 𝑛 (2.18)

Derivando (2.18) eliminamos as variáveis duais 𝛽𝑖, 𝛽𝑖′ mediante as condições (2.15) e (2.16). A Eq. (2.14) pode ser reescrita como segue:

w =

𝑛

∑︁

𝑖=1

(𝛼𝑖− 𝛼𝑖)𝜙(x𝑖) (2.19)

As correspondentes condições de complementaridade de Karush-Kuhn-Tucker (KKT) são: 𝛼𝑖(𝑦𝑖− wT𝜙(x𝑖) − 𝜀 − 𝜉𝑖) = 0 (2.20) 𝛼𝑖(wT𝜙(x𝑖) − 𝑦𝑖− 𝜀 − 𝜉𝑖) = 0 (2.21) 𝜉𝑖𝜉𝑖 = 0, 𝛼𝑖𝛼𝑖 = 0 (2.22) (𝛼𝑖− 𝐶)𝜉𝑖 = 0, (𝛼𝑖− 𝐶)𝜉𝑖 = 0 (2.23) 𝑖 = 0, 1, . . . , 𝑛

De (2.20) a (2.21) segue-se que os multiplicadores de Lagrange podem não ser nulos somente para |𝑦𝑖 − 𝑓 (x𝑖)| ≥ 𝜀; i.e., para todas as amostras no interior to 𝜀-tubo (a região

(42)

2.5. Parametrização das relações estado - parâmetro estimadas 16

sombreada na Fig. 3a) onde 𝛼𝑖, 𝛼𝑖 desaparecem. Isto ocorre porque quando |𝑦𝑖− 𝑓 (x𝑖)| < 𝜀, os segundos fatores em (2.20) e (2.21) não são nulos; daqui 𝛼𝑖, 𝛼𝑖 precisa ser zero para que as condições de KKT sejam satisfeitas. Portanto, temos uma expansão esparsa de w em termos de x𝑖 (nós não precisamos de todos os x𝑖 para descrever w). As amostras que vêm com coeficientes que não desaparecem são chamadas de vetores suporte. Assim, substituindo (2.19) em (2.9) produz-se a chamada expansão do vetor suporte:

𝑓 (𝑥) =

𝑛𝑠𝑣

∑︁

𝑖=0

(𝛼𝑖− 𝛼𝑖)𝜙(x𝑖)T𝜙(x) (2.24)

onde 𝑛𝑠𝑣 é o número de vetores suporte. Agora, uma nota final tem que ser feita considerando o vetor de funções base 𝜙(x). Em (2.18) e (2.24) elas aparecem apenas em produtos internos. Isto é importante, pois em muitos casos uma função Kernel 𝐾(x𝑖, x𝑗) = 𝜙(x𝑖)T𝜙(x𝑗) pode ser definida e evita a necessidade de calcular o vetor 𝜙(x) explicitamente. Isto é possível só se a função Kernel satisfaz as condições de Mercer. Para mais detalhes ver (SCHÖLKOPF; SMOLA, 2001)

2.5.2

Regressão mediante soma de funções base

Este método de regressão consiste em propor funções candidatas, chamadas funções base, que mediante uma soma ponderada procuram obter o ajuste dos pontos com base nos mínimos quadrados. O objetivo é obter as ponderações que representam os graus de participação de cada função base para obter o melhor ajuste (HAYKIN, 1994).

O modelo de ajuste baseado em soma de funções base é útil quando o objetivo da estimação SDP é validar um modelo físico onde as funções base são conhecidas. Este é o caso do exemplo numérico apresentado na seção 4.2.3.

Assim, seja um modelo de regressão linear na forma:

𝑓 (𝑥) =

𝑚

∑︁

𝑗=1

𝑤𝑗ℎ𝑗(x) (2.25)

onde 𝑤 é o vetor de pesos e ℎ𝑗 representa a j-ésima função base. Seja o conjunto de treinamento dado por {(x𝑖, 𝑠𝑖)}𝑁𝑖=1. No nosso caso, esses dados são os pontos obtidos na estimação da relação entre SDP e estado. Agora temos que minimizar a função de custo

𝐽 (𝑤) =∑︀𝑁

𝑖=1(𝑠𝑖− 𝑓 (x𝑖)) 2

em relação a 𝑤.

Para obter a solução ótima, primeiro temos que diferenciar a função de custo em relação aos parâmetros ajustáveis, depois igualar isso a zero e finalmente resolver o sistema de equações. Agora, definindo a matriz H, com sua j-ésima coluna dada por h𝑗, temos:

(43)

2.5. Parametrização das relações estado - parâmetro estimadas 17 𝐻 =[︁h1 h2 . . . h𝑚 ]︁ = ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ 1(x1) 2(x1) · · · ℎ𝑚(x1) 1(x2) 2(x2) · · · ℎ𝑚(x2) .. . ... . .. ... 1(x𝑁) ℎ2(x𝑁) · · · ℎ𝑚(x𝑁) ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦

sendo possível reescrever o sistema de equações lineares como segue:

H𝑇f = H𝑇s

onde a i-ésima componente do vetor f pode ser apresentada na forma:

𝑓𝑖 = 𝑓 (x𝑖) = 𝑚 ∑︁ 𝑟=1 𝑤𝑟ℎ𝑟= [︁ 1(x𝑖) ℎ2(x𝑖) · · · ℎ𝑚(x𝑖) ]︁ w (2.26)

permitindo expressar f em função da matriz H, de modo que f = Hw. Substituindo isto no sistema de equações lineares, resulta a solução ótima para o vetor de pesos da com-binação linear:

𝑤 =(︁H𝑇H)︁−1H𝑇s (2.27)

Para que a matriz inversa (︁H𝑇H)︁−1 exista, basta que a matriz H tenha posto com-pleto.

Relacionando os dados de treinamento com as variáveis usadas no caso SDP, então a saída s se corresponde com o parâmetro 𝜌 e o vetor x se corresponde com o estado estimado 𝒳𝑗.

Agora derivamos a nova estrutura do modelo da equação (2.7) com os SDPs estimados:

𝑦(𝑘) = z𝑇(𝑘)𝜌(𝑘) + 𝑒(𝑘); 𝑒(𝑘) = 𝑁 (0, 𝜎2) (2.28)

Então obtemos a seguinte estrutura não linear:

̂ 𝑦(𝑘) = z𝑇(𝑘) {𝑓 (x𝑖)} = z𝑇(𝑘) {︁[︁ 1(𝒳𝑗(𝑘)) ℎ2(𝒳𝑗(𝑘)) · · · ℎ𝑚(𝒳𝑗(𝑘)) ]︁ w}︁ (2.29)

onde ℎ𝑗 são as funções base que dependem dos seus respectivos estados 𝒳𝑗, e w é obtido mediante a equação (2.27).

(44)

Parte II

Algoritmo de estimação de modelos com

dependência parâmetro - estado (SDP)

(45)

19

3 Algoritmo de estimação SDP On-Line

A proposta de estimação SDP de Young (YOUNG, 2000) está limitada ao modo

Off-Line. Neste capítulo se apresenta a principal contribuição deste trabalho. As principais

limitações encontradas no SDP Off-Line, implementado como uma função para Matlab den-tro do toolbox CAPTAIN (TAYLOR et al., 2007), são que o tempo de execução é alto e o código que é fechado, i.e. não é possível ter o controle do código para adaptá-lo ao caso

On-Line. Então a implementação da nossa proposta On-Line tem como etapa prévia o

desen-volvimento do algoritmo Off-Line baseado no pseudocódigo Back-fitting Algorithm for SDP

Models (YOUNG, 2000). Uma diferença importante do nosso algoritmo Off-Line é que o

reor-denamento ascendente é feito de acordo com o estado 𝑥𝑖(𝑘), ao invés de com o regressor 𝑧𝑖(𝑘), pois no caso de Young se supõe que eles coincidem. Esta consideração permite facilidades práticas em alguns casos, ver exemplo 4.2, onde todos os regressores são considerados veto-res unitários e um reordenamento baseado nos regveto-ressoveto-res não gera nenhuma suavização nos dados. Outra diferença importante é que o fator de esquecimento do algoritmo de estimação FIS não é otimizado; e é obtido baseado em outros princípios, ver 3.1, que também geram bons resultados. Esta consideração é importante na implementação do algoritmo On-Line, pois a execução dele ficou bem mais rápida que a do CAPTAIN.

No caso On-Line, o objetivo é monitorar a dependência do parâmetro com o estado, isto conforme chegam novos dados. Para cada processo recursivo dos dados no caso

On-Line, não confundir com processo iterativo dos dados mostrado na Fig. 4, foi considerada

uma janela retangular em movimento para representar a memoria do estimador ao invés de uma janela de ponderação exponencial dos dados do passado. A justificação disto é que na janela exponencial os dados antigos têm menor ponderação, mas em nosso caso para a estimação SFIS, os dados foram previamente reordenados temporalmente. Então, antes de tentar propor um reordenamento da ponderação e por simplicidade, foi considerada neste trabalho uma simples janela retangular em movimento.

Para descrever a estimação SDP, mostraremos detalhadamente a parte iterativa do algoritmo. De 2.7, seja o modelo ARX-SDP:

𝑦 = z𝑇(𝑘) 𝜌 (𝑘) + 𝑒(𝑘); 𝑒(𝑘) = 𝒩(︁0, 𝜎2)︁ (3.1)

Da equação 3.1 fazemos uma primeira estimação dos parâmetros 𝜌𝑖𝑛𝑖𝑐𝑖𝑎𝑙

𝑖 (𝑘) mediante o algoritmo SFIS, configurando o modelo GRW a cada parâmetro. Em modelos ARX-SDP

(46)

20 ϭ Ϯ ϯ ͘͘͘ ŬͲϭ Ŭ Ŭнϭ ͘͘͘ EͲϮ EͲϭ E Ϯϰ ϳ ϱϭ ͘͘͘ ϭϭ Ŭ ϯ ͘͘͘ ϵ ϮϬ E Ϯϰ ϳ ϱϭ ͘͘͘ ϭϭ Ŭ ϯ ͘͘͘ ϵ ϮϬ E ʌŝƚсϭ ড ʌŝƚсϮ ড Ϯϰ ϳ ϱϭ ͘͘͘ ϭϭ Ŭ ϯ ͘͘͘ ϵ ϮϬ E ʌŝƚсũ ড &ŝůƚƌŽƌĞĐƵƌƐŝǀŽ W ƌ Ž Đ Ğ Ɛ Ɛ Ž / ƚ Ğ ƌ Ăƚ ŝǀ Ž ʌŝŶŝĐŝĂů ড

͘



͘



͘

:ĂŶĞůĂĞŵŵŽǀŝŵĞŶƚŽ

Figura 4 – Representação dos processamentos de dados recursivo e iterativo para uma janela retangular.

esta primeira estimação é muito ruim e não diz nada das dependências dos SDP, mas ajuda como ponto de inicio do algoritmo recursivo. Então se tem:

̂

𝜌𝑖(𝑘|𝑁 ) = 𝜌𝑖𝑛𝑖𝑐𝑖𝑎𝑙𝑖 (𝑘) (3.2)

Com isto obtemos a variável dependente modificada 𝑦𝑚𝑑𝑣𝑖(𝑘):

𝑦𝑚𝑑𝑣𝑖(𝑘) = 𝑦(𝑘) −

∑︁

𝑗̸=𝑖

𝑧𝑗(𝑘) ̂𝜌𝑗(𝑘|𝑁 ) (3.3)

Da equação 3.3 calculamos a sinal 𝑦𝑚𝑑𝑣𝑖(𝑘) e com isso obtemos o seguinte modelo de

um único SDP:

𝑦𝑚𝑑𝑣𝑖(𝑘) = 𝑧𝑖(𝑘) 𝜌𝑖{𝑥𝑖(𝑘)} (3.4)

Na equação 3.4, antes de calcular o parâmetro 𝜌𝑖, reordenamos os dados segundo a ordem crescente de 𝑥𝑖 para suavizar o sinal de 𝑦𝑚𝑑𝑣𝑖(𝑘). Denotamos com (*) os dados

reordenados: 𝑥𝑖 −→ 𝑥*𝑖 (3.5) 𝑦𝑚𝑑𝑣𝑖 −→ 𝑦 * 𝑚𝑑𝑣𝑖 (3.6) 𝑧𝑖 −→ 𝑧𝑖* (3.7)

(47)

3.1. O problema do fator de esquecimento quando os dados são reordenados 21

A suavização do regressor 𝑧𝑖 dependerá da correlação que tenha com o estado 𝑥𝑖. Experimentalmente a única correlação importante para o sucesso do método é a dos sinais

𝑦𝑚𝑑𝑣𝑖 e 𝑥𝑖. Com os dados reordenados, o modelo da equação 3.4 vira:

𝑦𝑚𝑑𝑣* 𝑖(𝑘) = 𝑧 * 𝑖 (𝑘) 𝜌 * 𝑖 (𝑘) (3.8)

Mediante o algoritmo SFIS obtemos uma nova estimação de 𝜌*

𝑖 (𝑘); agora temos que ordená-la novamente usando os mesmos índices obtidos no processo de ordenamento ascen-dente de 𝑥𝑖:

̂

𝜌*𝑖 (𝑘|𝑁 ) −→ ̂𝜌𝑖(𝑘) (3.9)

Do ordenamento 3.9 se obtém um novo SDP ̂𝜌𝑖 que ja mostra um pouco da depen-dência com o estado 𝑥𝑖. O processo descrito tem que ser feito para todos os parâmetros em cada iteração. Só na primeira iteração é usado o 𝜌𝑖𝑛𝑖𝑐𝑖𝑎𝑙

𝑖 (𝑘); as seguintes iterações tem que se basear no último parâmetro estimado em 3.9.

3.1

O problema do fator de esquecimento quando os dados são

reor-denados

O algoritmo SDP Off-Line do CAPTAIN considera a estimação FIS dos dados reor-denados; para entender como isto afeta no algoritmo, é importante redefinir o conceito de sequência (predecessor e antecessor)(SADESHI W. TYCH; YOUNG, 2010).

Na prática o fator de esquecimento 0 < 𝛼 < 1, tipicamente 0.7 < 𝛼 < 0.95, é considerado variável no tempo; a memória de desvanecimento inicialmente é pequena e depois cresce assintoticamente. Segundo isso, o SDP Off-Line implementado no CAPTAIN, otimiza o fator de esquecimento por máxima verosimilhança.

Nós propomos um valor fixo para 𝛼 baseado em outros princípios que demostraram utilidade prática no caso de estimação SDP On-Line. Para entender melhor isto suponhamos o seguinte exemplo: é fácil notar que se 𝛼 = 0.7 então o quarto dado mais antigo ja quase não tem importância pelo baixa ponderação que recebe.

Observando o comportamento dos dados correspondentes aos regressores z(𝑘) e à saída 𝑦(𝑘) reordenados acorde o estado 𝑥𝑖(𝑘), é correto dizer que os dados da vizinhança — entenda-se isto como um pequeno grupo de dados ao redor de 𝑥𝑖(𝑘) e não em termos de limites matemáticos — de 𝑥𝑖(𝑘) se correspondem com os das vizinhanças de z(𝑘) e 𝑦(𝑘) no espaço não transformado mas também é muito provável que isto se mantenha no espaço trans-formado sempre que a vizinhança for pequena. Então mesmo tendo feito um reordenamento

(48)

3.1. O problema do fator de esquecimento quando os dados são reordenados 22 0 2 4 6 8 10 12 0 0.2 0.4 0.6 0.8 1 Número de amostras Função de ponderação α = 0.7 α = 0.95

Figura 5 – Funções de ponderação exponencial EWP para um fator de esquecimento, ou fator de filtro, de 𝛼 = 0, 95 e de 𝛼 = 0, 7.

temporal dos dados, pode-se usar um algoritmo FIS que pode ter um fator de esquecimento relativamente baixo sem afetar o rendimento do algoritmo. Desde este ponto de vista o fa-tor de esquecimento pode ser melhor chamado como um fafa-tor do filtro. Experimentalmente valores baixos de 𝛼 demostraram gerar resultados satisfatórios e rápidos. Uma observação que justifica a necessidade do uso de um 𝛼 baixo é que os resultados são mais flexíveis às mudanças do modelo, importante no caso On-Line. Uma desvantagem observada na prática é que os pontos da estimação ficam mais dispersos, mas isto pode ser facilmente resolvido usando algum algoritmo de ajuste, ver 2.5. Esta é a diferença facilmente apreciável quando são comparadas a execução do nosso código e a do CAPTAIN.

Disto concluímos que no nosso caso de interesse, SDP On-Line, o fator 𝛼 terá valor fixo e relativamente baixo. Não é objetivo deste trabalho propor um método para a sua obtenção, só mencionar que depende do modelo, do seu tempo de resposta ao impulso e da riqueza dos dados.

Também ressaltaremos a seguinte vantagem importante da nossa proposta: No CAP-TAIN, as regiões de baixa densidade de amostragem (geralmente nos extremos) são afetadas consideravelmente pela ponderação com os dados de alta densidade depois do reordenamento de dados. Isto é gerado pelo fator de esquecimento otimizado que usa internamente. No nosso caso, sendo o fator de esquecimento fixo e relativamente baixo, as regiões de baixa densidade são melhores que no caso do CAPTAIN. Isto é melhor explicado na Fig. 16 do exemplo 4.2.3.

(49)

3.2. O problema do offset da estimação quando os regressores são unitários 23

3.2

O problema do offset da estimação quando os regressores são

unitários

O modelo da equação 3.1 permite a opção de que os regressores z(𝑘) possam ser distintos dos estados 𝑥(𝑘); nesse caso o reordenamento dos dados pode ser acorde a um estado 𝑥𝑖(𝑘) que não esteja contido no vetor z(𝑘). Isto é principalmente útil em casos onde é preferível não ter regressor no modelo, i.e. 𝜌(𝑘) = 1, 𝑘 = 1, 2, 3, ..., 𝑁 . O exemplo 4.2 mostra a utilidade deste caso, onde experimentalmente pode-se apreciar que a forma da dependência é melhor estimada quando não é considerado o regressor. Isto é obvio como cada parâmetro é estimado in turn com base nas séries obtidas quando são subtraídos todos os outros termos do modelo 2.7. Seja a saída de variável dependente modificada (MDV), representada pela equação:

𝑦𝑚𝑑𝑣𝑖(𝑘) = 𝑦(𝑘) −

∑︁

𝑗̸=𝑖

𝑧𝑗(𝑘)̂𝜌𝑗(𝑘|𝑁 ) (3.10)

ou 𝑦𝑚𝑑𝑣𝑖(𝑘) = 𝜌𝑖(𝑘)𝑧𝑖(𝑘), porém se no modelo 𝑧𝑖(𝑘) = 1, 𝑘 = 1, 2, 3, ..., 𝑁 , então a

estimação será imediata 𝑦𝑚𝑑𝑣𝑖(𝑘) = 𝜌𝑖(𝑘) e o reordenamento dos dados em função do estado 𝑥𝑖(𝑘) junto com a estimação SFIS servirá simplesmente como um ato de forçar o parâmetro

𝜌𝑖 a ter a mesma forma de 𝑦𝑚𝑑𝑣𝑖(𝑘). Isto tem sentido se observamos que na equação 3.10 os

efeitos, ou formas, que os outros parâmetros aportam no modelo foram subtraídos.

Isto simplifica muito a estimação e o algoritmo fica bem mais rápido. A desvantagem é que, mesmo quando a forma é bem estimada, ela tem um offset considerável, pois o parâmetro

𝜌𝑖(𝑘) mantem o mesmo nível de 𝑦𝑚𝑑𝑣𝑖(𝑘). Esse é o custo de ter considerado 𝑧𝑖(𝑘) = 1 pois é

a sua interação com 𝜌𝑖(𝑘) em 𝑦𝑚𝑑𝑣𝑖(𝑘) = 𝜌𝑖(𝑘)𝑧𝑖(𝑘) que permite tirar o offset. É importante

aclarar que mesmo assim os parâmetros estimados finalmente são acordes aos dados pois a soma desses offsets, ao substitui-los no modelo, é zero. No caso do exemplo 4.2 se mostra que é mais importante estudar a forma da dependência de cada parâmetro ao invés de conhecer o valor exato delas no modelo físico real.

Uma combinação do modelo com 𝑧𝑖(𝑘) = 1 e do modelo de regressão original, permite corrigir o problema do offset, mas o tempo de execução seria maior. Então pode-se concluir disto que a seleção do tipo de modelo a estimar depende do objetivo do problema que se quer resolver.

(50)

3.3. Reinicialização do algoritmo SDP On-Line 24

I-s I-s+p I I+p

Número de amostras Janela retangular: Ponderação homogênea

Estimação de parâmetros tipo SDP (On-Line)

Figura 6 – Comportamento da janela retangular em movimento para atualização das estima-ções.

3.3

Reinicialização do algoritmo SDP On-Line

Para que a estimação SDP seja em tempo real é considerada uma janela retangular, i.e com ponderação homogênea dos dados, que se move sempre que chegam novos dados, ver Fig. 6. Então é necessário usar os resultados dos parâmetros estimados em uma janela anterior e usá-los como ponto de partida do algoritmo na seguinte janela. Para isto os dados devem ser ricos e prover informação útil em cada janela. Por exemplo, se os dados mantem-se constantes, então cada janela não terá a dinâmica necessária para estimar mudanças nas formas dos SDPs. Geralmente, quando acontece alguma mudança no sistema se geram sinais ricos que podem permitir estimar os novos SDPs. Esta consideração não é problema no caso de series temporais, pois sempre há dinâmica nos sinais.

No caso de modelos físicos reais, que podem não ter uma dinâmica rica que permita uma boa estimação dos parâmetros, se propõe uma primeira etapa Off-Line com dados ricos próprios de um processo de identificação e onde os resultados obtidos ̂𝜌𝑜𝑓 𝑓 𝑙𝑖𝑛𝑒 sejam considerados entradas no processo de análise On-Line. Isto é útil pois o algoritmo recursivo requer uma referência para iniciar a convergência ao novo parâmetro. Quando se tiver novos dados ricos poder-se-á efetuar novamente uma estimação Off-Line para atualizar a nova estrutura do modelo. Nós propomos quatro opções de referência selecionadas pelo bloco Mux que representa um multiplexador ou seletor, ver Fig. 7:

∙ ̂𝜌𝑖𝑛𝑖𝑐𝑖𝑎𝑙: Primeira estimação baseada em SFIS, ao igual que na inicialização no caso da

Off-Line. A desvantagem deste caso é que o algoritmo precisa de muitas iterações para

convergir em cada posição da janela retangular. Esta é a opção mais simples e menos recomendada.

(51)

3.3. Reinicialização do algoritmo SDP On-Line 25

^ŝƐƚĞŵĂ

^W

KŶͲ>ŝŶĞ

dž;ŬͿ nj;ŬͿ

^&/^

DƵdž

^sZ

dƌĞŝŶĂĚŽ

dž;ŬͿ Z ĞĨ Ğ ƌ ġŶ Đ ŝĂ LJ;ŬͿ Ƶ;ŬͿ

ʌ

KŶ>ŝŶĞ

ʌ

ŝŶŝĐŝĂů

ʌ

Ɛǀƌ

ʌ

KŶ>ŝŶĞ

ʌ

KĨĨ>ŝŶĞ ড ড ড ড ড

Figura 7 – Reinicialização do algoritmo de estimação SDP On-Line.

Pode se usar quando se quer monitorar mudanças no sistema tendo como referência um modelo Off-Line cuidadosamente estimado. Pelo fato de não ser parametrizada, a estimação Off-Line precisa ter boa resolução. Uma vantagem desta opção é que assume o sistema como uma caixa preta pois geralmente no processo de parametrização é recomendável ter alguma noção das dependências entre parâmetros e estados.

∙ ̂𝜌𝑠𝑣𝑟 ou ̂𝜌𝑠𝑓 𝑏: Onde as notações 𝑠𝑣𝑟 (support vector regression) e 𝑠𝑓 𝑏 (soma de funções base) indicam o tipo de parametrização escolhida na parte Off-Line. Esta opção é recomendavel quando a estimação não paramétrica não é muito precisa ou tem muito ruido. Uma vantagem desta opção é que pode gerar referências para estados que não estiveram no intervalo de dados da estimação Off-Line

∙ ̂𝜌𝑂𝑛𝐿𝑖𝑛𝑒: Esta opção requer que os sinais envolvidos no processo de estimação tenham dinâmica contínua, por isso é bom no caso de series temporais. Neste caso também é recomendável usar um parametrizador tipo On-Line, por exemplo o On-Line Support

Vector Regression (OSVR).

Dependendo do caso, pode se usar uma ou várias opções para reinicializar nosso algoritmo de estimação SDP On-Line.

(52)

3.4. Pseudocódigo do algoritmo de estimação SDP On-Line 26

3.4

Pseudocódigo do algoritmo de estimação SDP On-Line

1. Definir uma janela 𝑠 que contenha dados significativos e o fator do filtro 𝛼 segundo 3.1.

2. Inicializar parâmetros ̂𝜌𝑘=0

𝑗 , 𝑖 = 1, 2, · · · , 𝑚 + 𝑛 + 1 mediante algoritmo SFIS ou com os resultados de uma estimação SDP Off-Line ̂𝜌𝑜𝑓 𝑓 𝑙𝑖𝑛𝑒, se tiver.

3. Iterar: 𝑖 = 1, 2, · · · , 𝑚 + 𝑛 + 1; 𝑘 = 1, 2, · · · , 𝑘𝑐

4. gerar 𝑦𝑚𝑑𝑣𝑖(𝑘) = 𝑦(𝑘) −

∑︀

𝑗̸=𝑖𝑧𝑗(𝑘).̂𝜌𝑗(𝑘|𝑁 )

5. reordenar 𝑦𝑚𝑑𝑣𝑖(𝑘) e 𝑧𝑖(𝑘) segundo a ordem ascendente de 𝑥𝑖(𝑘); os vetores reordenados

são 𝑦𝑚𝑑𝑣*

𝑖(𝑘) e 𝑧

*

𝑖 respectivamente.

6. obter uma estimação SFIS ̂𝜌𝑖(𝑘|𝑁 ) de 𝜌*𝑖(𝑘) baseada em 𝑦 * 𝑚𝑑𝑣𝑖(𝑘) = 𝜌 * 𝑖(𝑘).𝑧 * 𝑖(𝑘) 7. ordenar 𝜌*𝑖(𝑘) baseado nos mesmos índices da ordenação ascendente feita para 𝑥𝑖(𝑘).

8. atualizar o vetor de parâmetros substituindo o novo 𝜌𝑖(𝑘) obtido no passo anterior.

9. se 𝑖 = 𝑚 + 𝑛 + 1 então plotar os resultados da estimação para essa janela e esperar novos dados.

(53)

Parte III

Referências

Documentos relacionados

Na população estudada, distúrbios de vias aéreas e hábito de falar muito (fatores decorrentes de alterações relacionadas à saúde), presença de ruído ao telefone (fator

The challenges of aging societies and the need to create strong and effective bonds of solidarity between generations lead us to develop an intergenerational

Os principais resultados obtidos pelo modelo numérico foram que a implementação da metodologia baseada no risco (Cenário C) resultou numa descida média por disjuntor, de 38% no

O Processo Seletivo Interno (PSI) mostra-se como uma das várias ações e medidas que vêm sendo implementadas pela atual gestão da Secretaria de Estado.. Importante

Finalizando a análise dos resultados desta pesquisa, os gestores apontaram quais fatores dificultam a apropriação e a utilização dos resultados do SADEAM pelos

da equipe gestora com os PDT e os professores dos cursos técnicos. Planejamento da área Linguagens e Códigos. Planejamento da área Ciências Humanas. Planejamento da área

O fortalecimento da escola pública requer a criação de uma cultura de participação para todos os seus segmentos, e a melhoria das condições efetivas para

Ressalta-se que mesmo que haja uma padronização (determinada por lei) e unidades com estrutura física ideal (física, material e humana), com base nos resultados da