• Nenhum resultado encontrado

CAPÍTULO 4. MODELAGEM E IDENTIFICAÇÃO DE PROCESSOS

4.2. IDENTIFICAÇÃO DE PROCESSOS

4.2.2. Coleta e pré-tratamento dos dados

O desenvolvimento atual nas técnicas digitais de instrumentação, o aumento na capacidade de armazenamento e a melhoria no desempenho dos recursos computacionais atuais, faz possível o monitoramento contínuo em tempo

real do comportamento do processo, onde centenas ou milhares de variáveis de processo são simultaneamente medidas e registradas em volumosos meios de armazenamento (PRATA, 2009b). A informação é facilmente acessível e útil para o desenvolvimento de modelos, otimização e controle da operação das plantas industriais. Entretanto, como os dados são obtidos através de instrumentos físicos que apresentan um nivel de precisão e estão sujeitos a diversas variabilidades na operação do processo, estão naturalmente corrompidos por erros. Portanto, para garantir que os dados forneçam informações precisas e retratem o processo de forma fidedigna, é necessário utilizar procedimentos de pré-tratamento de dados. No entanto, estes procedimentos devem ser utilizados adequadamente para não remover informação útil da variação de interesse.

Segundo Cinar et al., (2005), os outliers (erros grosseiros anômalos) em dados e o ruído do sinal podem ter uma forte influência sobre os valores dos parâmetros e a estrutura dos modelos desenvolvidos. Consequentemente, a detecção de outliers e o pré-tratamento de dados usando técnicas de reconciliação e suavização de dados são críticos para o desenvolvimento de modelos precisos.

Entre os procedimentos de pré-tramento de dados temos os seguintes:

a) Redução de ruído nos sinais

O ruído é um sinal não desejável que varia muito rapidamente (França, 2007), o nível de ruído nos sinais monitorados se trasforma em variação dos dados não relacionada com respeito à saída desejada. Desse modo, os dados, além de informação do processo, podem incluir ruídos procedentes das medições. O propósito da redução de ruído do sinal é separar o ruído da informação do processo. Segundo Cinar et al., (2005) para esse propósito podem ser utilizadas diversas técnicas, tais como:

1) Filtração de ruído utilizando modelos de série de tempo, entre eles filtros que incluem termos com média móvel MA (moving average), e filtros chamados de autoregressivos com média móvel ARMA (autoregressive moving average). O

resultado gráfico é a suavização (smoothing) das variações não lineares, identificando a variação representativa que contém a informação de interesse, com o que se consegue eliminar o ruído aleatório (denoising).

2) Redução de ruído utilizando Análise de Componentes Principais -PCA (Principal

Component Analysis), neste caso, analisam-se as relações entre todas as

variáveis medidas utilizando todo o conjunto de dados. Os componentes principais são um novo conjunto de coordenadas que são ortogonais umas às outras, os primeiros componentes principais (as primeiras coordenadas) recolhem os dados com informação do processo significativa, os outros componentes principais (as outras coordenadas) contêm a maior parte do ruído da medição aleatório. Neste caso, reconstruindo a informação das medições utilizando só os componentes principais com informação do processo, o ruído das medições pode ser separado.

3) Decomposição de sinais, para isso podem ser utilizadas as diversas técnicas explicadas na literatura de processamento de sinais (ORFANIDIS, 1995; HAYES,1996; REIS et al., 2009).

b) Detecção de erros grosseiros ou outliers.

Segundo Prata (2009b), os erros grosseiros são aqueles originários de eventos não aleatórios, tendo pouca ou nenhuma ligação com o valor medido. Podem estar relacionados com mau funcionamento de instrumentos ou falhas no processo (por exemplo, vazamentos). Os outliers são uma classe de erros grosseiros, valores espúrios que correspondem a algum comportamento anormal, resultante de distúrbios não medidos.

Na apresentação gráfica dos dados, os outliers são pontos isolados que podem ser detectados facilmente pela inspeção visual. Bagajewicz (2000) assinala que as tarefas centrais são: identificar a existência, localização e o tipo de erro grosseiro; e determinar o tamanho do erro grosseiro. Após identificar os erros

grosseiros, duas respostas são desejadas: eliminar a medição que contém o erro grosseiro, ou, corrigir a medição ou o modelo.

Segundo (FREITAS, 2009), os dados operacionais podem ser filtrados empregando um filtro de ordem zero que consiste basicamente em substituir toda medida considerada inválida (contraditória ou nula) pela medida anterior. Prata (2009a) usou um filtro de ordem zero para obter valores de frações de polímero extraíveis em xileno quando os valores reais não estavam disponíveis porque os valores determinados off line em laboratório foram obtidos com bastante tempo de atraso, em um estudo de reconcilição de dados e estimação de parâmetros em tempo real em polimerizações de polipropileno.

c) Reconciliaçao empírica de dados

Assumindo-se como ponto inicial para a modelagem empírica a não preexistência de um modelo teórico do processo. O objetivo da reconciliaçao empírica de dados é converter os dados contaminados do processo em informação consistente sobre o comportamento do processo, utilizando como fundamentos para resolver contradições, o conhecimento prático da operação da planta, dados históricos de funcionamento consignados em relatórios e a experiência dos especialistas no processo. Sendo a primeira etapa da reconciliação de dados, a deteção, identificação e eliminação dos outliers.

d) Caracterização estatística básica dos dados.

Realizada a seleção e o pré-tratamento dos dados, podem-se realizar os cálculos de médias, de desvio padrão, da variância e da correlação dos dados obtidos. A análise da associação entre variáveis pode ser realizada por correlação cruzada. Para se calcular o índice de correlação, normalmente utiliza-se o coeficiente de correlação linear r de Pearson, no entanto, um baixo valor desse índice não elimina a hipótese de que as variáveis podem estar correlacionadas de forma não linear. A correlação é dita ser não linear se a taxa de variação entre

variabilidade. Uma baixa variabilidade pode gerar uma baixa correlação, se comparada a uma série com alta variabilidade.

e) Caracterização dinâmica

Neste caso, são empregadas as ferramentas estatísticas para caracterização dinâmica dos dados operacionais. O objetivo é a identificação de períodos de operação em estado estacionário ou transiente. Para tal propósito são realizados cálculos de médias e de variâncias móveis e de seus respectivos intervalos de confiança, e também cálculos de espectros de variância, que consistem no cálculo de variâncias ao longo de todo um horizonte de amostragens, utilizando a estratégia de janelas móveis (FREITAS, 2009).

Documentos relacionados