• Nenhum resultado encontrado

5.2 Visão Geral da Reconciliação de Dados em Aplicações Industriais

5.2.3 Estratégias de Solução

A estratégia mais simples para resolver o problema de DR não-linear é usar algo- ritmos de programação não-linear para estimar os parâmetros e as variáveis recon- ciliadas simultaneamente. No entanto, quando a dimensão do problema prejudica significativamente o uso de algoritmos padrão de NLP, abordagens de decomposi- ção podem ser usadas, dividindo o problema original em vários subproblemas de dimensão reduzida.

ROD e HANČIL (1980) propuseram um algoritmo iterativo que determina parâ- metros e variáveis independentes separadamente. REILLY e PATINO-LEAL (1981) usaram um método no qual a reconciliação de dados é um subproblema da etapa de estimação de parâmetros. DOVÍ e PALADINO (1989) apresentaram um algoritmo de variação restrito, em que as variáveis dependentes são eliminadas pela resolução das equações do modelo, eliminando assim a necessidade de resolver o problema para ambos os parâmetros e valores reais das variáveis medidas, mas requerendo estimativas para a derivada segunda do modelo. KIM et al. (1990) compararam três estratégias para o problema EVM não linear: EVM de um estágio para reconcili- ação de dados com estimação simultânea de parâmetros, EVM de dois estágios e EVM aninhado. Os critérios de comparação adotados foram custo computacional e valores após convergência para problemas simulados da literatura. Ao avaliar essas estratégias, foram usados os algoritmos de gradiente generalizado reduzido (GRG) e SQP. Os resultados indicaram que a estratégia em dois estágios superou as outras alternativas, permanecendo como a única estratégia recomendada para solução.

Considerando aplicações industriais de DR, a estratégia predominante é a so- lução direta de apenas um problema de DR não linear, em que os parâmetros são estimados juntamente com variáveis reconciliadas (DRPE/EVM) quando presentes. QUELHAS et al. (2013), no entanto, chamou atenção para o fato de que o problema de estimação deve ser cuidadosamente concebido. Lidando com um RTO em duas

etapas e aplicado a uma planta industrial de produção de etileno, mostrou-se que as trajetórias típicas dos coeficientes de transferência de calor estimados indicam que alguns dos parâmetros do modelo não são estimáveis quando a estimação de parâmetros é executada de forma independente e simultânea com o procedimento de reconciliação de dados. Isso pode ser ocasionado pela correlação com outros pa- râmetros e dados de processo ou porque os coeficientes de transferência de calor não afetam a função objetivo significativamente.

Ao estabelecer que a complexidade dos problemas de otimização de elevada di- mensão pode ser reduzida por meio da partição do critério a ser otimizado, HO- DOUIN e EVERELL (1980) desenvolveram uma estratégia na qual o problema ori- ginal é particionado em subsistemas que não são funções das mesmas variáveis. A partição é realizada de tal modo que os subsistemas são mais fáceis de resolver.

Na ferramenta de otimização on-line descrita por ZHANG et al. (1995b), a re- conciliação de dados com detecção simultânea de erros grosseiros e a estimação de parâmetros foram obtidas separadamente em um NLP dedicado para cada função. No entanto, nenhum argumento foi fornecido para justificar esta decisão. A ferra- menta foi criada usando um programa baseado em fluxogramas (Aspen Plus), com recursos de otimização e subrotinas definidas pelo usuário para otimização de pro- cessos e estimação de parâmetros. A reconciliação de dados e a detecção de erros grosseiros foram conduzidas com o estimador da distribuição Normal Contaminada (TJOA e BIEGLER, 1991) implementada em GAMS/MINOS.

WEISS et al. (1996) utilizou um EVM de dois estágios não linear, separando a estimação de parâmetros em um laço externo e a reconciliação de dados em um laço interno, usando o método descrito por VALKÓ e VAJDA (1987). Além disso, a linearização sucessiva foi usada para resolver o laço interno da reconciliação de dados.

LEE et al. (1998) propuseram a reconciliação de dados e otimização on-line para uma planta industrial de utilidades com base na abordagem de decomposição hierár- quica, semelhante à estratégia aplicada por HODOUIN e EVERELL (1980). A estra- tégia decompõe um sistema grande e complexo em vários subsistemas, admitindo-se que a manipulação de subsistemas pequenos no lugar do problema original fornece redução do custo computacional, soluções mais robustas, simplicidade na formulação do problema e fácil manutenção. Em um camada superior, variáveis relacionadas a restrições não lineares ou compartilhadas entre dois ou mais subsistemas são deter- minadas por algoritmos NLP. Quando os valores dessas variáveis são determinados na camada superior, tornam-se parâmetros pré-especificados dos subsistemas da ca- mada mais baixa. Entre outros resultados, LEE et al. (1998) mostraram que a estratégia de decomposição alcançou um valor de função objetivo 37% menor que o obtido com SQP, gastando apenas 5,5% do tempo de computação do SQP, ao

considerar resultados médios de reconciliação de dados para 20 conjuntos de dados para o subsistema de distribuição de vapor.

FABER et al. (2003) propuseram uma estrutura aninhada em três estágios, em que o estágio superior é um NLP para estimação de parâmetros, o estágio interme- diário consiste em vários NLPs, onde as variáveis independentes de cada conjunto de dados individuais são estimadas, e no estágio inferior as variáveis dependentes são avaliadas por meio de uma etapa de simulação. Argumentaram que são necessários apenas os gradientes das variáveis dependentes em relação aos parâmetros nessa es- tratégia. Ao usar a condição de otimalidade do estágio intermediário, argumentaram que as derivadas de segunda ordem não são necessárias no estágio superior, redu- zindo significativamente o custo computacional. Esta estratégia foi posteriormente validada com dados de uma planta piloto de purificação de gás de coqueria (FABER et al., 2004, 2006, 2007).

5.2.4

Algoritmos de Otimização para Programação Não Li-