5.2 Visão Geral da Reconciliação de Dados em Aplicações Industriais
5.2.3 Estratégias de Solução
A estratégia mais simples para resolver o problema de DR não-linear é usar algo- ritmos de programação não-linear para estimar os parâmetros e as variáveis recon- ciliadas simultaneamente. No entanto, quando a dimensão do problema prejudica significativamente o uso de algoritmos padrão de NLP, abordagens de decomposi- ção podem ser usadas, dividindo o problema original em vários subproblemas de dimensão reduzida.
ROD e HANČIL (1980) propuseram um algoritmo iterativo que determina parâ- metros e variáveis independentes separadamente. REILLY e PATINO-LEAL (1981) usaram um método no qual a reconciliação de dados é um subproblema da etapa de estimação de parâmetros. DOVÍ e PALADINO (1989) apresentaram um algoritmo de variação restrito, em que as variáveis dependentes são eliminadas pela resolução das equações do modelo, eliminando assim a necessidade de resolver o problema para ambos os parâmetros e valores reais das variáveis medidas, mas requerendo estimativas para a derivada segunda do modelo. KIM et al. (1990) compararam três estratégias para o problema EVM não linear: EVM de um estágio para reconcili- ação de dados com estimação simultânea de parâmetros, EVM de dois estágios e EVM aninhado. Os critérios de comparação adotados foram custo computacional e valores após convergência para problemas simulados da literatura. Ao avaliar essas estratégias, foram usados os algoritmos de gradiente generalizado reduzido (GRG) e SQP. Os resultados indicaram que a estratégia em dois estágios superou as outras alternativas, permanecendo como a única estratégia recomendada para solução.
Considerando aplicações industriais de DR, a estratégia predominante é a so- lução direta de apenas um problema de DR não linear, em que os parâmetros são estimados juntamente com variáveis reconciliadas (DRPE/EVM) quando presentes. QUELHAS et al. (2013), no entanto, chamou atenção para o fato de que o problema de estimação deve ser cuidadosamente concebido. Lidando com um RTO em duas
etapas e aplicado a uma planta industrial de produção de etileno, mostrou-se que as trajetórias típicas dos coeficientes de transferência de calor estimados indicam que alguns dos parâmetros do modelo não são estimáveis quando a estimação de parâmetros é executada de forma independente e simultânea com o procedimento de reconciliação de dados. Isso pode ser ocasionado pela correlação com outros pa- râmetros e dados de processo ou porque os coeficientes de transferência de calor não afetam a função objetivo significativamente.
Ao estabelecer que a complexidade dos problemas de otimização de elevada di- mensão pode ser reduzida por meio da partição do critério a ser otimizado, HO- DOUIN e EVERELL (1980) desenvolveram uma estratégia na qual o problema ori- ginal é particionado em subsistemas que não são funções das mesmas variáveis. A partição é realizada de tal modo que os subsistemas são mais fáceis de resolver.
Na ferramenta de otimização on-line descrita por ZHANG et al. (1995b), a re- conciliação de dados com detecção simultânea de erros grosseiros e a estimação de parâmetros foram obtidas separadamente em um NLP dedicado para cada função. No entanto, nenhum argumento foi fornecido para justificar esta decisão. A ferra- menta foi criada usando um programa baseado em fluxogramas (Aspen Plus), com recursos de otimização e subrotinas definidas pelo usuário para otimização de pro- cessos e estimação de parâmetros. A reconciliação de dados e a detecção de erros grosseiros foram conduzidas com o estimador da distribuição Normal Contaminada (TJOA e BIEGLER, 1991) implementada em GAMS/MINOS.
WEISS et al. (1996) utilizou um EVM de dois estágios não linear, separando a estimação de parâmetros em um laço externo e a reconciliação de dados em um laço interno, usando o método descrito por VALKÓ e VAJDA (1987). Além disso, a linearização sucessiva foi usada para resolver o laço interno da reconciliação de dados.
LEE et al. (1998) propuseram a reconciliação de dados e otimização on-line para uma planta industrial de utilidades com base na abordagem de decomposição hierár- quica, semelhante à estratégia aplicada por HODOUIN e EVERELL (1980). A estra- tégia decompõe um sistema grande e complexo em vários subsistemas, admitindo-se que a manipulação de subsistemas pequenos no lugar do problema original fornece redução do custo computacional, soluções mais robustas, simplicidade na formulação do problema e fácil manutenção. Em um camada superior, variáveis relacionadas a restrições não lineares ou compartilhadas entre dois ou mais subsistemas são deter- minadas por algoritmos NLP. Quando os valores dessas variáveis são determinados na camada superior, tornam-se parâmetros pré-especificados dos subsistemas da ca- mada mais baixa. Entre outros resultados, LEE et al. (1998) mostraram que a estratégia de decomposição alcançou um valor de função objetivo 37% menor que o obtido com SQP, gastando apenas 5,5% do tempo de computação do SQP, ao
considerar resultados médios de reconciliação de dados para 20 conjuntos de dados para o subsistema de distribuição de vapor.
FABER et al. (2003) propuseram uma estrutura aninhada em três estágios, em que o estágio superior é um NLP para estimação de parâmetros, o estágio interme- diário consiste em vários NLPs, onde as variáveis independentes de cada conjunto de dados individuais são estimadas, e no estágio inferior as variáveis dependentes são avaliadas por meio de uma etapa de simulação. Argumentaram que são necessários apenas os gradientes das variáveis dependentes em relação aos parâmetros nessa es- tratégia. Ao usar a condição de otimalidade do estágio intermediário, argumentaram que as derivadas de segunda ordem não são necessárias no estágio superior, redu- zindo significativamente o custo computacional. Esta estratégia foi posteriormente validada com dados de uma planta piloto de purificação de gás de coqueria (FABER et al., 2004, 2006, 2007).