• Nenhum resultado encontrado

PROBLEMA INVERSO APLICADO À IDENTIFICAÇÃO DE PARÂMETROS

Vários estudos são dedicados ao desenvolvimento e concepção de simula- ções numéricas que representam o comportamento dinâmico e estrutural de sistemas e equipamentos mecânicos fieis ao modelo real. O objetivo é fazer com que as simu- lações se comportem de forma similar a quaisquer mudanças realizadas no modelo real. Dessa forma, esses estudos visam, através dessas simulações, viabilizar aplica- ções práticas no modelo real, reduzindo ou até eliminando a probabilidade de colapso estrutural proveniente de eventuais condições críticas de operação, concedendo ao projeto confiabilidade e segurança (BORGES; GUIMARÃES; CARVALHO, 2014).

Diante disso, para que as simulações numéricas sejam eficientes e se com- portem de maneira similar ao sistema real, é indispensável que as propriedades físicas da estrutura (massa, rigidez e amortecimento) sejam estimadas de maneira correta. Nesse sentido, o emprego de técnicas de problema inverso ganha força, se apresen-

tando como uma alternativa viável, capaz de atender essa necessidade. A Figura 5 apresenta o conceito dessas técnicas.

Figura 5 – Classificação dos tipos de problemas Fonte – Adaptado de Viana (2008)

Segundo Santos, Chiwiacowsky e Velho (2014) o problema direto de identi- ficação é caracterizado pelo conhecimento das entradas (características estruturais e condições complementares, como condições iniciais e de contorno), tendo como respostas dados no domínio do tempo ou no domínio da frequência. Por outro lado, um problema inverso se apresenta quando dados de observação já são conhecidos, recolhidos através de sensores de precisão, além do conhecimento das condições complementares do seu sistema, e deseja-se estimar os valores das características estruturais. Um problema inverso de identificação de sistemas pode ser resolvido atra- vés do emprego de técnicas heurísticas de otimização, onde o objetivo é definido como a minimização da diferença entre os valores experimentais mensurados e os obtidos via modelo numérico.

Os métodos de otimização e busca heurística são baseadas nos princípios e modelos de evolução biológica desenvolvidas no século XIX, quando Darwin (1809- 1882) observou a adaptação e adequação dos seres vivos as suas necessidades, dando origem a teoria evolucionista denominada “sobrevivência dos mais aptos”. La- marck (1744-1829) também realizou estudos semelhantes. Análogo ao processo evo- lutivo natural, esses algoritmos desenvolvem conjuntos de soluções potenciais, na qual competem entre si em busca da solução ótima do problema (LOBATO, 2008). Uma notável vantagem apresentada por esse tipo de técnica se dá ao fato das mes- mas não necessitarem que suas funções objetivas apresentem continuidade e dife-

renciação, oferecendo assim campos de aplicação mais amplos (ZOU et al., 2013). Como exemplos de técnicas heurísticas de otimização é possível citar: Algo- ritmo Genético (GA), Colônia de formigas (ACO), Evolução Diferencial (DE), Enxame de Partículas (PSO), entre outras (VIANA, 2008). A técnica de otimização DE foi esco- lhida para ser utilizada no presente trabalho, uma vez que possui poucas variáveis de controle, facilitando a ajustagem e utilização por usuários iniciantes para a aplicação de interesse. Além disso, a técnica apresenta rápida convergência. O apêndice A traz mais informações a respeito da técnica de otimização escolhida.

3.3 ANÁLISE DE INCERTEZAS

Uma grandeza física experimental normalmente é determinada a partir de uma medição, o qual facilmente pode ser influenciada pelas mais diversas formas, como por exemplo: perturbações ambientais, equipamentos descalibrados ou até mesmo propriedades físicas e geométricas incorretas, gerando assim a incerteza (VUOLO, 2000).

As incertezas por sua vez, podem comprometer o funcionamento seguro e efi- ciente de sistemas mecânicos. Assim, a fim de satisfazer as necessidades industriais, que demandam de sistemas e equipamentos mecânicos que oferecem alta confia- bilidade e robustez às condições ambientais, faz-se necessário o desenvolvimento de modelos numéricos mais realistas, que sejam capazes de considerar de forma adequada essas incertezas nos parâmetros e nas entradas desses sistemas (LARA- MOLINA; KOROISHI; STEFFEN, 2014).

Conforme discutido anteriormente, uma metodologia amplamente utilizada para esse propósito, é através de incertezas paramétricas, comumente modeladas medi- ante a teoria de variáveis aleatórias com distribuição normal, permitindo assim, ser completamente descrita pela média e seu desvio padrão.

Dessa forma, os autores Lara-Molina et al. (2015) apresentaram em seu traba- lho uma maneira de modelar as incertezas paramétricas seguindo essa metodologia,

o qual é apresentada pela equação (3.2).

a0(θ ) = a0+ a0δaξ (θ ) (3.2)

Onde, a0representa o valor médio do parâmetro incerto, δarepresenta o grau de dispersão e ξ (θ ) é a variável aleatória normal com θ sendo o processo aleatório. A mesma metodologia de modelagem foi utilizada no presente trabalho, combinados com a simulação de Monte Carlo (MCS) e o Hipercubo Latino.

3.3.1 Simulação de Monte-Carlo

O nome é uma referência à cidade de Monte Carlo, no principado de Mônaco, famosa por seus casinos. Segundo Hromkoviˇc (2013) qualquer algoritmo randomi- zado cujas saídas podem ser consideradas como variáveis aleatórias é denominado como sendo um algoritmo de Monte Carlo. Um algoritmo randomizado por sua vez, pode ser entendido como um conjunto de algoritmos determinísticos, dos quais um é selecionado aleatoriamente para ser utilizado. Dessa forma, a ideia por trás da MCS é repetir esse processo sucessivamente para um elevado número de vezes, tornando possível o cálculo da variabilidade da resposta através de ferramentas estatísticas.

A MCS também pode trabalhar de forma inversa, permitindo ser aplicada a um sistema como um estimador de incertezas, fornecendo sucessivos resultados que seguem o comportamento de números aleatórios, capazes de representar com rea- lismo o intervalo de incerteza dos parâmetros incertos do sistema (PAPADOPOULOS; YEUNG, 2001).

Devido a simplicidade e robustez, o método tem sido muito utilizado nas mais diversas áreas, contando com aplicações em física, decisões em economia e diversas aplicações na engenharia, é claro. Em alguns casos o método também é utilizado como verificador de soluções de outras técnicas analíticas. Contudo, a precisão do método está diretamente ligada ao número de amostras requeridas e a grande limi- tação é justamente o custo computacional exigido na mesma proporção que esse

número aumenta (RUBINSTEIN; KROESE, 2016).

Diante disso, faz-se necessário o uso de técnicas capazes de reduzir esse custo computacional necessário para que a MCS seja realizada, como candidatos, surgem as técnicas de meta-modelos e a amostragem de hipercubo latino.

O uso de meta-modelos (do inglês meta-model ou ainda surrogate model) é uma alternativa bastante utilizada. A ideia é substituir o modelo computacional, muitas vezes complexo, cuja solução levaria horas ou até mesmo dias de processamento, por um modelo simplificado de ordem reduzida, capaz de representar o comportamento do modelo original de forma aproximada e resolvido em um tempo de processamento muito menor (FELDHACKER et al., 2016).

Já a amostragem de hipercubo latino (do inglês Latin Hypercube Sampling ou LHS), é descrita por Helton e Davis (2003), como um procedimento de compromisso capaz de incorporar muitas das características desejáveis de amostragem aleatória e ainda apresentar resultados mais estáveis, reduzindo a variância dos resultados, e consequentemente, o número de simulações necessárias. Na LHS, cada variável aleatória é dividida de forma exaustiva em pequenas faixas de probabilidades iguais, isso faz com que menos pontos sejam necessários para cobrir todo o domínio de forma homogênea. Dessa forma, a LHS é muitas vezes o procedimento de amostragem preferido nas análises de Monte Carlo.

Autores como Song, Li e Lindt (2016), Venanzi (2015) e Koroishi et al. (2012) fazem parte dos muitos trabalhos que utilizaram o método da simulação de Monte Carlo combinado com a amostragem de Hipercubo Latino em problemas estocásticos, dessa forma, a mesma metodologia será aplicada no presente trabalho.

3.3.2 Análise de Sensibilidade

Problemas onde há a necessidade por parte de projestista que uma decisão seja tomada, normalmente, são realizadas com o auxílio de ferramentas, capazes de fornecer informações valiosas a respeito do sistema, matrizes SWOT e cartas de

controle são alguns exemplos dessas ferramentas. A análise de sensibilidade é uma ferramenta alternativa capaz de apresentar e quantificar os parâmetros críticos de um processo ou sistema, isto é, aqueles que são capazes de influenciar de maneira mais significante a resposta de interesse.

Conforme descrito por Borgonovo e Plischke (2016), existem dois principais tipos de análise de sensibilidade, aqueles baseados na sensibilidade global (do in- glês global sensitivity method ), amplamente utilizado em sistemas incertos e os méto- dos locais (do inglês local sensitivity analysis method ), utilizados quando há a neces- sidade da análise em um ponto especifico do seu sistema ou modelo.

Assim, quando os métodos baseados no índice de sensibilidade global são utilizados em sistemas incertos, o objetivo é normalmente, identificar, avaliar e ainda quantificar a influência de cada parâmetro incerto na resposta de interesse do sis- tema (LARA-MOLINA et al., 2015). Em Saltelli et al. (2010), os autores apresentaram em seu trabalho uma maneira estatística, baseada na variância para realizar esse tipo de análise. O método decompõe a variância de saída do modelo em frações associ- adas à variação de cada parâmetro incerto. Logo, a implementação do método pode ser realizada mediante a utilização da MCS.

Considere um modelo na forma Y = f (X ), onde Y é uma saída escalar e {X} = [X1, X2, ..., Xk]T é o vetor dos parâmetros incertos independentes. A variância de primeira ordem para um elemento genérico de Xié dada pela equação (3.3).

VXi(EX∼i(Y |Xi)) (3.3)

Onde Xi é o i-nésimo parâmetro e X∼icaracteriza a matriz com todos os parâ- metros, exceto Xi. O operador de esperança interna é a média de Y realizada tomando todos os valores possíveis de X∼i , mantendo Xi fixo. A variância externa é determi- nada tomando todos os valores de Xi. A sensibilidade associada, denominada como coeficiente de sensibilidade de primeira ordem é dada pela equação (3.4).

si=VXi(EX∼i(Y |Xi))

Com si indicando o efeito da variação de Xi dividida pela variação dos outros parâmetros, dessa forma VXi(EX∼i(Y |Xi))varia entre zero e V (Y ). Outra medida, capaz

de medir a contribuição total para a variância de saída Xi, ou seja, efeitos de primeira e ordem maiores (interações) é o índice de efeito total, determinado pela equação (3.5):

sTi=EX∼i(VXi(Y |X∼i))

V(Y ) = 1 −

VX∼i(EXi(Y |w∼i))

V(Y ) (3.5)

Dessa forma, quando o índice de efeito total (STi) é calculado com auxílio da MCS, o número total de avaliação do modelo é dado por Naval = ns(k + 1), onde ns é o número de amostras da MCS e k é a quantidade de parâmetros, ou seja, o tamanho de {X }.

3.4 OTIMIZAÇÃO ROBUSTA

Nos dias atuais, a maioria dos processos ligados a engenharia com aplicações industriais são otimizados em relação a um objetivo, como por exemplo, a minimização do tempo gasto na produção, a redução da emissão de poluentes ou, o que é mais comum, redução nos custos associados a fabricação. Em muitos desses casos, uma aplicação “cega” de ferramentas de otimização é utilizada para produzirem soluções extremas, que conduzem o processo ao extremo sem levar em consideração imperfei- ções, erros de modelo ou incertezas. Como consequência, a segurança do processo é ameaçada e restrições importantes podem ser violadas, comprometendo o processo (HOUSKA, 2011).

Como visto, incertezas de uma forma geral podem afetar negativamente a con- fiabilidade de sistemas mecânicos, portanto, é necessário que seus efeitos também sejam considerados durante o processo de otimização, visando assim, equilíbrio entre custo e segurança na busca do design ideal. Contudo, os processos de otimização são normalmente considerados como puramente determinístico, não sendo capazes de atingir os objetivos determinados de forma segura e eficiente (ZANG; FRISWELL; MOTTERSHEAD, 2005; JENSEN, 2002).

Para os casos estruturais, uma alternativa baseada no “pior caso” surge para solucionar tal problema. A ideia é, a partir de um superdimensionamento do projeto, o projetista ser capaz de garantir que quaisquer alterações sejam suportadas pela estrutura sem sofrer danos, contudo, essa opção é potencialmente cara, inviabilizando soluções com essa linha de raciocínio (MULVEY; VANDERBEI; ZENIOS, 1995).

Dessa forma, Gorissen, Yanıko ˘glu e Hertog (2015) apresentaram em seu tra- balho duas abordagens capazes de lidar com a presença de incertezas nos dados no processo de otimização, são elas, a otimização estocástica (SO - do inglês Stochastic Optimization) e a otimização robusta (RO - do inglês Robust Optimization).

A otimização estocástica possui uma presunção importante, a distribuição ver- dadeira de probabilidade dos dados incertos deve ser conhecida ou estimada, o que normalmente não acontece. Desse modo, se essa condição for satisfeita e a refor- mulação do problema de otimização incerta for computacionalmente tratável, a SO é indicado para o problema.

Por outro lado, a otimização robusta não necessita que a distribuição de proba- bilidade seja conhecida, mas assume que os dados incertos residem em um conjunto de incertezas. Além disso, outro aspecto interessante se dá ao fato de que em suas “versões tradicionais” são assumidas restrições difíceis, não permitindo que as mes- mas sejam violadas quando utilizados dados pertencentes ao conjunto incerto. A RO ainda é vista como uma abordagem popular devido sua ampla aplicação para muitas classes de incertezas e tipos de problemas. Assim, a RO se prova a abordagem mais adequada para ser aplicada em um processo de otimização com dados incertos.

A otimização robusta se baseia no conceito de robustez de um produto ou processo, desse modo, os mesmos são ditos robustos quando são insensíveis aos efeitos da variabilidade, mesmo que a fonte dessa aleatoriedade não seja eliminada. Os objetivos por trás da otimização robusta podem ser melhor representados com au- xílio da Figura 6, onde são demonstrados quatro possíveis tipos de desempenhos, o círculo preto representa o objetivo da otimização a ser alcançado e os pontos denotam a distribuição de resposta com suas respectivas funções densidade de probabilidade.

Logo, através da Figura 6, notam-se quatro diferentes tipos de desempenho, repre-

Figura 6 – Tipos de desempenhos

Fonte – Adaptado de Zang, Friswell e Mottershead (2005)

sentados pelas letras a, b, c e d. Os desempenhos são caracterizados de acordo com dois grandes objetivos: melhorar o desempenho do sistema, representado pelos pon- tos atingindo o alvo (círculo preto), e minimizar a dispersão dos dados, representado por uma esbelta função distribuição de probabilidade dos dados.

Dessa forma, o objetivo da otimização robusta está relacionado ao desempe- nho apresentado pela letra (d), fazendo com que as respostas atinjam o objetivo de- sejado e ao mesmo tempo apresente baixa variabilidade. Assim, um design robusto é aquele que busca otimizar a média e a variância do desempenho simultaneamente e, portanto, é caracterizada como um problema de otimização multi-objetivo e não determinística (ZANG; FRISWELL; MOTTERSHEAD, 2005).

3.4.1 Otimização Multi-objetivo

Visto que a otimização robusta é um problema de otimização multi-objetivo, os conceitos e características desse tipo de problema serão abordados. Geralmente, a otimização está associada ao aprimoramento do rendimento em determinada ativi- dade, buscando a melhoria do único aspecto em interesse, logo, este tipo de problema é caracterizado como otimização de um único objetivo. Entretanto, quando se aper- feiçoa um sistema, geralmente deseja-se que diferentes aspectos sejam melhorados simultaneamente. Como por exemplo, dado um determinado equipamento, sempre se almeja que o mesmo possua uma excelente eficiência necessitando de baixo con- sumo de insumos para tal, caracterizando assim, um problema de otimização multi- objetivo (COLLETTE; SIARRY, 2013).

Geralmente os diferentes objetivos de uma otimização multi-objetivo podem ser representados mediante modelos matemáticos, denominadas funções objetivo, as quais normalmente estão vinculadas a diferentes classes de parâmetros de projeto e restrições. Assim, é possível a representação matemática de um problema de otimi- zação multi-objetivo.

Dado um sistema na forma Y = f (q, z), onde Y caracteriza sua resposta esca- lar, {q} denota os parâmetros de controle ou variáveis de projeto, os quais permitem ajustes e modificações em busca das soluções ótimas. Adicionalmente, {z} denota os parâmetros ruidosos, isto é, aqueles que não podem ser controlados ou que pos- suem incertezas. A otimização multi-objetivo associada à RO consiste em minimizar um determinado objetivo dado por Fob j1(q, z)que pode ser um critério de desempenho,

minimizando ao mesmo tempo as variações produzidas pelas incertezas que são ca- racterizadas pelo objetivo Fob j2(q, z), geralmente estes dois objetivos são conflitantes.

           min{Fob j(q, z)} = [Fob j1(q, z), Fob j2(q, z)] su jeito a: rj(q, z) ≤ 0 j= 1, ..., m e qL≤ q ≤ qU (3.6)

Nessa descrição, {q} = [q1, q2, ..., qn]T caracteriza o vetor formado pelos n parâ- metros a serem controlados, {z} = [z1, z2, ..., zk]T representa os k parâmetros ruidosos, {Fob j(q, z)} denota as funções objetivo associadas a otimização multi-objetivo. Além disso, rj(q, z)é o conjunto de m restrições estabelecidas para o sistema, as quais po- dem ser modeladas como igualdades ou desigualdades lineares, finalmente qL e qU denotam os limites inferiores e superiores do espaço de projeto utilizado na busca dos parâmetros de controle capazes de gerar as soluções ótimas do problema (BORGES; LIMA; STEFFEN, 2010; ZANG; FRISWELL; MOTTERSHEAD, 2005).

De uma forma geral, as otimizações multi-objetivo são solucionadas utilizando algoritmos evolutivos (EA). Assim, quando aplicados, diferente do que ocorre em pro- blemas de um único objetivo, em problemas multi-objetivo os EAs geram um conjunto de soluções ótimas como resultado. Dessa forma, uma maneira rápida e eficiente de avaliar e comparar essa família de soluções obtidas é mediante análise da Frente (Curva ou ainda Fronteira) de Pareto (COELLO; LAMONT, 2004).

3.4.2 Frente de Pareto

Geralmente nos diversos sistemas estudados em engenharia, dificilmente será possível melhorar duas ou mais funções objetivo simultaneamente. Em vista disso, uma maneira de comparar as soluções obtidas em busca da melhor que atenda as necessidades do projetos deverá ser utilizada. Nesse sentido a Frente de Pareto tem sido amplamente utilizada com este propósito. O exemplo a seguir é capaz de apre- sentar um estudo de caso para exemplificar a aplicação da Frente de Pareto.

Considerando uma viga engastada-livre de seção circular, esta possui duas variáveis de projeto: o diâmetro e o comprimento. A estrutura está sob efeito de um

carregamento constante. Assim, deseja-se otimizar a geometria da viga com base em estas duas funções objetivo conflitantes: minimizar o peso da estrutura e reduzir a deflexão de sua extremidade livre. Após realização da otimização multi-objetivo, as soluções obtidas são apresentadas na Figura 7 (DEB, 2001).

Figura 7 – Soluções para o problema da viga engastada-livre Fonte – Adaptado de Deb (2001)

A Figura 7 apresenta cinco diferentes soluções para o problema descrito, de- nominadas de A a E, relacionando-as de acordo com o desempenho nos dois objetivos requeridos. Assim, algumas análises se tornam interessantes. As respostas perten- centes ao conjunto A-D se comportam de uma maneira curiosa, quando um dos obje- tivos é priorizado, o outro sofre, obrigatoriamente degradação. Como exemplo disso, bastar observar o comportamento da solução A, a qual possui a menor massa entre as soluções e ao mesmo tempo a maior deflexão. O inverso é observado com a solução D. Portanto, em um cenário onde ambos objetivos possuem a mesma importância, nenhuma das respostas pertencentes a esse conjunto deve ser encara como melhor que outra. Quando essa característica acontece, essas soluções são denominadas como não dominadas ou ainda soluções ótimas de Pareto, o conjunto dessas por sua

vez, formam a curva imaginária sobre os pontos A-D, denominada como Frente de Pareto (ABRAHAM; JAIN, 2005).

É importante notar ainda a presença de uma solução não ótima, denotada por E na Figura 7. Essa solução não é capaz de apresentar desempenho ótimo em nenhum dos requisitos desejados, entretanto, um fenômeno curioso é percebido. Dife- rente das soluções ótimas, essa solução encontra-se em uma situação onde é possível aperfeiçoar ambos os objetivos desejados (ver Figura 7). Assim, quando comparado com a solução ótima C, por exemplo, essa possui melhor performance em ambos cri- térios analisados, quando isso acontece, é dito que a solução E é dominada por C, tornando-a dispensável na investigação das soluções obtidas.

Portanto, conforme apresentado por Lotov e Miettinen (2008), as principais vantagens da análise da Frente de Pareto são:

∙ A rápida comparação entre as diversas soluções obtidas, a qual é realizada di- retamente pelo desempenho nas funções objetivo desejadas;

∙ a facilidade em identificar qual solução ótima atende melhor as exigências re- queridas.

3.4.3 Algoritmos Evolutivos

Os problemas de otimização multi-objetivo, o qual inclui a otimização robusta, normalmente são resolvidos utilizando EAs, os quais se tratam de algoritmos fun- damentados nos princípios da evolução natural, desenvolvidos visando a busca da solução ótima de determinado problema de otimização.

Métodos de busca e otimização clássicos normalmente utilizam abordagens de ponto a ponto, onde a solução em cada iteração sofre modificações em busca da solução ótima, nesse sentido, ao final do processo, apenas uma solução ótima é encontrada. Os EAs por outro lado, utilizam populações de potenciais soluções em cada iteração, os quais são modificados e aperfeiçoados paralelamente, gerando ao

final do processo, diversas soluções ótimas para o problema. Dessa forma, se um EA é aplicado na resolução de um problema de otimização de um único objetivo, a tendência é que as populações convirjam para a solução ótima do mesmo, entretanto, quando aplicado em um problema multi-objetivo, os membros dessa população ge- ram diversas possíveis soluções, fornecendo assim, múltiplas soluções ótimas para o problema (ABRAHAM; JAIN, 2005).

Assim, a habilidade de encontrar múltiplas soluções em uma única execução, fazem dos EAs a melhor opção na solução de problemas de otimização multi-objetivo.

Documentos relacionados