• Nenhum resultado encontrado

LISTA DE SÍMBOLOS, NOMENCLATURA E ABREVIAÇÕES

2. REVISÃO BIBLIOGRÁFICA E FUNDAMENTOS TEÓRICOS The study of history is a powerful antidote to contemporary

2.2 QUANTIFICAÇÃO DE INCERTEZAS

Nas últimas décadas, as ferramentas de simulação computacional atingiram grandes envergaduras e alcançaram um uso extensivo na concepção de projetos e análise de modelos de pontes, possibilitando a análise de estruturas complexas, como por exemplo as pontes estaiadas.

No entanto, apesar deste considerável sucesso, a confiança no uso de modelos numéricos para predição do comportamento estrutural, pode ser deficiente uma vez que estes apresentem diferenças significativas em relação aos dados experimentais. A crescente complexidade dos sistemas de engenharia e a dispersão entre as respostas experimental – numérica resultam em incertezas, tema que no passado muitas vezes foi negligenciado na análise de elementos finitos (FEA), conforme destaca Klir (2005).

O desenvolvimento de ferramentas de processamento de sinais, bem como o avanço nos ensaios experimentais contribuíram para uma modelagem altamente sofisticada dos sistemas de engenharia. Contudo, embora os modelos possam ser calibrados usando dados de monitoramento, e possam ser usados para a estimativa do comportamento do sistema, as incertezas relacionadas aos dados de entrada, erros e simplificações, premissas feitas na modelagem, incertezas de parâmetros de material, propriedades geométricas, condições de contorno, defeito em instrumentos de monitoração etc. precisam ser melhor incorporadas por meio de modelos de probabilidade.

Nesta perspectiva, o estudo das incertezas nos modelos numéricos é útil para melhorar a credibilidade de um modelo, abordagem que uma análise determinística clássica, por outro lado, tenta apresentar em termos de desempenho nominal, o que quase nunca coincidirá com o desempenho mais provável da estrutura. Desta forma, o valor esperado de uma resposta estrutural não pode ser obtido puramente calculando a resposta associada

aos valores nominais de variáveis aleatórias. Por esta razão, técnicas de análise probabilística específicas são necessárias para estimar a distribuição de probabilidade das respostas dada as distribuições conhecidas ou assumidas nas variáveis de entrada.

Os métodos estatísticos, como a Simulação de Monte Carlo (Monte Carlo Simulation – MCS), fornecem uma solução para incorporar a incerteza na simulação numérica e, assim, comparar a simulação com o teste em termos de probabilidade e confiança ao invés de uma correlação determinista. Neste sentido, as incertezas podem ser levadas em consideração para uma melhor previsibilidade do modelo.

Torna útil distinguir três etapas para quantificação de incertezas: Assimilação de Dados, Propagação de Incerteza e Validação. A assimilação de dados foca nos dados de entrada exigido pelo modelo numérico na simulação, conforme definido por Iaccarino (2008). Dada a incerteza nos parâmetros de entrada, a propagação da incerteza visa avaliar a incerteza dos parâmetros de saída. Vários métodos estão disponíveis na literatura, como os métodos de abordagens baseados em amostragem, por exemplo MCS, adotado neste trabalho e descrito a seguir. Finalmente, várias métricas podem ser usadas para caracterizar a saída do sistema, o uso mais comum dessas informações estatísticas é uma quantificação de incerteza, onde a probabilidade de um resultado é estimada e comparada aos resultados experimentais. Assim, neste contexto de validação, a função de densidade de probabilidade (Probability Distribution Functions – PDF) dos dados de respostas é comparada com dados experimentais para extrair uma medida de confiança nos resultados numéricos, conforme proposto por Oberkampf e Barone (2006).

Em resumo, a assimilação de dados caracteriza as incertezas nos dados de entrada, a propagação de incertezas visa quantificar as incertezas nos parâmetros de saída e, finalmente, a validação estabelece níveis aceitáveis de incerteza no modelo final.

2.2.1 Assimilação de Dados – Características e Modelagem de Incerteza em Pontes Com os avanços em recursos computacionais, existe uma tendência em usar modelos numéricos para simular o comportamento de sistemas complexos, como pontes estaiadas. Em grande parte da literatura, a credibilidade do modelo é avaliada quanto à precisão em relação aos testes experimentais. No entanto, enquanto a precisão do modelo descreve o quão longe estão as respostas em relação aos testes, a quantificação das incertezas

representa a probabilidade das respostas do sistema, conforme pontuado por Kim e Taha (2009).

Um dos objetivos dos métodos de quantificação de incerteza é conceber um modelo para estimar as barras de erros associadas à previsões específicas, numéricas e experimentais, e avaliar a probabilidade de um determinado resultado, o que leva a uma melhor compreensão dos riscos e melhora o processo de tomada de decisão, segundo Oberkampf et al. (2002).

Em geral, a incerteza na simulação numérica pode ser classificada em duas classes principais, incertezas físicas e numéricas. Como exemplo de incerteza física temos as condições de contorno, propriedades de material (e.g. elasticidade, Massa Específica etc.) forma de geometria (e.g. espessura, tolerâncias de fabricação etc.), incluindo ainda a combinação de propriedades geométricas grosseiras, (e.g. comprimento, altura e largura dos elementos, como pilares e tabuleiros). A incerteza física é ainda aumentada, uma vez que muitas dessas propriedades podem variar substancialmente com a temperatura ou o nível de carregamento da estrutura. Por sua vez, as incertezas numéricas são devido à falta de dados sobre os processos físicos, falta de conhecimento do sistema, precisão do modelo matemático, erro de discretização, solução numérica e erros humanos.

Ainda há incertezas relacionadas aos testes experimentais, onde as possíveis causas relacionadas são quanto a definição do teste (e.g. fixação de equipamento, método de excitação, localização do transdutor, sensor, peso etc.), carregamento dinâmico, instrumentação (e.g. calibração, distorções, ruído de cabeamento etc.) e aquisição de dados (e.g. processamento de sinal digital, filtragem etc.). O campo de experimentação exige a consideração de muitos mecanismos de incertezas epistêmicas e aleatórias, bem como erros humanos e subjetividade, incluindo as aplicações na OMA que visam identificar as propriedades dinâmicas de uma estrutura, Ciloglu et al. (2012).

Os modelos de pontes estão repletos de incertezas, algumas das quais são óbvias, e algumas talvez nunca tenham sido consideradas no modelo. As fontes de incertezas são muitas vezes caracterizadas como incerteza associada à aleatoriedade, incerteza aleatória, e a incerteza associada à modelagem imperfeita, incerteza epistêmica, conforme definido por diversos autores como Oberkampf et al. (2002), Oberkampf (2005), Padgett e DesRoches (2007), Frangopol (2008), Bulleit (2008).

A incerteza aleatória é uma variação inerente associada ao sistema físico ou ao meio ambiente, também referida como variabilidade, incerteza irredutível, estocástica e de natureza imprevisível de eventos, propriedades do material, condição do sistema físico etc. segundo Oberkampf (2005).

A incerteza epistêmica deve-se à falta de conhecimento de quantidades ou processos do sistema ou do meio ambiente, também referida como incerteza subjetiva, redutível e incerteza da forma do modelo, e surgem com as hipóteses e simplificações adotadas na modelagem, dados incompletos, ignorância etc. conforme abordado no Guia da American Institute of Aeronautics and Astronautics - AIAA (2002).

A incerteza aleatória caracteriza-se tipicamente por abordagens probabilísticas, por outro lado, as abordagens probabilísticas não podem caracterizar a incerteza epistêmica, uma vez que é difícil inferir qualquer informação estatística pela falta de conhecimento. Neste caso, a incerteza epistêmica também se denomina redutível porque pode ser reduzida com o aumento do estado do conhecimento ou a coleta de mais dados.

Embora as incertezas aleatórias e epistêmicas podem ser tratadas, separadas ou combinadas, e analisadas usando os princípios de probabilidade e estatística conforme aponta Frangopol (2008), as fontes da incerteza nem sempre são óbvias, e muitos parâmetros de modelagem analítica podem ser atribuídos a uma falta de conhecimento dos parâmetros reais das estruturas, o que faz com que estes apresentem uma natureza epistêmica.

2.2.2 Propagação de Incertezas

A quantificação e propagação da incerteza do modelo em elementos finitos incluem dois aspectos, conforme destacado por Lin et al. (2015a), um é a propagação da incerteza onde se analisa estatisticamente a influência da incerteza do parâmetro de entrada nas respostas; e o segundo é a propagação inversa de incerteza, na qual a avaliação das incertezas nos parâmetros de entrada é avaliada por meio das incertezas nas respostas, assim procura-se identificar quais parâmetros de entrada e suas combinações causam incertezas nas características de resposta. No âmbito desta pesquisa, foi adotada a primeira abordagem, onde uma representação esquemática deste modelo é mostrada na Figura 2.13.

Figura 2.13: Modelo de Propagação de Incertezas

Assim, em geral, o valor esperado de uma resposta estrutural não pode ser obtido simplesmente calculando a resposta associada aos valores nominais das variáveis aleatórias, são necessárias técnicas de análise probabilística específicas para estimar a distribuição de probabilidade nas respostas, conforme aponta os pesquisadores Ayyub e Klir (2006) e Iaccarino (2008).

Neste sentido, seja uma variável de projeto, esse valor pode ter uma gama de possibilidades, portanto é uma variável aleatória. Como a variável pode, teoricamente, assumir qualquer valor dentre a sua gama de possibilidades, é uma variável aleatória contínua. Ainda segundo Bulleit (2008), as variáveis aleatórias podem ser definidas por distribuições de probabilidade, normal e log-normal.

Para uma variável aleatória contínua, a função de distribuição cumulativa (CDF) 𝐹[𝑥] e a função de densidade de probabilidade (PDF) 𝑓[𝑥], são definidas conforme a Equação 2.1 e Equação 2.2, respectivamente: 𝐹[𝑥] = 𝑃[𝑋 ≤ 𝑥] Equação 2.1 𝑓[𝑥] =𝑑𝐹(𝑥) 𝑑𝑥 Equação 2.2 onde 𝑋 é uma variável aleatória; 𝑥 é um valor específico da variável aleatória; e 𝑃[ ] significa probabilidade das variáveis. O histograma é uma versão discreta da função de densidade de probabilidade.

As incertezas aleatórias podem ser representadas usando o desvio padrão denotado por 𝑆𝑡𝑑, para comparar a incerteza aleatória entre duas variáveis, o coeficiente de variação 𝐶𝑂𝑉 definido como o coeficiente do desvio padrão sobre a média 𝜇, conforme Equação 2.3:

𝐶𝑂𝑉 = 𝑆𝑡𝑑 𝜇

Em um esquema probabilístico, o problema da propagação da incerteza envolve as gerações de PDFs dos valores de todos os parâmetros de entrada. Em seguida, considerando o vetor 𝑋 = (𝑥 , … 𝑥 ) contendo os parâmetros de entrada do modelo computacional, são calculadas as respostas de interesse, como exemplo, a resposta modal. Os parâmetros de entrada 𝑥 são representados como variáveis aleatórias contínuas independentes 𝑥 (𝜔 ) mapeadas no espaço de amostragem Ω para números reais, 𝑥 : Ω → ℝ. Essa suposição em termos práticos aumenta a dimensionalidade do problema, o resultado original determinista 𝑦 = 𝑓(𝑥 , … 𝑥 ) torna-se então uma quantidade 𝑦 = 𝑓(𝑥 , … 𝑥 , … 𝑥 : 𝜔 , … 𝜔 , … 𝜔 ).

O objetivo de calcular as PDFs de 𝑦, 𝑓 é avaliar a probabilidade de um resultado ou, em geral, estatísticas de 𝑦. O valor esperado 𝐸[𝑦], Equação 2.4, e a variância 𝑉𝑎𝑟[𝑦], Equação 2.5, são definidos como:

𝐸[𝑦] = 𝑧𝑓 (𝑧)𝑑𝑧 ∝ Equação 2.4 𝑉𝑎𝑟[𝑦] = (𝑧 − 𝐸[𝑦]) 𝑓 (𝑧)𝑑𝑧 = 𝐸[𝑦 ] − (𝐸[𝑦]) ∝ Equação 2.5 As técnicas baseadas em amostragem são os métodos mais simples para propagar incerteza em simulações numéricas. O método envolve simulações repetidas, com uma seleção adequada dos valores de entrada, e as respostas são coletados para gerar uma caracterização estatística do resultado. Neste estudo, tanto a incerteza quanto a entrada e a incerteza propagadas na produção de modelos são quantificadas com base na teoria da probabilidade.

Segundo Oberkampf e Barone (2006), uma vez que as quantidades estatísticas de interesse foram computadas, várias métricas podem ser usadas para caracterizar a saída do sistema, dependendo da aplicação específica. O uso mais comum dessas informações estatísticas é uma quantificação de incertezas, onde a probabilidade de um resultado é estimada e comparada às margens operacionais. Em um contexto de validação, o PDF pode ser comparado à observação experimental para extrair uma medida de confiança nos resultados numéricos.

Os avanços em capacidades computacionais, inferência bayesiana, simulação de Monte Carlo e abordagem por família de modelos oferecem a capacidade de capturar efeitos de incerteza na modelagem, destaca Dumlupinar et al. (2011). A simulação de Monte Carlo, adotada nessa abordagem, tem como objetivo quantificar a incerteza no modelo MEF da ponte sobre o rio Arade.

2.2.3 Simulação de Monte Carlo (MCS)

O conceito de uma análise probabilística baseada na simulação Monte Carlo pode ser definido como um conjunto de parâmetros de projeto, especificado com suas PDFs, e o objetivo é obter uma descrição do desempenho ou resposta do sistema, com uma base estatística. Os métodos estatísticos MCS fornecem uma solução de problemas numéricos por amostragem aleatória, incorporando incerteza na simulação numérica e, finalmente, comparando a simulação com o teste em termos de probabilidade e confiança.

O MCS pode ser feito gerando repetidamente uma seleção aleatória de possíveis valores dos parâmetros, com base nas PDFs, e resolver o sistema para cada seleção de parâmetro. Cada seleção aleatória levará a um resultado de análise diferente. Todos os resultados são estatisticamente pós-processados para obter as PDFs das respostas ou para obter intervalos de confiança. Se um número de análises suficientes for executado, pode-se mostrar que o PDFs das respostas corresponde às respostas reais. Nesta pesquisa, para uma melhor precisão, os esquemas de amostragem consideraram a amostragem na ordem de 500 a 1000 amostras aleatórias, independentemente do número de parâmetros aleatórios utilizados.

2.2.4 Análise de Sensibilidade das Incertezas

A análise de sensibilidade é uma técnica que visa determinar como as respostas estruturais são influenciadas por propriedades como material, rigidez e geometria. Contudo, as incertezas tendem a ser ofuscadas pelos parâmetros da geometria e do material nas análises estruturais em uma análise de sensibilidade comum. A principal diferença é que a análise de sensibilidade não requer caracterização da incerteza dos dados de entrada de uma estrutura e pode ser conduzida puramente com base na forma matemática do modelo. Portanto, os altos valores de sensibilidades de coeficientes não se traduzem necessariamente em incerteza, uma vez que as incertezas de entrada podem ser muito pequenas em um dispositivo de interesse (IACCARINO, 2008).

A análise de sensibilidade é muitas vezes baseada no conceito de derivativos de sensibilidade, o gradiente das respostas em relação às variáveis de entrada. Desta forma, porque existem vários parâmetros de modelagem incertos, um estudo de sensibilidade usando uma expansão da série Taylor, que, para primeira ordem, seria equivalente a uma relação linear entre entradas e saídas para avaliar quais parâmetros de modelagem afetam significativamente as respostas dos componentes.

No entanto, para a análise de sensibilidade das incertezas os derivativos podem ser aproximados com uma abordagem de diferença finita. Esta é uma abordagem que exige uma solução do sistema para cada perturbação de parâmetro, onde o coeficiente de sensibilidade obtidos são mais precisos, especialmente se a perturbação do parâmetro requerido for próxima ao valor conhecido. Isso é feito usando os resultados de duas análises de elementos finitos para dois estados do parâmetro 𝑃 , sendo 𝑅 a resposta em relação aos parâmetros 𝑃 , conforme definido na Equação 2.6:

𝛥𝑅 𝛥𝑃 =

𝑅 𝑃 + 𝛥𝑃 − 𝑅 𝑃 𝛥𝑃

Equação 2.6 2.2.5 Verificação e Validação (V&V)

As simulações, em geral, envolvem três tipos de modelos: Conceitual, Matemático e Computacional. Assim, com relação a estes modelos, temos duas definições amplamente aceitas de Verificação e Validação (V&V):

 Verificação: é o processo de determinação se um modelo computacional representa com precisão o modelo matemático subjacente e sua solução.

 Validação: é o processo de determinar o grau em que um modelo é uma representação precisa do mundo real a partir da perspectiva dos usos pretendidos do modelo.

O termo verificação e validação é comumente utilizado em relação a modelos conceituais e simulações computacionais, conforme pontuado por ASME (2006) e Oberkampf e Trucano (2002). Sendo a validação dos modelos considerada parte fundamental de todos os procedimentos modernos de garantia de qualidade da análise de engenharia (ISO 9001:2015).

A verificação é o processo de determinar se um modelo computacional representa com precisão o modelo matemático e sua solução. A validação é o processo de determinar o grau em que um modelo é uma representação precisa do mundo real a partir da perspectiva dos usos pretendidos do modelo. Portanto, a verificação corresponde ao domínio matemático e validação ao domínio físico, (ODEN, MOSER e GHATTAS, 2010). Nesse sentido, um modelo matemático deve ser desenvolvido no campo da verificação. No entanto, os modelos matemáticos frequentemente não podem abranger todos os tipos de sistemas estruturais, seja porque não é possível ou prático definir soluções de forma para estruturas complexas, como pontes, conforme destacado por Gokce, et al. (2013). Portanto, essas estruturas devem ser numericamente representadas pelos modelos FEM. 2.2.6 Principais Conclusões sobre o Tópico

A necessidade de atualização do modelo surge uma vez que sempre há erros associados ao processo de construção de um modelo numérico de uma estrutura, o que leva à incerteza na precisão da resposta. Existem muitas fontes de erros de modelagem, como variações de propriedades do material, modelagem inexata do comportamento constitutivo do material, incertezas durante o processo construtivo, condições de contorno etc. Devido a esses erros de modelagem, a atualização do modelo é melhor abordada como um problema de inferência estatística. Isso pode ser feito desenvolvendo modelos estruturais determinísticos por meio de uma modelos de probabilidade dos paramentros, fazendo com que o modelo estrutural apresente uma previsão sistêmica e uma previsão de erros aleatórios do sistema analisado.