• Nenhum resultado encontrado

ESTIMAÇÃO DE PARÂMETROS DE UM MODELO CONSTITUTIVO PARA MATERIAIS VISCOELÁSTICOS. Hudson Viegas Alves Fernandes de Souza

N/A
N/A
Protected

Academic year: 2021

Share "ESTIMAÇÃO DE PARÂMETROS DE UM MODELO CONSTITUTIVO PARA MATERIAIS VISCOELÁSTICOS. Hudson Viegas Alves Fernandes de Souza"

Copied!
89
0
0

Texto

(1)

ESTIMAÇÃO DE PARÂMETROS DE UM MODELO CONSTITUTIVO PARA MATERIAIS VISCOELÁSTICOS

Hudson Viegas Alves Fernandes de Souza

Dissertação de mestrado apresentada ao Programa de Pós-graduação em Engenharia Mecânica, COPPE, da Universidade Federal do Rio de Janeiro, como parte dos requisitos necessários à obtenção do título de Mestre em Engenharia Mecânica.

Orientador: Daniel Alves Castello

Rio de Janeiro Outubro de 2011

(2)

ESTIMAÇÃO DE PARÂMETROS DE UM MODELO CONSTITUTIVO PARA MATERIAIS VISCOELÁSTICOS

Hudson Viegas Alves Fernandes de Souza

DISSERTAÇÃO SUBMETIDA AO CORPO DOCENTE DO INSTITUTO ALBERTO LUIS COIMBRA DE PÓS-GRADUAÇÃO E PESQUISA DE ENGENHARIA (COPPE) DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE DOS REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO GRAU DE MESTRE EM CIÊNCIAS EM ENGENHARIA MECÂNICA.

Examinada por:

_____________________________________________ Prof. Daniel Alves Castello, D.Sc.

_____________________________________________ Prof. Fernando Alves Rochinha, D.Sc.

_____________________________________________ Prof. Ricardo Leiderman, D.sc.

RIO DE JANEIRO, RJ - BRASIL OUTUBRO DE 2011

(3)

Souza, Hudson Viegas Alves Fernandes de

Estimação de Parâmetros de um Modelo Constitutivo

para Materiais Viscoelásticos / Hudson Viegas Alves

Fernandes de Souza. - Rio de Janeiro: UFRJ/COPPE, 2011.

VII, 82 p.: il.; 29,7 cm

Orientador: Daniel Alves Castello

Dissertação (mestrado) - UFRJ/COPPE, Programa de

Engenharia Mecânica, 2011.

Referências Bibliográficas: p. 78-82

1. Viscoelasticidade. 2. Estimação de Parâmetros. 3. Inferência Bayesiana. I. Castello, Daniel Alves. II. Universidade Federal do Rio de Janeiro, COPPE, Programa de engenharia Mecânica. III. Título.

(4)

AGRADECIMENTOS

Em primeiro lugar agradeço a Deus por tudo que tem feito na minha vida. Ao meu pai Ary, minha mãe Gete e aos meus irmãos Igor e Natalle, por sempre estarem comigo me dando todo o tipo de apoio possível, pois sem eles eu não chegaria até aqui.

Ao meu professor e orientador Daniel Alves Castello, por toda a ajuda ao longo deste período. Após esse tempo sendo orientado por ele, passei a admirá-lo, não somente como um excelente profissional, mas também pela pessoa que é. Ao meu “irmão” Vitor, que teve uma grande contribuição para esse projeto.

Ao Pesquisador Carlos Frederico Trotta Matt, do Centro de Pesquisas de Energia Elétrica (CEPEL), pelas conversas construtivas que tivemos durante congressos e simpósios, nos quais participamos. Aos professores Ney Roitman e Carlos Magluta, do programa de engenharia civil da COPPE e a professora Lavínia Borges, por sempre me atenderem forma tão atenciosa. A Flávia Cavalcante pelas diversas contribuições e ajudas durante a realização deste trabalho.

Aos meus amigos de laboratório de Acústica e Vibrações: Jefferson, Wallace, Vanderson, Manoela, Guilherme, Bianca, Aline, Sergio e Flávio. Aos amigos de graduação: Cláudio, Eduardo Veloso, Christovam e Maycon, por estarem comigo desde o início dessa jornada. Aos amigos de infância Vinícius Alves Portela e Daniel Neves pelos momentos de descontração e pelas palavras de incentivo nos momentos difíceis.

Ao engenheiro Anderson (LAVI), por toda a ajuda. Aos professores do Departamento de Engenharia Mecânica, por contribuírem para a minha formação, em especial a Hélcio Orlande, Fernando Castro Pinto, Marcelo Amorim Savi, Fernando Alves Rochinha e Nestor A. Z. Pereira, por transmitirem conhecimentos aplicados nesse trabalho.

(5)

Resumo da Dissertação apresentada à COPPE/UFRJ como parte dos requisitos necessários para a obtenção do grau de Mestre em Ciências (M.Sc.)

ESTIMAÇÃO DE PARÂMETROS DE UM MODELO CONSTITUTIVO PARA MATERIAIS VISCOELÁSTICOS

Hudson Viegas Alves Fernandes de Souza

Outubro/2011

Orientadores: Daniel Alves Castello Programa: Engenharia Mecânica

O presente trabalho tem como objetivo a estimação de parâmetros constitutivos de um modelo para materiais viscoelásticos. O modelo constitutivo escolhido para representar a dinâmica destes materiais é baseado no conceito de variáveis internas e o problema inverso é formulado a partir de pseudo-experimentos tanto no domínio do tempo como no domínio da frequência. Um procedimento de inversão estatística, baseado na técnica de inferência bayesiana, é utilizado para estimar os parâmetros na forma de distribuições de probabilidade marginal a posteriori. O método de Monte Carlo via cadeia de Markov (MCMC) é aplicado através do algoritmo Metropólis Hastings visando extrair amostras oriundas destas distribuições. Um sistema massa-mola-amortecedor de um grau de liberdade anexado a um componente viscoelástico é estudado, e são investigadas dificuldades relacionadas tanto com o processo de estimação de parâmetros, assim como com o cálculo de quantidades a posteriori. Resultados obtidos a partir de um modelo de estrutura do tipo viga sanduíche também são apresentados, e alguns conceitos básicos de projeto ótimo de experimentos são utilizados objetivando-se maximizar o nível de informação sobre os parâmetros estimados.

(6)

Abstract of Dissertation presented to COPPE/UFRJ as a partial fulfillment of the requirements for the degree of Master of Science (M.Sc.)

PARAMETER ESTIMATION OF A CONSTITUTIVE MODEL FOR VISCOELASTIC MATERIALS

Hudson Viegas Alves Fernandes de Souza

October/2011

Advisor: Daniel Alves Castello Department: Mechanical Engineering

This work is aimed at estimating constitutive parameters of a model for viscoelastic materials. The constitutive model that was chosen to represent the dynamics of these materials is based on the concept of internal variables and the associated inverse problem is built on data from either time or frequency domain. A statistical inversion procedure, based on bayesian inference technique, is used to estimate the parameters as marginal posterior probability distributions. Markov chain Monte Carlo sampling methods (MCMC), with the Metropolis-Hastings algorithm, are employed in order to draw samples from the posterior distributions. A mass-spring-damper system with one degree of freedom, attached to a viscoelastic core, is studied, and problems related to the parameter estimation process as well as the computation of posterior quantities are investigated. A sandwich structure is also used for the analyses, whose model equations are solved by the finite element method. Finally, optimum experiment design procedures are applied to this system in order to maximize the information level about the estimated parameters

(7)

Sumário

1. Introdução --- 1 2. Viscoelasticidade --- 5 2.1 - Fluência --- 5 2.2 - Relaxação --- 7 2.4 - Módulo Complexo --- 7

2.6 - Modelo de Variáveis Internas --- 8

3. Calibração de Modelos --- 10

3.1 - Problema Inverso --- 10

3.2 - Fontes de Incerteza --- 11

3.3 - Inferência Bayesiana --- 12

3.4 - Problema Inverso Determinístico --- 17

3.4.1 - Enxame de Partículas --- 19

3.5 - Projeto Ótimo de Experimento --- 20

3.6 - Propagação de Incertezas via Método de Monte Carlo --- 22

3.7 - Validação de Modelos --- 23

4. Resultados Preliminares --- 26

4.1 - Sistema Investigado --- 26

4.2 – Definição do Problema Inverso --- 30

4.3 – Resultados e Discussões --- 32

4.3.1 – Influência do Nível de Ruído e do --- 32

Número de Parâmetros 4.3.2 – Propagação de Incertezas via Método de Monte Carlo --- 42

4.3.3 – Cadeias de Markov e Análises de Convergência --- 48

4.3.4 – Estratégias Preliminares de Validação --- 55

4.3.5 – Modelagem Incorreta dos Erros Experimentais --- 57

5 – Viga Sanduíche --- 63

5.1 – Estrutura Investigada --- 63

5.2 – Experimentos Simulados --- 65

5.3 – Projeto Ótimo de Experimento Aplicado a Viga Sanduíche --- 66

5.4 – Aplicação da Inferência Bayesiana --- 73

6 – Conclusões --- 77

(8)

1 - Introdução

Em aplicações de engenharia, muitas estruturas mecânicas operam sob influência de carregamentos dinâmicos, os quais, em determinadas condições podem causar níveis excessivos de vibração podendo, em último caso, conduzir a falhas estruturais. A fim de reduzir estes níveis de vibração, é uma prática comum anexar a estas estruturas componentes feitos de materiais dissipativos tais como os materiais viscoelásticos. Estes materiais apresentam uma alta capacidade de dissipação de energia, e por este motivo são amplamente utilizados como atenuadores de vibração nas indústrias civil, automobilística, aeronáutica e petrolífera [1-3].

Neste contexto, destaca-se o fato de que a capacidade de projetar sistemas que permitam explorar ao máximo as características dissipativas destes materiais é condicionada ao nível de compreensão que cientistas e engenheiros possuem sobre a resposta mecânica dos mesmos. Adicionalmente, a exigência pela aceleração das etapas envolvidas na especificação de projetos é uma tendência devido, principalmente, a motivações de origem econômica. Devido a estes fatores, simulações computacionais vem sendo cada vez mais empregadas dentro de engenharia, substituindo, em muitos casos, o papel desempenhado pelos protótipos experimentais [4].

A partir das simulações computacionais, sistemas cada vez mais sofisticados e realistas vêm sendo abordados em virtude da disponibilidade de computadores mais potentes. Isso aumentou as expectativas de resolução de problemas complexos, mas gerou uma demanda para o tratamento e compreensão de erros e incertezas inerentes a modelos computacionais. Esta demanda está diretamente relacionada à busca pela determinação do nível de confiabilidade das predições do modelo escolhido, a fim de determinar se os resultados previstos nas simulações de fato podem ser levados em conta durante o processo de tomada de decisão [5].

Dentro deste contexto surge o conceito de validação de modelos computacionais, o qual estabelece procedimentos a serem seguidos a fim de determinar o grau com o qual um modelo é uma representação acurada do “mundo real” a partir de uma perspectiva de aplicação. Esta avaliação deve ser feita a partir de uma comparação criteriosa entre experimentos de validação e predições do modelo, e sendo o resultado

(9)

de tais comparações considerado satisfatório, de acordo com um conjunto de métricas, o modelo é declarado validado dentro de um domínio de aplicação [6].

No que diz respeito a construção de modelos computacionais, é importante mencionar que estes devem ser desenvolvidos considerando as seguintes etapas: modelagem conceitual, modelagem mecânica, projeto de experimento, estimação de parâmetros e processos de validação. O processo de estimação de parâmetros consiste em ajustar os parâmetros do modelo computacional a fim de melhorar a concordância entre os dados experimentais e as predições computacionais [6]. Este procedimento também é denominado na literatura como problema inverso e, em geral pode ser abordado fazendo-se uso de abordagens determinísticas [7,8] ou estatísticas [9]. A abordagem determinística é formulada a partir de um problema otimização, onde o mínimo de uma função objetivo, a qual leva em conta uma dada métrica para avaliar a discrepância entre os dados experimentais e simulações do modelo, é procurado. Deve-se destacar que esta abordagem vem Deve-sendo amplamente empregada na caracterização de materiais viscoelásticos [10-16].

Retomando a discussão sobre processos de validação, é importante mencionar que as comparações entre simulações do modelo e experimentos de validação devem levar em conta as incertezas envolvidas [4]. Diversas fontes de incertezas estão presentes na modelagem computacional de sistemas físicos, as quais podem ser representadas através de distribuições de probabilidade ou, de acordo com as argumentações de um trabalho recente, fazendo-se uso de intervalos de confiança sem função densidade de probabilidade associada [17].

Portanto uma comparação justa entre predições do modelo e experimentos de validação somente é possível a partir de uma abordagem probabilística [6]. Neste sentido a solução do processo de estimação de parâmetros deve levar em conta as incertezas que surgem tanto dos processos de medição assim como da modelagem imperfeita do sistema de interesse e, sendo possível, esta solução deve fornecer informação acerca das funções de densidade probabilidade dos parâmetros para que, posteriormente, técnicas de quantificação e propagação de incertezas possam ser aplicadas a fim de determinar o nível de confiança associado às predições obtidas [6]. Deste modo, sendo possível, o processo de validação deve se basear na comparação de regiões de probabilidade de ocorrência das quantidades físicas de interesse e não na comparação simplista de eventos únicos das predições do modelo e medições experimentais, os quais são oriundos de processos estocásticos [4].

(10)

Para tornar possível a obtenção dos cenários contendo as predições possíveis, dado um certo regime de operações, a etapa de estimação de parâmetros deve ser realizada a partir de uma teoria de inversão estatística. Ressalta-se aqui o fato de que em geral, as abordagens determinísticas apresentam como solução um único ponto no espaço dos parâmetros e, desta forma, em geral não fornecem informação adequada para ser incorporada aos processos de quantificação de incertezas. Em problemas inversos estocásticos todas as quantidades envolvidas são modeladas como variáveis aleatórias e suas respectivas incertezas são quantificadas a partir de distribuições de probabilidade. A teoria de inversão estatística é baseada na inferência bayesiana, onde informações a

priori são combinadas com medições experimentais a fim de extrair o máximo de

informação sobre os parâmetros de modelagem na forma de uma distribuição de probabilidade a posteriori [9,18]. Adicionalmente, esta ferramenta é útil tanto para abordar processos que envolvem competição de modelos [20], assim como para incorporar incertezas de modelagem no resultado do problema inverso, tais como nas abordagens hierárquicas [21].

Considerando a discussão acima sobre construção e validação de modelos computacionais, se verifica que as medições experimentais desempenham um papel crucial tanto no desenvolvimento assim como no refinamento de modelos para sistemas físicos. Por exemplo, os dados podem ser utilizados para atualizar o estado de conhecimento sobre os parâmetros de um modelo, ou mesmo, para processos de competição de modelos. Particularmente, no que tange os experimentos de calibração, ou seja, aqueles utilizados durante a etapa de estimação de parâmetros, vale destacar que estes devem ser realizados de forma a obter modelos computacionais que forneçam predições tão confiáveis quanto possível, a fim de facilitar o processo de tomada de decisão de engenheiros e analistas responsáveis por projetos mecânicos baseados em simulações computacionais.

Dentro deste contexto, surge o conceito de projeto ótimo experimento [22], que consiste na especificação de condições de contorno, condições iniciais e localização dos sensores, na forma de um protocolo experimental, a fim de maximizar o estado de conhecimento sobre os parâmetros estimados [22-24].

Uma possível abordagem para a determinação do projeto ótimo de experimento é baseada na matriz de informação de Fisher, a qual assume as hipóteses de modelo linear em relação aos parâmetros [23]. É importante mencionar que esta análise é local e, sendo assim, não leva em conta a variabilidade dos parâmetros estimados. Entretanto,

(11)

existem abordagens formuladas dentro de uma filosofia bayesiana onde são levadas em consideração, tanto informação priori assim como a distribuição de probabilidade dos parâmetros [25,26].

O objetivo do presente trabalho consiste em realizar a estimação de parâmetros de um modelo constitutivo para materiais viscoelásticos. Portanto, a primeira etapa consiste em descrever a resposta mecânica dos materiais viscoelásticos, além de apresentar o modelo constitutivo de variáveis internas [11], o qual é utilizado para representar a dinâmica destes materiais. Na segunda etapa do trabalho a inferência bayesiana é aplicada a fim de investigar dificuldades inerentes ao problema inverso. Estas dificuldades são discutidas a partir dos resultados para distribuições a posteriori dos parâmetros além de outras quantidades físicas a posteriori. Processos preliminares de validação são apresentados e o efeito da modelagem incorreta dos erros experimentais é avaliado.

A terceira e última etapa do trabalho consiste na aplicação de estratégias probabilísticas simplificadas que visam definir um projeto ótimo de experimento. A métrica D-optimally é usada como critério de tomada de decisão e o sistema investigado consiste de uma estrutura do tipo viga sanduíche. Estas análises são realizadas simulando algumas dificuldades comuns encontradas em procedimentos de caracterização tais como, ausência de informação a priori sobre os parâmetros constitutivos e conhecimento limitado sobre o comportamento estatístico dos erros experimentais.

A apresentação deste trabalho é dividida em 5 capítulos além da introdução. O segundo capítulo apresenta detalhes sobre o comportamento mecânico dos materiais viscoelásticos, além do modelo constitutivo de variáveis internas. O terceiro capítulo apresenta: o conceito de problema inverso, a técnica de inferência bayesiana, a abordagem determinística para problemas inversos, a abordagem de projeto ótimo de experimento baseada na matriz de informação de Fisher, a técnica de propagação de incerteza via monte Carlo e conceitos preliminares sobre validação de modelos. O quarto capítulo apresenta resultados preliminares oriundos da aplicação da técnica de inferência bayesiana em um sistema massa-mola amortecedor de um grau de liberdade anexado a um componente viscoelástico. O quinto capítulo aplica os conceitos de projeto ótimo de experimento em uma estrutura do tipo viga sanduíche, cujas equações do modelo são resolvidas através do método de elementos finitos. No sexto capítulo são apresentadas as conclusões do trabalho.

(12)

2- Viscoelasticidade

Viscoelasticidade é um tipo de comportamento mecânico observado em uma variedade de materiais, compreendendo desde tecidos humanos até polímeros industrializados. O comportamento destes materiais engloba tanto características de sólidos elásticos assim como de fluidos viscosos. Pode-se, também, defini-los como materiais com memória, ou seja, o estado de tensões, em um dado instante, não depende apenas do estado de deformações naquele instante de tempo, mas também de toda história de deformação a qual o material esteve sujeito. Outra característica exibida por estes materiais é o comportamento dissipativo, o qual pode ser verificado analisando-se uma curva tensão por deformação, quando são sujeitos a um carregamento do tipo cíclico [27-29]. A frequência de excitação, ou a taxa de carregamento, também possui influencia sobre a resposta mecânica dos materiais viscoelásticos, podendo amplificar ou reduzir as propriedades de amortecimento [1,3]. Existem testes padronizados, tais como os testes de fluência, relaxação e módulo complexo, cujo objetivo é de verificar se o comportamento de um material é ou não viscoelástico.

2.1- Fluência

A fluência pode ser compreendida como a deformação contínua do material, quando o mesmo é submetido a uma tensão constante. A resposta de fluência é fundamental para a caracterização da dependência dos materiais viscoelásticos em relação ao tempo. Deste modo, define-se a função de fluência, em cada instante de tempo, como sendo a razão entre a deformação e a tensão em um ponto específico do material, quando o mesmo é submetido a uma tensão constante σ0, como é apresentado a seguir. 0 ) ( ) ( σ ε t t QF = (2.1)

(13)

onde QF representa a função de fluência do material e ε(t) a deformação. Nos materiais viscoelásticos, a resposta de fluência é caracterizada por um salto instantâneo de deformação no momento da aplicação da carga, o que configura uma característica de um sólido elástico. Posteriormente o material se deforma continuamente apresentando uma combinação de efeitos elásticos e viscosos [27]. A partir da figura (2.1) observa-se, que nos materiais viscoelásticos, a resposta de fluência apresenta três estágios: primário, secundário e terciário. No estágio primário a taxa de deformação é relativamente grande, decrescendo ao longo do tempo até atingir um estado de equilíbrio, a partir deste ponto se dá início o estágio secundário, no qual a taxa de deformação se torna constante. Por último, ocorre o estágio terciário, onde a taxa de deformação tende a aumentar com o decorrer do tempo, e onde ocorre a ruptura do material por fluência [30].

(14)

2.2- Relaxação

A relaxação pode ser compreendida como a evolução temporal da tensão em um ponto específico do material, quando o mesmo é submetido a uma deformação constante ε0. Portanto, defini-se a função de relaxação, em cada instante de tempo, como segue. 0 ) ( ) ( ε σ t t QR = (2.2)

onde QR representa a função de fluência do material e σ(t) a tensão. No momento em que é imposta a deformação, a resposta de relaxação de um material viscoelástico é caracterizada por um salto instantâneo no valor da tensão, fato que configura uma característica de um sólido elástico [27]. Posteriormente a tensão necessária para manter a deformação constante cai gradualmente com o tempo, conforme pode ser observado na figura (2.2).

2.3- Módulo Complexo

É uma abordagem comum representar as equações constitutivas para materiais viscoelásticos no domínio da frequência. Desta forma, o módulo complexo é definido como na equação abaixo [27].

(15)

) ( ) ( ) ( ω ε ω σ ω = G (2.3)

onde

σ

(

ω

) e

ε

(

ω

) representam, respectivamente, os valores de tensão e deformação, no domínio da frequência. É importante mencionar a maior facilidade para medir o módulo complexo quando comparado com os experimentos de fluência e relaxação de um material viscoelástico específico. Por outro lado uma vantagem de se trabalhar no domínio do tempo é que, em geral é possível, após a devida transformação, trabalharmos também no domínio da frequência. Ressalta-se também o fato de que, ao longo dos processos de calibração de modelos que, dependendo da abordagem escolhida, existe a possibilidade do modelo calibrado, no domínio da freqüência ser não causal.

2.4- Modelo de Variáveis Internas

Neste item são apresentadas as equações constitutivas do modelo de variáveis internas, as quais satisfazem a desigualdade de Clausius-Duhem, ou seja, a sua formulação satisfaz todas as restrições impostas pela termodinâmica de processos irreverssíveis [11,31]. Deste modo, as equações (2.4) e (2.5) representam as equações constitutivas para o modelo de variáveis internas.

• = + − + = ε

ε ξ ηε σ I r r r E E 1 ) ( (2.4) ), ( r r r b

ε

ξ

ξ

• = − r=1,...,I (2.5) onde

ξ

r corresponde a r-ésima variável interna, E e Er correspondem aos parâmetros de elasticidade, η e br representam os parâmetros viscosos e I o número total de variáveis internas do modelo. Deve ser enfatizado que a inclusão de um conjunto de variáveis internas nas equações constitutivas é baseado na termodinâmica de processos irreversíveis, e baseado nestes princípios pode ser provado que a inclusão destas variáveis sempre dissipa energia. Portanto, como a tensão na equação (2.4) depende das

(16)

variáveis internas, as quais representam o fenômeno dissipativo no interior do material, estas naturalmente contribuem para a dinâmica do sistema [11].

Com o intuito de obter uma representação analítica para a propriedade do módulo complexo é adotada a hipótese de que todos os parâmetros que caracterizam o material são constantes em todo o domínio do corpo. Portanto, efetuando a transformada de Laplace nas equações (2.4) e (2.5) e admitindo-se condições iniciais nulas, chega-se ao módulo complexo do material viscoelástico, como apresentado na equação abaixo.

= = ∧ + − + = I r r r r I r r s b b E E E s G 1 1 ) ( (2.6)

É importante destacar que, na literatura, o modelo de variáveis internas vem sendo utilizado com o objetivo de construir modelos computacionais para os materiais viscoelásticos, de modo que são mencionados alguns trabalhos mais recentes nesta linha de pesquisa. CASTELLO et al. [11], utilizaram este modelo constitutivo na caracterização experimental de uma fita viscoelástica, a qual estava inserida no interior de uma estrutura do tipo viga sanduíche. SOUZA et al. [15], utilizaram experimentos de um sistema específico para gerar situações de operação de cisalhamento do material viscoelástico a partir da equação (2.6), onde também foram calculadas regiões de confiança aproximadas para os parâmetros constitutivos utilizando-se o método de amostragem hit and run. BORGES et al. [32] utilizaram este modelo constitutivo para construir modelos computacionais de estrutura do tipo riser em catenária onde os resultados obtidos apresentaram um bom nível de concordância com os dados medidos. BORGES et al. [33], aplicaram estratégias de validação a este modelo constitutivo em condições de operação de viga sanduíche para condições de contorno variadas.

Portanto, neste capítulo foram apresentadas, de forma bastante sucinta, algumas informações básicas referentes a viscoelasticidade, de modo que informações mais detalhadas podem ser obtidas em algumas referências clássicas [27-29].

(17)

3 - Calibração de Modelos

Este capítulo apresenta a teoria envolvida nos problemas de estimação abordados neste trabalho. As incertezas envolvidas na computação científica são discutidas e apresentadas de acordo com as classificações mais recentes encontradas na literatura [17]. A inferência bayesiana é apresentada, dentro de uma filosofia de problemas inversos estocásticos, como uma ferramenta capaz de incorporar estas incertezas no modelo computacional através da definição de funções de densidade probabilidade para os parâmetros estimados. O problema de estimação determinístico é apresentado baseando-se no estimador de máxima verossimilhança, onde o método de otimização do enxame de partículas é proposto para encontrar o ponto ótimo. A abordagem de Fisher é apresentada com o objetivo de aplicar estratégias que visam determinar o projeto ótimo de experimento. Por último, são apresentados conceitos preliminares tanto sobre a técnica de propagação de incertezas via Monte Carlo, assim como sobre procedimentos de validação de modelos computacionais.

3.1 - Problema Inverso

Este item tem como foco a apresentação da formulação inversa relativa aos sistemas que serão analisados no presente trabalho.

O problema inverso pode ser definido uma vez que o problema direto tenha sido apresentado. Para o problema direto, o fenômeno físico e os parâmetros que caracterizam as equações do movimento de um sistema são conhecidos, e se deseja determinar a resposta deste sistema Ny

R

y quando este é submetido à determinada excitação. Para o problema inverso, embora a resposta do sistema seja parcialmente conhecida, alguns parâmetros podem ser desconhecidos. Portanto, a resposta medida do sistema Ny

obsR

y é utilizada para determinar os parâmetros desconhecidos. Deste ponto em diante, por questão de simplicidade, é definido um vetor θ o qual contém informação acerca dos parâmetros desconhecidos do sistema como segue.

{

}

T Nθ

θ

θ

θ

1, 2,K, = θ (3.1)

(18)

3.2 - Fontes de Incerteza

A maioria dos sistemas de interesse prático em engenharia são representados por equações diferenciais parciais, cujas soluções são dadas por valores exatos das quantidades de interesse. Entretanto diversas fontes de incertezas estão envolvidas na modelagem destes sistemas e, por isto, as predições computacionais podem ser consideradas e tratadas como não determinísticas. Visando inferir sobre a variabilidade e o nível de confiança das predições do modelo deve-se solucionar, através de técnicas de quantificação de incertezas, equações diferenciais parciais estocásticas [5]. Nestas equações as incertezas envolvidas são propagadas através do modelo e a solução é dada na forma de funções densidade de probabilidade [17].

Portanto o primeiro passo na aplicação desta abordagem consiste em identificar e caracterizar todas as incertezas envolvidas na modelagem computacional. Neste sentido é adotada uma classificação de incertezas de acordo com a sua essência [17], dividindo as incertezas em dois grupos: aleatórias e epistêmicas. A incerteza aleatória é definida como a variação inerente de uma quantidade que, dado um número suficiente de amostras do processo estocástico, pode ser caracterizada a partir de uma função densidade de probabilidade. A incerteza epistêmica resulta de informações incompletas acerca do modelo. No que se refere às incertezas epistêmicas, os autores ROY e OBERKAMPF [17], argumentam que as mesmas poderiam ser caracterizadas fazendo-se uso de intervalos de confiança fazendo-sem distribuição de probabilidade associada. Deve-fazendo-se mencionar que estas incertezas podem surgir de diversas fontes, tais como as entradas do modelo, as aproximações numéricas e dos erros devido à forma do modelo [17].

As entradas do modelo podem ser divididas em dois conjuntos: parâmetros de modelagem computacional e dados que descrevem a interação entre sistema e vizinhança. Os parâmetros de modelagem computacional constituem fonte de incerteza porque são estimados através de dados experimentais os quais são incertos devido a limitações inerentes dos processos de medição [17]. Os dados que descrevem a interação entre sistema e vizinha, tais como as condições de contorno e a excitação sobre o sistema, são incertos devido impossibilidade de medir seus valores de forma exata. As entradas do modelo, usualmente, são modeladas como incertezas aleatórias, e

(19)

a abordagem bayesiana é utilizada para inferir sobre as suas distribuições de probabilidade.

Os erros de aproximação numérica ocorrem devido a necessidade de se obter soluções aproximadas para as equações do modelo, pois estas, para problemas de engenharia, são normalmente dadas por sistemas de equações diferenciais parciais que raramente apresentam soluções analíticas. Deve-se destacar que existem diversas estratégias empregadas no sentido de caracterizar este tipo de incerteza, as quais constituem procedimentos de verificação [4].

Por último, os erros devido à forma do modelo têm origem nas hipóteses conceituais, abstrações e formulações matemáticas sobre as quais o modelo é construído. A caracterização da incerteza devido a forma do modelo é normalmente estimada utilizando procedimentos de validação [4,17].

3.3 - Inferência Bayesiana

Portanto, considerando a discussão apresentada no item (3.2), se conclui que o resultado do problema inverso deve incorporar as incertezas envolvidas. Na teoria de inversão estatística todas as quantidades envolvidas são modeladas como variáveis aleatórias e suas respectivas incertezas são quantificadas a partir de distribuições de probabilidade. Portanto, definindo θ,YeE como variáveis aleatórias que caracterizam o nível de conhecimento sobre os parâmetros do modelo, saída do sistema e erros experimentais, respectivamente, tem-se a seguinte relação.

) (θ,E

Y= f (3.2)

onde f :Rn ×Rké um operador que depende do modelo matemático. A teoria de inversão estatística é baseada na inferência bayesiana, onde informações a priori sobre os parâmetros são combinadas com medições experimentais a fim de extrair o máximo de informação sobre θ na forma de uma distribuição de probabilidade a posteriori

) / (θ yobs

π [9]. Portanto, assumindo que as variáveis aleatórias do problema são contínuas podemos escrever uma extensão do teorema de bayes para densidades.

(20)

) ( ) ( ) ( ) ( obs obs obs y θ y θ/y

π

π

π

π

× pr = (3.3)

onde yobs e θ representam, respectivamente, eventos das variáveis aleatórias Ye θ. Na equação (3.3) o termo πpr) é denominado de distribuição a priori, pois quantifica na forma de uma distribuição de probabilidade, toda informação disponível sobre os parâmetros do modelo antes que qualquer medição sobre o sistema tenha sido incorporada no processo de inferência. O termo π(yobs /θ) é conhecido por verossimilhança e representa a probabilidade dos dados observados condicionada a um vetor de entrada θ. Uma situação bastante explorada em problemas inversos é a ocorrência de erros aditivos, a qual é caracterizada pela independência da variável aleatória E em relação as variáveis aleatórias θ e Y [9]. Para erros aditivos a equação (3.2) toma a seguinte forma.

E θ

Y= f( )+ (3.4) Considerando a equação acima e após algumas manipulações matemáticas é possível provar que a verossimilhança pode ser avaliada como segue.

)) ( ( ) / (yobs θ =

π

E yobsf θ

π

(3.5)

onde

π

E representa a distribuição de probabilidade dos erros experimentais. O termo )

(yobs

π corresponde à probabilidade de ocorrência dos dados observados e na prática não pode ser diretamente avaliado, seu valor independe do vetor de parâmetros θ e, portanto pode ser considerado como um fator de normalização na equação (3.3). Como consequência o valor da distribuição marginal a posteriori π(θ/yobs) é proporcional ao produto entre as distribuições prior e verossimilhança como indicado na equação (3.6).

) ( ) / ( ) / (θ yobs π yobs θ πpr θ π ∝ × (3.6)

Entretanto, uma vez calculada a distribuição a posteriori é possível calcular o fator de normalização π(yobs) a partir da equação abaixo.

(21)

= y θ θ yobs) ( obs / ) ( ) (

π

π

π

(3.7)

Sendo π(~y/yobs) a distribuição de probabilidade das predições do modelo condicionada a observações experimentais, a sua determinação é de grande importância, seja como parte de processos de validação ou com o objetivo gerar predições probabilísticas sobre o sistema físico de interesse [18]. Seu calculo é dado através da equação abaixo.

= y θ θ y y y/ obs) (~/ ) ( / obs) ~ (

π

π

π

(3.8)

Neste ponto é importante mencionar que o principal problema prático na aplicação da abordagem bayesiana está relacionado com questões computacionais referentes ao calculo de integrais que envolvem a distribuição π(θ/yobs), pois a determinação de estimadores a posteriori envolve a solução de integrais tais como as definidas na equação (3.9).

= G(θ)π(θ/yobs)

J (3.9)

• Se G(θ)=θ, Jrepresenta o valor esperado a posteriori dos parâmetros do modelo.

• Se G(θ)=(θµ)(θµ)T, sendo µ o valor esperado a posteriori, J representa a matriz de covariância dos parâmetros do modelo.

• Se G(θ)=

π

(~y/θ,yobs), sendo y~ uma observação futura, J representa o valor esperado a posteriori distribuição de probabilidade da predição do modelo.

Portanto, a integração desempenha papel essencial na análise bayesiana, substituindo o papel desempenhado pela otimização na abordagem clássica de problemas inversos. As integrais apresentadas na equação (3.9) são multidimensionais e muitas vezes de difícil solução, principalmente quando o número de parâmetros envolvidos é elevado. Entretanto nas últimas duas décadas as dificuldades de integração têm sido bastante reduzidas devido ao desenvolvimento de novas abordagens baseadas

(22)

em simulação, que visam gerar amostras aleatórias e utilizar estas amostras para resolver problemas de inferência através da equação (3.9). Métodos de Monte Carlo via cadeia de Markov (MCMC) podem ser utilizados para a simulação da distribuição de probabilidade alvo. Estes métodos são baseados na seleção de amostras dependentes que admitem como distribuição estacionária a função densidade alvo. Em particular o tipo de dependência considerado é uma cadeia de Markov, onde um novo estado da amostra depende somente do estado atual da cadeia. Portanto os métodos MCMC permitem calcular inferências a posteriori do tipo dado na equação (3.9) utilizando a seguinte aproximação [18].

+ = − ≈ k k k G k k J 1 0 0 ) ( 1 k θ (3.10)

onde θ são amostras dependentes geradas por uma cadeia de Markov cuja distribuição k

estacionária é a função densidade procurada [18], k0 representa o final do período transiente, denominado como burn-in e k representa o número de amostras em que ocorre a convergência da cadeia. Na aplicação dos métodos MCMC existe uma preocupação em se utilizar técnicas estatísticas para determinar a iteração na qual a convergência da cadeia possa ser considerada alcançada. Também se deve mencionar que nos métodos MCMC a cadeia de Markov deve satisfazer a propriedade de ergodicidade, entretanto esta propriedade somente é alcançada quando a cadeia é irredutível e aperiódica. Irredutibilidade significa que qualquer estado da cadeia pode ser alcançado a partir de outro estado em um número finito de movimentos. Esta propriedade é exigida para permitir a cadeia esquecer o ponto inicial [19]. Portanto, um resumo dos procedimentos realizados para calcular estimadores a posteriori utilizando métodos MCMC é apresentado abaixo [9,18,34].

• Passo 1: Iniciar a cadeia a partir de valores arbitrários de θ

• Passo 2: Gerar k amostras a partir de uma cadeia de markov cujo kernel de transição é dado por T(θk+1 θk) e admite como distribuição estacionária a densidade procurada.

(23)

• Remover k0 amostras a partir do período de burn-in da cadeia e calcular os estimadores requeridos utilizando a equação (3.9).

Portanto o núcleo de qualquer abordagem MCMC é o kernel de transição

) ( k 1 k

T θ + θ que representa a probabilidade do movimento de θ da cadeia para o k

próximo estado θk+1, portanto definindo a forma na qual o novo estado da cadeia é obtido a partir do estado atual. Todos os algoritmos de MCMC utilizam a mesma estrutura base apresentada acima, diferindo somente na forma com que o kernel de transição é definido. Neste trabalho o kernel de transição é definido, baseado na condição de reversibilidade, a partir do algoritmo Metropolis hastings.

Uma cadeia de Markov satisfaz a condição de reversibilidade se existe uma distribuição (.)π tal que.

) ( ) ( ) ( ) ( k 1 k k 1 T k k 1 k T θ + θ

π

θ + = θ θ +

π

θ (3.11) Quando esta condição é satisfeita a cadeia é reversível e a distribuição π(.) é estacionária. Entretanto é possível propor uma pequena alteração, utilizando um kernel de transição definido por

α

.T∗(θk+1 θk), onde a probabilidade de que um movimento seja aceito não é mais determinada por T∗(θk+1 θk) mas unicamente por um fator

) (θk+1 θk

α

que é calculado como segue.

(

)

      = ∗ + + + + , 1 ) ( ) ( ) ( ) ( min , 1 1 1 1 k k k k k k k k T T θ θ θ θ θ θ θ θ π π α (3.11)

No presente trabalho é utilizado um kernel de transição do tipo passo aleatório, de forma que as amostras da cadeia são geradas da seguinte forma.

w θ

θk+1 = k + p. (3.12) onde p representa o passo de busca, enquanto wé um vetor que contém números aleatórios com distribuição uniforme, cujos limites inferior e superior são dados,

(24)

respectivamente, por -1 e 1. Portanto, considerando o tipo de kernel empregado, tem-se que a equação (3.11) toma a seguinte forma.

(

)

      = + + , 1 ) ( ) ( min , 1 1 k k k k θ θ θ θ π π α (3.13)

3.4 - Problema Inverso Determinístico

Este item tem como foco a apresentação da formulação do problema inverso determinístico, o qual será empregado, posteriormente, para auxiliar a aplicação tanto da inferência bayesiana, assim como do projeto ótimo de experimento.

Considerando que a formulação geral do problema inverso já foi apresentada, pode-se formular o problema inverso determinístico como aquele que fornece como solução um vetor de parâmetros θ que maximiza a função de verossimilhança, que para condição de erros aditivos e gaussianos toma a seguinte forma.

[

]

[

]

      − ∑ − − ∑ = − ) ( ) ( 2 1 exp 2 1 ) / ( 2 / 1 y y θ y y θ θ

yobs obs T e 1 obs

e

π

π

(3.14)

onde Σe representa a matriz de covariância dos erros experimentais. Tomando a derivada da equação (3.14) se verifica que o ponto de máximo da função de verossimilhança corresponde ao ponto de mínimo de uma função objetivo definida abaixo.

[

( )

] [

( )

]

) (θ = yobsy θ TΣ−e1 yobsy θ S (3.15)

Assumindo que os erros experimentais são não correlacionados e possuem variância constante, a função objetivo pode ser simplificada como segue.

[

( )

] [

( )

]

)

(θ = yobsy θ T yobsy θ

(25)

Portanto, uma vez definida a função objetivo, deve-se realizar o procedimento de minimização, o qual consiste na busca de um vetor de parâmetros θ para os quais a função objetivo alcança o mínimo global. A princípio, a minimização da função objetivo pode ser feita por qualquer método de otimização, porém fatos como a frequente não linearidade dos modelos e a presença de mínimos locais tornam, muitas vezes, a minimização da função objetivo uma tarefa difícil. Assim, a escolha adequada do método pode ser determinante para o sucesso do procedimento de estimação de parâmetros.

Basicamente, existem dois tipos de métodos de minimização: determinísticos e heurísticos. Os métodos determinísticos são baseados no uso de técnicas clássicas do cálculo diferencial para buscar os pontos onde o gradiente da função objetivo é nulo. Entretanto para sistemas não lineares a convergência para o mínimo global depende de uma estimativa inicial do vetor θ que seja próxima do mínimo global [35].

Por outro lado, os métodos heurísticos tendem a imitar processos de otimização observados na natureza para minimizar a função objetivo, de forma que seus procedimentos iterativos não fazem uso do calculo de gradiente [36]. Estes métodos também são capazes de resolver problemas não lineares devido à habilidade em driblar os mínimos locais.

Também deve-se destacar, que os métodos heurísticos apresentam um elevado custo computacional quando comparado com os métodos determinísticos, e isto se deve ao caráter aleatório da busca pelo mínimo global, que se reflete em um grande número de avaliações da função objetivo. Dentre os diversos métodos heurísticos destacam-se: Algortimo genético, Evolução diferencial, Enxame de partículas, Recozimento Simulado entre outros.

No presente trabalho decidiu-se utilizar o método do Enxame de Partículas nas análises onde a abordagem determinística de problemas inversos é empregada. Tal escolha foi baseada na facilidade de implementação do algoritmo, além da capacidade deste método em apresentar bons resultados em diferentes aplicações. [37].

(26)

3.4.1- Enxame de Partículas

O método do Enxame de Partículas consiste em um algoritmo iterativo de busca do mínimo global o qual se baseia no comportamento gregário de animais (peixes, pássaros, etc.). Este método foi proposto [38] de forma a representar a troca de informações entre os elementos de um grupo. Neste método, o movimento de cada partícula, em cada iteração, corresponde à soma de três termos distintos: o primeiro termo é relativo à inércia das partículas e traduz o modo com que as partícula vem se movendo ao longo do espaço de busca. O segundo termo está relacionado com a atração da partícula pelo melhor ponto que já encontrou. O terceiro termo está relacionado com a atração da partícula para o melhor ponto que todo o grupo já encontrou. Desta forma, as seguintes equações foram propostas [38].

1 , , 1 + + = + k d i k d i k i v θ

θ

(3.17) ) .( . ) .( .1 , , 2 2 , , 1 , 1 , k d i k d g k d i k d i k d i k d i v c r p θ c r p θ v + = + − + − (3.18) onde os índices k, i e d denotam, respectivamente, a iteração, a partícula e a direção de busca, v é a velocidade e θ representa a posição das partículas no espaço de busca, c1 e

c2 são duas constantes positivas, chamadas respectivamente de parâmetro cognitivo e

social, r1 e r2 são vetores, gerados a cada iteração, formados por números aleatórios

com distribuição uniforme no intervalo [0, 1]; pi é o melhor ponto encontrado pela

partícula i, e pg responde pelo melhor valor encontrado por todo enxame.

O Método do Enxame de Partículas apresenta um comportamento característico ao longo das iterações. Nas iterações iniciais, o caráter aleatório é alto e as partículas realizam uma busca global sobre toda região de busca. Com a evolução das iterações, dá-se início à etapa local da busca, onde as partículas se concentram em torno das regiões mais promissoras encontradas durante a etapa global [35].

Com o objetivo de balancear o caráter global e local da busca pelo ponto ótimo, foi proposta [39] uma alteração na equação do método, que consistiu na introdução de um novo parâmetro, chamado de peso de inércia ou fator de inércia, o qual pondera o termo relativo à velocidade prévia da partícula, de acordo com a seguinte equação:

(27)

) .( . ) .( . . , 1 1 , , 2 2 , , 1 , k d i k d g k d i k d i k d i k d i wv c r p θ c r p θ v + = + − + − (3.19)

Este peso de inércia pode ser uma constante positiva ou mesmo uma função do número de iterações, podendo ser positivo linear ou não linear. Foi verificado [35], que valores altos de w aumentam o caráter global da busca, enquanto que valores pequenos de w

aumentam o caráter local da busca, fazendo com que as partículas convirjam rapidamente, sem que haja uma boa exploração do espaço de busca. Desta forma, uma alternativa interessante é iniciar a busca com um valor alto de w, e diminuir este valor ao longo das iterações [35].

A configuração do enxame de partículas utilizada neste trabalho considera a inserção do peso de inércia, o qual varia linearmente de 1 e 0 ao longo das iterações. Vale mencionar que visando evitar a explosão das partículas durante as iterações foi utilizada uma barreira, a qual reposiciona as partículas, no interior de uma região pré-definida, de forma aleatória, quando as mesmas ultrapassam uma determinada região [40].

3.5 - Projeto Ótimo de Experimento

Uma vez que a técnica de estimação que será utilizada no presente trabalho foi adequadamente apresentada, deseja-se focar no projeto ótimo de experimento. O que se deseja fazer é conduzir um experimento no qual a resposta do sistema seja medida de tal maneira que permita deduzir o máximo de informação possível sobre o vetor de parâmetros. Deve-se destacar que neste contexto, a definição do experimento envolve a especificação de condições de contorno, condições iniciais, tempos de amostragem, localização dos sensores e outros, na forma de um protocolo experimental [23]. Portanto, o objetivo geral do projeto ótimo de experimento é definir um protocolo experimental que permita estimar o vetor de parâmetros com a máxima confiança estatística

Deve-se destacar que a formulação aqui apresentada assume a hipótese de que em uma certa região ao redor do ponto de ótimo

θ, o modelo possui uma aproximação linear. Portanto, uma forma interessante de extrair informação acerca do problema de

(28)

otimização associado ao projeto ótimo de experimento pode ser obtida através de análises da função objetivo em torno do vetor de parâmetros estimados ( )

θ

S [24]. Portanto, consideremos a expansão de segunda ordem da série de Taylor da função objetivo. ) ( ) ( 2 1 ) ( ) ( ) ( ∧ ∧ ∧ ∧ − − + ∇ − + = θ θ θ Sθ θ Hθ θ θ θ θ T S S (3.20)

onde H e ∇ representam, respectivamente a matriz hessiana e o vetor gradiente. Deve-se destacar que a matriz hessiana pode Deve-ser calculada, de forma aproximada, como na equação abaixo.       ∂ ∂       ∂ ∂ = − ∧ θ y Σ θ y H e1 θ T 2 (3.21)

Considerando também, a relação entre a matriz de covariância dos parâmetros estimados e a matriz hessiana [22].

1

θ Σ H∧ =2 −

θ (3.22)

defini-se a matriz de informação de Fisher, como o inverso da matriz de covariância dos parâmetros, a qual toma a forma apresentada na equação a seguir.

      ∂ ∂       ∂ ∂ = − θ y Σ θ y M e1 T (3.23)

Na abordagem de Fisher, a qual é utilizada no presente trabalho para definição do projeto ótimo de experimento, o protocolo experimental é escolhido de forma a minimizar os componentes da matriz de covariância dos parâmetros através da maximização dos componentes da matriz de informação.

(29)

Entretanto, como M é uma matriz, o projeto ótimo de experimento é determinado pela exigência de que alguma medida desta matriz, a qual usualmente é dada por um escalar, seja maximizada. Dentre as diversas métricas propostas decidiu-se trabalhar com a D-optmally, que é apresentada na equação abaixo.

( )

(

det M

)

= opt

D (3.24)

A estratégia utilizada neste trabalho para determinar o ponto de máximo, é baseada na enumeração de possíveis protocolos experimentais e posterior cálculo da métrica D-optmally para cada configuração proposta, de modo que o projeto ótimo é definido a partir de uma comparação dos valores obtidos.

É importante mencionar que, como apresentado na equação (3.23), o cálculo da matriz de Fisher requer somente informação acerca do comportamento estatístico dos erros, e não necessita de informação acerca dos dados medidos. Outra observação importante diz respeito ao fato de que, a formulação aqui apresentada é baseada em análises locais, as quais não levam em consideração a variabilidade dos parâmetros. Entretanto no presente trabalho, é proposta e aplicada uma abordagem probabilística simplificada para o projeto ótimo de experimento.

3.6 - Método de Monte Carlo

As diversas incertezas presentes na modelagem computacional impossibilitam predições determinísticas, e sendo assim, sendo possível, devem ser utilizadas estratégias que visem incorporar estas incertezas dentro do modelo computacional. Um tipo de estratégia utilizada para abordar este problema consiste em modelar as incertezas como variáveis aleatórias e reformular os sistemas de equações diferenciais dos modelos determinísticos originais como sistemas de equações diferenciais estocásticas [5]. Dentre as possíveis formas de solucionar estas equações, escolheu-se trabalhar com um método baseado em amostragem, o qual é denominado método de Monte Carlo. Neste método é gerado um número k de amostras independentes, as quais são oriundas de funções densidade de probabilidade, as quais representam o nível de informação

(30)

acerca dos parâmetros de modelagem. A partir destas amostras, são geradas k predições determinísticas, as quais podem ser usadas para o cálculo de estimadores de valor esperado e de variância por exemplo. O método de Monte Carlo é de simples aplicação, pois requer apenas soluções repetidas para as equações determinísticas do sistema. Por outro lado, deve-se destacar que as soluções obtidas são aproximações da resposta desejada, devido ao fato de se utilizar um número finito de simulações, e que o nível de precisão desta aproximação depende do número de amostras consideradas. Portanto devem ser empregados critérios de convergência a fim de avaliar o número mínimo de amostras, para as quais pode ser considerado que a quantidade calculada convergiu [5].

3.7 -Validação de Modelos

Este item tem como foco a apresentação dos conceitos básicos da filosofia de validação de modelos. Neste ponto é importante destacar que embora a discussão aqui apresentada englobe diversos procedimentos que devem ser seguidos a fim de validar um modelo, neste trabalho serão abordados somente procedimentos preliminares de validação. Informações mais detalhadas acerca de estratégias de Verificação e Validação (V&V) de modelos computacionais podem ser obtidas em diversas referencias [4,6].

A fim de introduzir adequadamente o conceito de validação, deve-se apresentar as etapas envolvidas na construção de um modelo computacional. Dentro deste contexto, primeiro deve ser considerada a modelagem conceitual do problema, onde uma série de descrições e hipóteses sobre os processos físicos envolvidos na resposta mecânica do sistema são adotadas. Posteriormente tem-se a modelagem matemática, onde são definidas equações, valores de contorno e condições iniciais que descrevem o modelo conceitual. Deste modo, a modelagem física representa uma interpretação do mundo real baseada em observações experimentais e, no melhor dos casos, corresponde apenas a uma aproximação. E, por último, defini-se o modelo computacional o qual responde pela etapa de implementação numérica do modelo matemático, usualmente na forma de uma discretização numérica, com algoritmo de solução e critério de convergência [4,6].

Uma vez apresentados estes conceitos, pode-se definir os processos de validação como aqueles que visam determinar o grau com o qual um modelo é uma representação

(31)

acurada do “mundo real” a partir de uma perspectiva de utilização e, deste modo, visam verificar a adequação dos modelos conceitual e matemático para a realidade de interesse [6]. Por outro lado, um dos principais motivos pelo qual se constrói um modelo computacional é para fornecer predições para aplicações onde dados experimentais não estão disponíveis. Portanto, neste sentido a aplicação de procedimentos de validação é fundamental, pois estes permitem inferir sobre o nível de confiança, de um modelo proposto para representar o comportamento real de um sistema para situações diferentes das quais o modelo foi calibrado [6].

A figura (3.1) apresenta aspectos importantes da validação, assim como de questões relativas a predições e calibração de modelo. Deste ponto em diante, por

(32)

questão de simplicidade, define-se (RFS) como uma resposta física do sistema. Retomando a discussão sobre a figura acima, tem-se que, num procedimento de validação, a mesma RFS deve ser obtida, tanto a partir do modelo computacional assim como do experimento. Deve-se destacar que algumas vezes a RFS experimental é obtida a partir de medições indiretas as quais podem demandar um significante processamento. Nestes casos, é importante que os dados sejam processados da mesma maneira, tanto no modelo computacional, assim como no experimento [41]. É importante mencionar que durante o planejamento e projeto do experimento, deve ocorrer uma freqüente comunicação entre modeladores e experimentalistas, e ainda após a realização do experimento, os experimentalistas devem fornecer informações aos modeladores sobre todas as quantidades importantes de entrada necessárias para conduzir as simulações computacionais [41].

Analisando a parte central da figura (3.1) se observa que as RFSs experimental e computacional são entradas de um operador que retorna como saída uma métrica de interesse ou, em algumas situações, um conjunto de métricas. O segundo passo na validação lida com comparações entre as métricas resultantes e valores pré-estabelecidos a partir de uma determinada exigência de acerácea. Se estas comparações forem consideradas satisfatórias conclui-se que não existem fortes evidências para invalidar o modelo. Em caso contrário, algumas medidas devem ser tomadas tais como : (i) revisar os protótipos experimentais, condições de operação e sistemas de mediação, (ii) reiniciar o processo de calibração de modelos, (iii) possivelmente até mesmo revisitar a estrutura do modelo adotado e etc.

A definição da exigência de acerácea deve levar em consideração diversos fatores e, de acordo com ROY e OBERKAMPF [4], tais fatores englobam a complexidade do modelo, o aumento da incerteza devido a extrapolação do modelo, tolerância de risco nas decisões envolvidas e consequências da falha ou sub-desempenho do sistema de interesse.

(33)

4 - Resultados Preliminares

A teoria envolvida na inferência bayesiana foi apresentada no capítulo anterior, fornecendo o embasamento necessário para a aplicação desta ferramenta na solução de problemas inversos de interesse e, deste modo, este ferramental será utilizado na estimação dos parâmetros constitutivos do modelo de variáveis internas na forma de uma distribuição de probabilidade marginal a posteriori. Entretanto, é importante mencionar, que sendo possível, a inferência bayesiana deve ser utilizada de forma a maximizar o estado de conhecimento, tanto dos parâmetros estimados assim como das quantidades físicas calculadas a partir destes parâmetros através do modelo.

Neste sentido, este capítulo é de grande importância, pois apresenta análises sobre a influência de diversos fatores, tais como o nível de poluição experimental, modelagem dos erros experimentais e número de parâmetros estimados, sobre os resultados, tanto do problema de inferência estatística, assim como de processos de propagação de incerteza. Também são abordadas estratégias preliminares que visam avaliar a capacidade de predição do modelo dentro de uma filosofia de validação de modelos.

Por outro lado, métodos que visam reduzir o custo computacional das simulações envolvidas não serão aplicados, principalmente devido a complexidade envolvida nestas abordagens que constituem, por si só, um tema de pesquisa [5,42,43]. Por este motivo decidiu-se trabalhar, neste capítulo, com um problema computacional simples, onde a resposta do sistema pode ser simulada milhares de vezes em períodos de tempo inferiores a dez minutos, isto considerando que o desktop utilizado nas simulações é um Core I7 de 3.7GHz e 16Gb de memória.

4.1 - Sistema Investigado

O problema investigado compreende um sistema massa-mola-amortecedor de um grau de liberdade anexado a um componente viscoelástico, onde o comportamento mecânico do componente dissipativo é representado pela representação discreta da equação constitutiva apresentada nas equações (2.4) e (2.5).

(34)

Os parâmetros do sistema estão ilustrados na figura (4.1) e seus valores apresentados na tabela (4.1), onde M , k, c, representam, respectivamente, massa, rigidez e amortecimento, enquanto que E , E1 e b1, são parâmetros do modelo de variáveis internas, o qual apresenta apenas uma variável interna. As quantidades y(t) e f(t) representam, respectivamente, a saída do modelo dada pela solução do problema direto e a excitação sobre o sistema.

M 1 [ Kg] k 10 [N/m] c 0.04 [ Nsm-1] E 1 [N/m] 1 E 6 [N/m] 1 b 5 [Nsm2]

Portanto, o problema direto para o sistema acima compreende uma equação diferencial ordinária com coeficientes constantes, que é apresentada abaixo.

) ( ) ( ) ( ) ( ) (t cz t kz t F t F t z M + + = − R • • • (4.1)

Figura 4.1 – Sistema dinâmico investigado.

(35)

onde z(t),z(t),z(t)

• • •

representam, respectivamente, deslocamento, velocidade e aceleração do sistema, enquanto que FR(t)responde pela força de restituição devido ao

componente dissipativo, a qual pode ser calculada como segue.

(

( ) ( )

)

) ( ) (t Ez t E1 z t t FR = + −

ξ

(4.2)

onde ξ(t)representa a variável interna do modelo para viscoelasticidade. Observe que a força de restituição depende tanto do deslocamento do sistema assim como da variável interna. Entretanto a variável interna evolui no tempo de acordo equação (2.5), de modo o problema direto passa a compreender um sistema acoplado de equações diferenciais, o qual pode ser escrito de forma matricial a partir da definição das quantidades

) ( ) ( 1 t z t z = e z2(t) z(t) • = como segue.           +                         − − + + − =               • • • 0 / ) ( 0 ) ( ) ( ) ( 0 / / / ) ( 0 1 0 ) ( ) ( ) ( 2 1 1 1 1 1 2 1 M t F t t z t z b b M E M c M E E k t t z t z

ξ

ξ

(4.3)

Esta equação matricial é resolvida através da formulação de espaço de estados, utilizando a plataforma computacional Matlab®. As figuras (4.2) e (4.3) apresentam, respectivamente, a amplitude da função de resposta em frequência e a resposta do sistema a um estímulo do tipo impulso, onde, em ambos os casos, a saída do problema direto é dada pelo deslocamento. Nestas figuras são apresentados os resultados tanto para o sistema com componente dissipativo, assim como sem componente dissipativo.

A partir destas representações do comportamento do sistema em domínios diferentes se conclui que o nível de dissipação do sistema aumentou de forma significativa com a inclusão do componente viscoelástico. Na figura (4.2) é possível observar este aumento devido ao maior espalhamento de função de transferência na região próxima a frequência natural. Na figura (4.3) se observa que o sistema com componente viscoelástico para de oscilar em aproximadamente dez segundos, enquanto que o outro sistema mantém altas amplitudes de vibração em tempos superiores a trinta

(36)

segundos, indicando uma alta dissipação de energia por parte do componente dissipativo.

Figura 4.2 – Função de transferência, saída do modelo: Deslocamento.

Referências

Documentos relacionados

O canabidiol é um composto presente na planta Cannabis sativa, que promove diversos benefícios à saúde humana, como por exemplo sobre as doenças neurológicas como epilepsia,

Não se está perante a situação de uma única falta injustificada; só se pode falar em falta de assiduidade se houver alguma continuidade, o que não implica que tenham de ser faltas

Combinaram encontrar-se às 21h

[Informar a data, o nome e a assinatura do dirigente máximo que aprovou o documento Termo de Abertura do Projeto antes deste projeto ser solicitado ao Governador pelo

Local de realização da avaliação: Centro de Aperfeiçoamento dos Profissionais da Educação - EAPE , endereço : SGAS 907 - Brasília/DF. Estamos à disposição

O segundo Beneficiário será designado pelo Segurado na Proposta de Adesão, podendo ser substituído a qualquer tempo, mediante solicitação formal assinada pelo próprio Segurado, para

O valor da reputação dos pseudônimos é igual a 0,8 devido aos fal- sos positivos do mecanismo auxiliar, que acabam por fazer com que a reputação mesmo dos usuários que enviam

No período de primeiro de janeiro a 30 de junho de 2011, foram encaminhadas, ao Comitê de Segurança do Paciente da instituição sede do estudo, 218 notificações de