• Nenhum resultado encontrado

CONFIABILIDADE ESTRUTURAL

2.1 NOÇÕES DE INCERTEZAS

2.3.3 Índice de Confiabilidade (β)

O índice de confiabilidade é um parâmetro que permite estimar diretamente a probabilidade de falha apenas com informações a respeito dos primeiros momentos da função de desempenho (𝐺). Estas informações são geralmente de fácil obtenção.

A luz do problema básico da confiabilidade estrutural definido através da margem de segurança (𝐺) pela Eq. (2.11), assumindo que 𝑅 e 𝑆 são variáveis estatisticamente independentes e de distribuição normal (o que sempre pode ser obtido através da normalização das variáveis), 𝐺 também terá uma distribuição normal e seus parâmetros estáticos são dados pelas Eqs. (2.18) e (2.19). S R G

(2.18) 2 2 S R G

  (2.19)

Nesta condição — variáveis normais estatisticamente independentes — a probabilidade de falha pode ser determinada com exatidão através da Eq. (2.20) em que 𝛽 representa o índice de confiabilidade e Φ representa a função distribuição de probabilidade acumulada da variável Normal padrão. Por sua vez, o índice de confiabilidade 𝛽 é dado pela Eq. (2.21) em que 𝜇𝐺 e 𝜎𝐺 representam respectivamente a média e o desvio padrão da margem de segurança (ou função

de desempenho).

)

(

f

p

(2.20) G G

 (2.21)

2 2 S R S R

(2.22)

Geometricamente (Figura 2.9) o índice de confiabilidade representa a menor distância entre a curva 𝐺(𝒁) = 0 e a origem dos eixos no espaço das variáveis aleatórias reduzidas representadas pelo vetor Z. As variáveis reduzidas são obtidas através da normalização das variáveis originais (R e S) conforme as Eqs. (2.23) e (2.24) em que 𝑅 e 𝑆 representam as variáveis originais. A normalização das variáveis originais é um procedimento adotado para problemas em que as variáveis originais não têm as suas funções distribuição de probabilidade conhecidas fazendo com que a confiabilidade seja dada apenas a partir de seus primeiros momentos (a média e o desvio padrão). Portanto quando estes momentos são conhecidos, o índice de confiabilidade pode ser determinado geometricamente como a menor distância entre a curva da função de desempenho e a origem dos eixos no espaço das variáveis aleatórias reduzidas. As variáveis reduzidas são determinadas a partir dos primeiros e segundos momentos das variáveis originais (Eqs. (2.23) e (2.24) ).

R R R R Z

  (2.23) S S S S Z

  (2.24)

Através da Figura 2.6 mostrada anteriormente pode-se observar que o índice de confiabilidade mede igualmente a distância entre a média da função de desempenho das variáveis originais 𝐺(𝑅, 𝑆) e o ponto zero em unidade de desvios padrão.

2.4 SIMULAÇÃO DE MONTE CARLO

De acordo com Ang e Tang (1975), a simulação é o processo de reprodução do mundo real com base em um conjunto de hipóteses e modelos e pode ser realizada de forma teórica ou experimental. Na prática, a simulação teórica é feita de forma numérica e se tornou uma ferramenta muito prática devido ao avanço computacional. Tal como métodos experimentais, a simulação numérica pode ser usada para obtenção de dados simulados com o intuito de completar ou substituir dados existentes sobre um problema definido.

Na verdade, a simulação teórica é um método de experimento numérico ou experimento computacional que pode ser usada na engenharia para prever e estudar o desempenho ou a resposta de um dado sistema. A partir de um conjunto de prescrições a respeito dos parâmetros do sistema, em especial as variáveis de dimensionamento, o processo de simulação possibilita a medição do desempenho ou da resposta do mesmo. Através de simulações repetidas, a sensibilidade do desempenho do sistema a variações em seus parâmetros é avaliada de maneira a determinar as melhores alternativas de projeto e decifrar o dimensionamento ótimo.

Tecnicamente, a simulação de Monte Carlo consiste na repetição do processo de simulação usando-se em cada uma um conjunto particular de valores para as variáveis aleatórias; valores estes gerados de acordo com as suas respectivas distribuições de probabilidade. Por isso, a Simulação de Monte Carlo é indicada para problemas envolvendo variáveis aleatórias com distribuições de probabilidade conhecidas ou assumidas.

A repetição do processo permite a obtenção de uma amostra de soluções cada uma correspondendo a um conjunto diferente de valores das variáveis aleatórias. Considera-se que uma amostra da simulação de Monte Carlo corresponde a uma amostra obtida através de observações experimentais (ANG e TANG, 1975). Por isso, os resultados obtidos através da simulação de Monte Carlo podem ser tratados estatisticamente e apresentados em termos de histogramas de maneira que métodos estatísticos de estimativas sejam aplicados. Desta forma, a simulação de Monte Carlo é igualmente uma técnica de amostragem e com isso está sujeita a erros de amostragem ao exemplo dos outros métodos da teoria de amostragem.

A tarefa fundamental da simulação de Monte Carlo é a geração de número aleatórios a partir de distribuições de probabilidade prescritas. Uma vez os números aleatórios gerados, o processo da simulação se torna determinístico por meio da avaliação sequencial do desempenho para cada conjunto de valores gerados.

De acordo com Diniz (2008), o uso da simulação de Monte Carlo para avaliar o desempenho estrutural pode ser requerido para alcançar as finalidades abaixo:

 calcular as estatísticas (média, desvio padrão e tipo de distribuição) da resposta da estrutura. Neste caso, primeiro é obtida a amostra da resposta e uma distribuição de probabilidade é ajustada aos dados dessa amostra;

 calcular a probabilidade de falha. Neste caso, a função de desempenho é estabelecida e a amostra dos possíveis resultados é simulada. A cada simulação é associado um dado valor do desempenho avaliado. O total de valores correspondentes ao desempenho insatisfatório dividido pelo número total de simulações realizadas constitui a probabilidade de falha procurada.

Portanto, dois itens são primordiais para a implementação da simulação de Monte Carlo na avaliação de estruturas:

(1) uma relação determinística para descrever a resposta da estrutura, geralmente a função de desempenho;

(2) as distribuições de probabilidade de todas as variáveis envolvidas na resposta da estrutura. Para Haldar e Mahadevan (2000), a simulação de Monte Carlo pode ser implementada com eficiência através das seguintes etapas:

(b) quantificar as características probabilísticas de todas as variáveis em termos de suas funções densidade de probabilidade (PDF) para variáveis contínuas ou em termos de suas funções massa de probabilidade (PMF — do inglês Probability Mass Function) para variáveis discretas assim como seus parâmetros estatísticos correspondentes;

(c) gerar valores numéricos para estas variáveis, haverá N valores para cada variável se forem usadas N simulações;

(d) avaliar o problema de forma determinística para cada conjunto de realizações (valores) das variáveis aleatórias, ou seja, realizar o experimento numérico;

(e) extrair informações probabilísticas das N realizações; e (f) determinar a precisão e a eficiência da simulação.

2.4.1 Geração de números aleatórios discretos

A ferramenta chave para a implementação da simulação de Monte Carlo é a geração apropriada de números aleatórios das variáveis aleatórias de acordo com as suas respectivas distribuições de probabilidade. A tarefa de geração de números aleatórios é muito laboriosa, por isso, a simulação de Monte Carlo é mais efetiva com apoio de recursos computacionais graças aos quais se pode gerar automaticamente os números aleatórios seguindo as distribuições de probabilidade prescritas.

Com o propósito didático, será apresentado aqui o procedimento geral de geração de números aleatórios. Lembra-se que, esta tarefa é facilmente realizada por Programas comerciais, como por exemplo, o MATLAB. Geralmente estes programas oferecem funções específicas para a geração de números aleatórios segundo diversos tipos de distribuição de probabilidade. Tais funções facilitam em muito a implementação de procedimentos computacionais relativos à simulação de Monte Carlo como o procedimento implementado neste trabalho através do MATLAB conforme explicitado na seção 6.2.

Geralmente, todos os computadores modernos têm a capacidade de gerar números uniformemente distribuídos entre 0 e 1. Com base em um valor arbitrário “seed value”, os geradores produzem números uniformemente distribuídos entre 0 e 1. Ao mudar o valor do “seed value”, diferentes números aleatórios distintos daqueles correspondentes ao primeiro “seed value” são gerados. Programas robustos utilizam o mesmo mecanismo para gerarem

números aleatórios de variados tipos de distribuições de probabilidade, entre eles, o já citado MATLAB.

Teoricamente, a geração de números aleatórios passa essencialmente por duas etapas conseguintes. A primeira consiste na geração de números aleatórios uniformemente distribuídos entre 0 e 1, o que pode ser obtido através de computadores conforme destacado acima ou através de tabelas. A segunda consiste na obtenção de números aleatórios seguindo distribuições específicas através de transformações apropriadas. Estas etapas podem ser realizadas por meio do processo mostrado na Figura 2.10 conhecido como técnica da transformação inversa ou o método do inverso do CDF (do inglês — Cumulative Distribuition Function). Neste método, iguala-se o CDF da variável aleatória a um dos valores 𝑢𝑖 gerados através da distribuição uniforme, ou seja, 𝐹𝑋(𝑥) = 𝑢𝑖, e em seguida resolve-se a equação para 𝑥𝑖 de acordo com a Eq.

(2.25).

Considerando-se uma variável 𝑋 com a sua função densidade de probabilidade (CDF) 𝐹𝑋(𝑥). A uma dada realização 𝐹𝑋(𝑥) = 𝑢, o valor da variável aleatória 𝑋 correspondente à realização u é dado por:

)

(

1 i X i

F

u

x

 (2.25)

Considerando os diferentes valores 𝑢𝑖 da variável aleatória 𝑈 uniformemente distribuída e seus correspondentes valores 𝑥𝑖 obtidos através da Eq. (2.25), obtém-se o PDF desejado da variável

Figura 2.10 – Mapeamento entre as variáveis U e X (HALDAR e MAHADEVAN, 2000)