• Nenhum resultado encontrado

OTIMIZAÇÃO CONSIDERANDO INCERTEZAS

5 OTIMIZAÇÃO CONSIDERANDO INCERTEZAS

5.3 CÁLCULO DAS ESTATÍSTICAS

5.3.2 Técnicas de amostragem

A geração das amostras pode ser feita de maneira totalmente aleatória (ou pseudo- aleatória), ou utilizando técnicas mais eficientes para o plano de amostragem (“Design of experiments” – DoE) (GIUNTA et al, 2002) tal como o método LHS (“Latin Hiper- cube Sampling”) que melhora a distribuição dos pontos da amostra e conseqüentemente aumenta a convergência do MC. As amostras com distribuição Lognormal são geradas a partir de amostras com distribuição Normal, estas são geradas a partir de amostras com distribuição Uniforme. A geração computacional desta ultima é feita através de algorit- mos determinísticos, capazes de gerar recursivamente uma sequência finita de números inteiros ou de ponto flutuante, com um determinado período, sendo por isso chamados de números pseudo-aleatórios.

No presente trabalho as metodologias utilizadas para a geração das amostras serão uma técnica pseudo-aleatória e o LHS. Na primeira abordagem será considerado o algo- ritmo “Mersenne Twister” (MT) (MATSUMOTO, 1998) para a geração de amostras com distribuição uniforme, seguido por um algoritmo polar para obter as amostras com distribuição Normal. Ambos os algoritmos usados são do ambiente MATLAB 7.5 (MATHWORKS, 2007).

O LHS é um método utilizado para a geração de uma amostra que cubra mais efici- entemente o espaço das variáveis aleatórias, para um determinado número de pontos. A sua idéia básica é dividir o intervalo de cada uma das n dimensões da amostra pelo nú- mero de pontos pretendidos N, onde cada subintervalo tem a mesma probabilidade de ocorrência. Os N pontos são dispostos de forma que cada subintervalo de cada uma das n variáveis tenha apenas um ponto, para mais detalhes vide (BARÓN, et al , 1999). As amostras LHS são geradas a partir de uma amostra aleatória com distribuição normal, a qual é ajustada para que as distribuições marginais de cada variável se aproxime da sua distribuição de probabilidade teórica (STEIN, 1987).

Quando se faz o cálculo das estatísticas de uma amostra de variáveis aleatórias ge- radas por alguma das técnicas mencionadas, em geral esses parâmetros não apresentam os mesmos valores originais das variáveis aleatórias, calculados através das PDF das va- riáveis. Estes parâmetros são desejados, pois, como se pode notar na aproximação de MC do exemplo anterior, eles estão diretamente ligados à convergência da aproxima-

ção. Pode-se ver no exemplo anterior, que quanto mais esses valores se aproximam de seus valores originais, melhor será a aproximação do MC para esta amostra.

Deste modo, como será utilizada a mesma amostra-base, durante todo o processo de otimização, foi criada uma estratégia para a seleção de uma amostra, escolhida a partir de um conjunto de amostras. A amostra selecionada será a que apresentar as estatísticas mais próximas da desejada, a partir de uma determinada norma.

Para a distinção das amostras foi proposta uma função que faz uma ponderação do erro (de forma empírica) das estatísticas da amostra. As amostras são geradas conside- rando uma distribuição Normal padrão ∼N

( )

0,1 . Essa equação empírica, que qualifica as amostras, faz a ponderação dos logaritmos dos erros quadráticos dos momentos cen- trais estatísticos das amostras, dando maior peso aos momentos de maior ordem. Esta função é definida como:

(5.22)

( ) (

)

( )

( )

2 2 2 ln ( 1) ln ln ln 2 6 2 x Err s F 24 σ κ μ − = + + + (5.22)

onde μé a média da amostra, σx o seu desvio padrão, a obliqüidade e a curtose. Para uma amostra com distribuição Normal padrão

s κ

( )

0,1

N : μ, e s κ devem ser iguais a zero, enquanto σx deve se aproximar de um. A amostra selecionada é a que apresenta o menor valor de . Este procedimento não pretende escolher a amostra que conse- guirá a melhor aproximação por MC do parâmetro de interesse, apenas se quer evitar que ocasionalmente se utilize uma amostra deficiente que empobreça a aproximação. Vale salientar que o mesmo foi criado de maneira intuitiva e adaptado em função de ex- perimentos numéricos realizados.

Er F r

Outras duas funções “teste”, para se diferenciar as amostras, foram aplicadas: o tes- te de Kolmogorov-Smirnov e o teste de Anderson-Darling, (NIST/SEMATECH, 2009). Elas testam o quanto a CDF de uma dada amostra se aproxima da CDF de uma dada distribuição. Os resultados de propagação de incerteza obtidos com amostras LHS sele- cionadas por estes critérios não apresentaram grande avanço em comparação com as amostras LHS originais (isto é, sem critério de seleção), para o exemplo considerado (especificado a seguir).

(a) Exemplo - MC por diferentes amostragens

Para exemplificar o uso da amostra selecionada, considere a função

( , ) ( ) ( )

f X Y =sen X cos Y , onde X e Y são variáveis aleatórias ∼N

(

1,0.1

)

. Foi realizada uma aproximação da média fMCe do desvio padrão ˆσf de ( , )f X Y por MC, utilizando

três técnicas de amostragem diferentes: totalmente aleatória, LHS padrão e LHS sele- cionada, para este último, foram analisados conjuntos de cinco mil amostras. Variou-se o tamanho da amostra de 64 até 16.384 para cada tipo de amostra. Este procedimento foi repetido 50 vezes, pois seus resultados são aleatórios, então foi calculado o erro mé- dio no cálculo de fMC de cada tipo de amostra.

No caso das amostras LHS selecionadas, para cada uma das 50 repetições feitas, um conjunto diferente de cinco mil amostras foi analisado, consequentemente 50 amos- tras selecionadas diferentes foram obtidas (totalizando 250.000 amostras analisadas e 50 selecionadas), para cada tamanho de amostra diferente.

Na Figura 5.4 é apresentado o gráfico da do erro médio de fMC, para os diferentes

tamanhos de amostras (de 64 até 16384) pelos três tipos de amostragem. O erro foi me- dido em relação à média exata f calculada simbolicamente pelo do MATLAB, através das Equações (5.7), (5.8) e (5.13).

a) b)

Figura 5.4 Erro médio na aproximação por MC utilizando três técnicas de amostragem diferentes: totalmente aleatória, LHS padrão e LHS selecionada: a) Erro da média e b)

Erro do desvio padrão.

Como se pode observar na Figura 5.4 (a) a amostra LHS Selecionada apresentou melhor resultado no cálculo da média para tamanhos de amostras menores, porém à me- dida que o número de pontos aumenta a diferença entre as amostras LHS diminui, sendo necessário um conjunto maior de amostras para extrair uma que se sobressaia significa- tivamente. Os resultados da LHS Selecionada chega a apresentar um erro médio maior que o LHS simples para amostras maiores. Já para o cálculo do desvio padrão os resul- tados não foram muitos diferentes, quando se compara o LHS com o LHS Selecionado. No gráfico nota-se também, a convergência mais acentuada do LHS em relação à amos- tra totalmente aleatória*, para o cálculo da média e do desvio padrão.

Para este caso simples o custo computacional do LHS Selecionado não justificaria o seu uso, pois o tempo de CPU pra se gerar uma amostra LHS é maior que a propia ava- liação da função ( , )f X Y . Porém, para problemas em que o custo computacional, de se gerar e avaliar uma amostra LHS, é irrelevante em comparação ao custo do cálculo da função de interesse, o processo de seleção amostral mostrou-se adequado para os casos aqui considerados (seção 5.4.2). Assim sendo, nos exemplo analíticos posteriores serão usadas amostras LHS padrão, enquanto que nos exemplos práticos o processo de sele- ção amostral será empregado.

Documentos relacionados