• Nenhum resultado encontrado

Ap´os a especifica¸c˜ao do modelo, tornar-se essencial a escolha do m´etodo de estima¸c˜ao dos parˆametros. A seguir ´e feito um breve resumo sobre os m´etodos de inferˆencia baye- sianos.

Na inferˆencia Bayesiana, a principal ferramenta para estima¸c˜ao dos parˆametros do modelo ´e a distribui¸c˜ao a posteriori. Essas distribui¸c˜oes s˜ao capazes de conter tanto in- forma¸c˜oes provindas dos dados, atrav´es da fun¸c˜ao de verossimilhan¸ca, quanto informa¸c˜oes vindas de cren¸cas ou conjecturas do pesquisador a respeito dos parˆametros desconhecidos. Assim, diferentemente dos m´etodos cl´assicos que tratam os parˆametros como quantida- des fixas, a inferˆencia Bayesiana atribui aos parˆametros uma distribui¸c˜ao de probabi-

lidade chamada de distribui¸c˜ao a priori. Atrav´es dessas distribui¸c˜oes que tais cren¸cas s˜ao incorporadas ao modelo. No entanto, quando n˜ao se tem informa¸c˜oes pr´evias so- bre os parˆametros, distribui¸c˜oes a priori n˜ao informativas s˜ao utilizadas, fazendo assim, uma associa¸c˜ao `a inferˆencia cl´assica. Logo, a distribui¸c˜ao a posteriori dos parˆametros ´

e dada como a combina¸c˜ao da fun¸c˜ao de verossimilhan¸ca e da distribui¸c˜ao a priori dos parˆametros, da seguinte forma:

p(θ|s1, ..., sn) ∝ L(λ(·); s1, ..., sn)p(θ), (3.18)

em que p(θ|s1, ..., sn) e p(θ) s˜ao as distribui¸c˜oes a posteriori e a priori, respectivamente,

para o vetor de parˆametros θ. A express˜ao 3.18 ´e fundamentada no teorema de Bayes. Para obter mais detalhes sobre a teoria da inferˆencia Bayesiana, consultar Migon et al.

(2014).

O estimador Bayesiano para θ ´e aquele que minimiza o risco a posteriori de Bayes. No caso particular da fun¸c˜ao perda quadr´atica, um estimador para θ ´e representado por ˆθ que minimiza E[(θ − ˆθ)2|s], isto ´e, ˆθ = E(θ|s). Al´em de estimadores pontuais, o intervalo de credibilidade tamb´em pode ser obtido. No entanto, em muitos casos a distribui¸c˜ao a posteriori n˜ao possui forma anal´ıtica conhecida ou os c´alculos dessas medidas resumo s˜ao de dif´ıcil resolu¸c˜ao. Para contornar tal problema, m´etodos iterativos computacionais s˜ao utilizados, como os m´etodos de Monte Carlo via cadeias de Markov (MCMC).

Os m´etodos MCMC permitem obter amostras de uma distribui¸c˜ao alvo π(.) (no caso da estima¸c˜ao bayesiana, a distribui¸c˜ao alvo ´e a distribui¸c˜ao a posteriori) por meio de simula¸c˜ao estoc´astica e ent˜ao calcular as estimativas amostrais. O processo ´e iniciado em um estado arbitr´ario θ(0), e ap´os um n´umero suficientemente grande de simula¸c˜oes, a distribui¸c˜ao das observa¸c˜oes geradas ´e aproximadamente igual a distribui¸c˜ao alvo π(θ), θ ∈ Rr. Para mais detalhes desses m´etodos, consultar Gamerman e Lopes (2006). Os dois algoritmos MCMC mais significativos ser˜ao apresentados a seguir.

3.2.1

Amostrador de Gibbs

O amostrador de Gibbs gera, de forma iterativa, uma amostra da distribui¸c˜ao conjunta de interesse a partir das distribui¸c˜oes condicionais completas dos parˆametros desconhe-

cidos do modelo. Seja π(θ) a distribui¸c˜ao conjunta de todos os parˆametros que se tem o interesse de amostrar, onde θ = (θ1, ..., θr). Denote por θ−l o vetor composto por todos

os elementos de θ exceto pelo elemento θl, l = 1, ..., r e π(θl|θ−l) a distribui¸c˜ao condi-

cional completa do parˆametro θl. O amostrador de Gibbs gera sucessivamente amostras

das distribui¸c˜oes condicionais completas da seguinte forma:

1. Determinar um valor inicial para cada θl, definindo θ(0) = (θ (0) 1 , ..., θ

(0) r ).

2. Iniciar o contador de itera¸c˜ao i = 1.

3. Obter um novo valor para θ(i) = (θ(i)1 , ..., θ(i)d ) pela gera¸c˜ao sucessiva das distri- bui¸c˜oes condicionais completas:

θ(i)1 ∼ π(θ1|θ (i−1) 2 , ..., θr(i−1)), θ(i)2 ∼ π(θ2|θ (i) 1 , θ (i−1) 3 , θ (i−1) 4 ..., θ(i−1)r ), .. . θ(i)r ∼ π(θr|θ (i) 1 , ..., θ (i) r−1) 4. Atualizar o contador i = i + 1.

5. Repetir os passos 3 e 4 at´e que a convergˆencia seja obtida.

A convergˆencia da cadeia de Markov acontece depois de um per´ıodo chamado de aquecimento. Conforme o n´umero de itera¸c˜oes aumenta a cadeia converge sob algu- mas condi¸c˜oes para distribui¸c˜ao de equil´ıbrio π e a inferˆencia ´e feita levando-se em considera¸c˜ao os valores gerados ap´os a convergˆencia. E comum usar os valores de´ θ(a), θ(a+e), θ(a+2e), ... para compor a amostra de θ sendo a − 1 o n´umero de itera¸c˜oes

iniciais do aquecimento e e o espa¸camento utilizado para diminuir a autocorrela¸c˜ao que pode ocorrer nas cadeias geradas, ou seja, considera-se somente valores a cada e itera¸c˜oes.

3.2.2

Metropolis-Hastings

quando n˜ao se sabe gerar da distribui¸c˜ao condicional completa de um parˆametro θl. Sendo

assim, o algoritmo utiliza a ideia de que um valor ´e gerado de um distribui¸c˜ao auxiliar q(.) e aceito ou n˜ao com uma dada probabilidade que depende de π(.) e q(.), desse modo a convergˆencia para a distribui¸c˜ao limite π(θ) ´e garantida. Abaixo est˜ao os passos do algoritmo.

1. Determinar um valor inicial para θl, definindo θ (0) l .

2. Iniciar o contador de itera¸c˜ao i = 1.

3. Gerar ξ ∼ q(ξ|θl(i−1)) de uma distribui¸c˜ao conhecida chamada de fun¸c˜ao de transi¸c˜ao ou distribui¸c˜ao proposta.

4. Aceita-se o ponto gerado no passo anterior com probabilidade:

min ( 1, π(ξ) q(ξ|θ(i−1)l ) q(θl(i−1)|ξ) π(θl(i−1)) )

Se o ponto for aceito, θl(i) = ξ, caso contr´ario, θl(i) = θ(i−1)l e a cadeia n˜ao se move.

5. Atualizar o contador i = i + 1.

6. Repetir os passos 3, 4 e 5 at´e que a convergˆencia seja obtida.

Nota-se que esse algoritmo s´o apresenta passos para um determinado θl, cuja dis-

tribui¸c˜ao condicional completa n˜ao ´e conhecida. Ent˜ao, pode-se utilizar os passos de Metropolis-Hastings para complementar o algoritmo de Gibbs, quando uma ou mais con- dicionais completas n˜ao s˜ao conhecidas. Uma amostra de aquecimento e o espa¸camento tamb´em s˜ao tomados neste algoritmo. Em ambos os algoritmos, para determinar o ta- manho da amostra de aquecimento e o espa¸camento, comumente se realiza uma an´alise gr´afica das itera¸c˜oes das cadeias e das fun¸c˜oes de autocorrela¸c˜ao. Ent˜ao, os valores de a e e s˜ao tomados at´e que todos os parˆametros alcancem a convergˆencia e baixa autocor- rela¸c˜ao.

Ap´os a utiliza¸c˜ao desses m´etodos, torna-se trivial a inferˆencia dos parˆametros, visto que se tem uma amostra das distribui¸c˜oes a posteriori dos mesmos.

Documentos relacionados