• Nenhum resultado encontrado

Considere que Yc = (Y , W ), em que Y e W s˜ao os dados observados e os dados perdidos (missing), respectivamente, representa o conjunto de dados completos com densidade f (yc; Ψ) parametrizada por um vetor de parˆametros Ψ ∈ Θ ⊆ Rq.

O algoritmo EM (DEMPSTER, LAIRD e RUBIN, 1977) em cada itera¸c˜ao ´e formado pelos passos: Esperan¸ca (passo E) e Maximiza¸c˜ao (passo M). O logaritmo da fun¸c˜ao de verossimilhan¸ca dos dados completos ´e denotada por l(Ψ; yc) = log{f (y, w; Ψ)}. Ent˜ao, os passos desse algoritmo para dados incompletos s˜ao

Passo E para bΨ = Ψ(s), calcular

Q(Ψ| bΨ(s)) = E[l(Ψ; yc)|y, bΨ(s)] =R l(Ψ; yc)g(w|y, bΨ(s))dw.

Passo M escolher Ψ(s+1) que ´e um valor de Ψ ∈ Θ que maximize Q(Ψ| bΨ(s)).

Alterna-se os passos E e M at´e atingir convergˆencia. Sob certas condi¸c˜oes apropriadas, a sequˆencia {Ψ(s)} obtida por meio do algoritmo EM converge para a estimativa

de m´axima verossimilhan¸ca de Ψ. Para mais detalhes ver Wu (1983) ou Little e Rubin (2002). Para monitorar a convergˆencia pode-se utilizar a mudan¸ca nos valores das es-timativas dos parˆametros. Assim, o algoritmo p´ara quando a mudan¸ca nos valores das esti-mativas dos parˆametros ´e insignificante (pequena), mas n˜ao ´e claro, em todos os casos, que m´etrica deve ser usada. Por exemplo, a convergˆencia pode ser verificada quando

max³|Ψ(s+1)

i − Ψ(s)i |

(s)i | + δ1

´

< δ2

em que δ1 e δ2 s˜ao constantes pr´edeterminadas. Searle et al. (1992) comentam que v´arios pesquisadores usam δ1 = 0, 001 e δ2 = 0, 0001. Alternativamente, a convergˆencia pode ser ver-ificada quando |Q(Ψ(s+1)| bΨ(s)) − Q(Ψ(s)| bΨ(s))| ´e suficientemente pequena (TANNER, 1991). Existem casos que a integral no passo E do algoritmo EM n˜ao tem forma fechada. Wei e Tanner (1990) introduziram o algoritmo EM por Monte Carlo (EMMC) que substitui a esperan¸ca matem´atica no passo E por uma aproxima¸c˜ao Monte Carlo.

Assim, se uma amostra aleat´oria de [w(s)1 , . . . , w(s)N ] ´e gerada a partir da dis-tribui¸c˜ao g(w|y, bΨ(s)), a esperan¸ca matem´atica do passo E pode ser estimada pela soma de

Monte Carlo QN(Ψ| bΨ(s)) = E{l(Ψ; yc)|y, bΨ(s)} = 1 N N X n=1 l(Ψ; y, w(s)n ), (48)

em que o sub-escrito N denota a depˆendencia do estimador em rela¸c˜ao ao tamanho amostral empregada no m´etodo de Monte Carlo e l(Ψ; yc) = Pilog[f (yi|w)] + log[g(w; D)]. Pela lei

dos grandes n´umeros, o estimador na equa¸c˜ao (48) converge para a esperan¸ca te´orica no passo E (LEVINE; CASELLA, 2001). Portanto o algoritmo EM por Monte Carlo envolve o uso da quantidade estimada na equa¸c˜ao (48) no lugar de Q. Ent˜ao, o passo M maximiza a soma dada na equa¸c˜ao (48) em rela¸c˜ao a Ψ. Para mais detalhes ver Chan e Ledolter (1995). Al´em disso, o passo M pode requerer procedimentos num´ericos para maximiza¸c˜ao.

Ent˜ao, no passo E do algoritmo EM por Monte Carlo ´e necess´ario simular amostras a partir de g(w|y, Ψ(s)). Existem diversos m´etodos na literatura para simular tal amostra, dentre eles, destacam-se amostragens a partir do m´etodo de Monte Carlo baseado em cadeias de Markov (MCMC), tais como, o algoritmo de Metropolis-Hasting, amostragem de importˆancia ou amostragem com rejei¸c˜ao.

Baseado no trabalho de McCulloch (1997) foi escolhido o algoritmo de Metropolis-Hasting, que para ser usado ´e necess´ario especificar uma distribui¸c˜ao proposta,

h(u) da qual novos valores s˜ao gerados e uma fun¸c˜ao de aceita¸c˜ao fornece a probabilidade de

aceita¸c˜ao do novo valor (e com probabilidade complementar o valor anterior ´e mantido). Fa¸ca w denotar uma amostra pr´evia gerada da distribui¸c˜ao condicional de w|y e gere um novo valor w usando a distribui¸c˜ao proposta. Ent˜ao aceita-se w como novo valor com probabilidade Aq(w, w); caso contr´ario, retenha w. Sendo que, Aq(w, w) ´e dado por

Aq(w, w) = min ½ 1,g(w |y; Ψ)h(w) g(w|y; Ψ)h(w) ¾ . (49)

McCullock (1997) escolheu h = g, assim o segundo termo entre as chaves em (49) simplifica para g(w|y; Ψ)h(w) g(w|y; Ψ)h(w) = Qn i=1f (yi|w; Ψ)g(w; D)g(w; D) Qn i=1f (yi|w; Ψ)g(w; D)g(w; D) Qn i=1f (yi|w; Ψ) Qn i=1f (yi|w; Ψ) (50)

Quando o algoritmo de Metropolis-Hasting ´e incorporado no algoritmo EM obt´em-se o algoritmo EMMC com os seguintes passos:

1. escolha os valores iniciais Ψ(0). Fa¸ca s=0.

2. Gere N valores, w1, w2, · · · , wN, a partir de g(w|y; β(s), σ(s)) usando o algoritmo de Metropolis:

a. escolha β(s+1) e σ(s+1) que maximize 1

N

PN

n=1log[f (y|wn; Ψ)]

b. escolha D(s+1) que maximize 1

N

PN

n=1log[g(wn; D)]

c. Fa¸ca s = s + 1.

3. Se convergˆencia ´e obtida, assuma que β(s+1), σ(s+1) e D(s+1) s˜ao as estimativas de m´a-xima verossimilhan¸ca, caso contr´ario, retorne ao passo 2.

Duas importantes considera¸c˜oes devem ser levadas em conta na implementa¸c˜ao do algoritmo EMMC que s˜ao monitoramento da convergˆencia do algoritmo e a especifica¸c˜ao do tamanho da amostra, N, do m´etodo de Monte Carlo.

Wei e Tanner (1990) notaram que ´e ineficiente iniciar o algoritmo EMMC com elevados valores de N quando o valor atual da aproxima¸c˜ao da estimativa de m´axima verossi-milhan¸ca n˜ao est´a pr´oxima do verdadeiro valor do parˆametro. Ent˜ao, sugeriram aumentar o valor de N com o n´umero de itera¸c˜oes.

Devido a introdu¸c˜ao do erro da simula¸c˜ao de Monte Carlo no passo E, n˜ao se pode garantir que o logaritmo da fun¸c˜ao de verossimilhan¸ca seja crescente a cada itera¸c˜ao. Mas, o algoritmo EMMC ainda converge para as estimativas de m´axima verossimilhan¸ca sob certas condi¸c˜oes de regularidade (veja, por exemplo, Chan e Ledolter, 1995). Vaida, Fitzgerald e DeGruttola (2007) propuseram um crit´erio de parada para algoritmo EMMC para modelos de efeitos mistos n˜ao-linear com dados censurados usando o desvio padr˜ao emp´ırico do logaritmo da fun¸c˜ao de verossimilhan¸ca.

Alternativamente, convergˆencia pode ser verificada quando a mudan¸ca nos va-lores das estimativas dos parˆametros ´e insignificante (pequena), como no algorimo EM, e novamente n˜ao ´e claro que m´etrica deve ser usada.

Existem diversos trabalhos sobre convergˆencia e de como selecionar o tamanho da amostra do m´etodo de Monte Carlo para o algoritmo EMMC, por exemplo, Chan e Ledolter (1995) para modelos de s´erie temporais envolvendo contagens usando o logaritmo da fun¸c˜ao de verossimilhan¸ca e Booth e Hobert (1999) implementaram um algoritmo EMMC para modelos lineares generalizados mixtos de maneira que o tamanho da amostra do Monte Carlo aumenta automaticamente de acordo com a avalia¸c˜ao do erro de Monte Carlo assoaciado com Ψ(s+1). Entretanto, na situa¸c˜ao de interesse a vari´avel resposta yji n˜ao ´e observada completamente para todo par (j, i), devido `a ocorrˆencia de observa¸c˜oes censuradas. Assim, ´e necesss´ario incorporar ao algoritmo EMMC descrito nesta se¸c˜ao as observa¸c˜oes censuradas como dados perdidos. Na pr´oxima se¸c˜ao ´e apresentado, de maneira geral, o algoritmo EMMC considerando o efeito aleat´orio e os tempos censurados como dados perdidos.

Documentos relacionados