• Nenhum resultado encontrado

Solu¸ c˜ ao alternativa Abordagem EM da Solu¸ c˜ ao Bock e Aitkin

1.3 Modelo DGM

2.1.3 Todos os parˆ ametros do modelo desconhecidos

2.1.3.3 Solu¸ c˜ ao alternativa Abordagem EM da Solu¸ c˜ ao Bock e Aitkin

Em geral, o algoritmo EM ´e um procedimento iterativo para encontrar as estimativas de m´axima verosimilhan¸ca na presen¸ca de vari´aveis aleat´orias n˜ao observadas em modelos pro- babil´ısticos que utiliza dois passos distintos. O E representa o passo ”expectation”e o M repre- senta o passo ”maximization”. Em TRI queremos encontrar estimativas para os parˆametros dos itens na presen¸ca da vari´avel aleat´oria n˜ao observada capacidade do estudante (θm). Para

realizar inferˆencia sobre θm´e utilizada uma representa¸c˜ao observada que ´e baseada nas respos-

tas aos itens, Y . No contexto do algoritmo, (Y , θm) ´e considerado o conjunto de dados com-

pletos n˜ao observados, e Y ´e o conjunto de dados incompleto observado. Seja f (Y , θm|a, b)

a fun¸c˜ao densidade de probabilidade conjunta dos dados completos (Y , θm), onde a, b repre-

sentam os vetores dos parˆametros dos itens a serem estimados. Dados os vetores provis´orios de parˆametros dos itens no d-´esimo ciclo, os vetores na itera¸c˜ao seguinte ad+1, bd+1 s˜ao cal- culados pela maximiza¸c˜ao da esperan¸ca da log-verosimilhan¸ca, E[log f (Y , θm|a, b)|Y , ad, bd],

em rela¸c˜ao a a e b. Este processo ´e repetido at´e o crit´erio de convergˆencia ser satisfeito. Os dois passos do algoritmo s˜ao:

Passo-E: calcular E[log f (Y , θm|a, b)|Y , ad, bd];

Passo-M: escolher ad+1, bd+1 tal que a esperan¸ca ´e maximizada. (2.51) Existem v´arias formas do algoritmo EM, distinguidas pelas restri¸c˜oes particulares colocadas ao modelo probabil´ıstico, que dependem da rela¸c˜ao entre o modelo TRI (probabilidade) e a fam´ılia de distribui¸c˜oes exponencial. Se o modelo de probabilidade ´e um membro da habi- tual fam´ılia de distribui¸c˜oes exponencial a estat´ıstica suficiente para θm existe e o algoritmo

reduz-se a tomar a esperan¸ca da estat´ıstica suficiente condicionada aos dados observados e os parˆametros provis´orios estimados (Passo-E), substituindo essas esperan¸cas condicionadas na maximiza¸c˜ao ou Passo-M, e executar a habitual estima¸c˜ao de m´axima verosimilhan¸ca. Em TRI apenas o modelo 1-PL ´e membro da fam´ılia exponencial. No entanto, um algoritmo EM pode pode ser utilizado mesmo que o modelo probabil´ıstico n˜ao siga nenhum tipo de fam´ılia exponencial n˜ao havendo, no entanto, garantias de convergˆencia do m´etodo.

Para a aplica¸c˜ao ao modelo 2-PL a forma de f (Y , θm|a, b) ´e desconhecida e n˜ao ´e mem-

bro da fam´ılia exponencial e por isso a estat´ıstica suficiente para a estima¸c˜ao de m´axima verosimilhan¸ca n˜ao est´a dispon´ıvel. Como substituto s˜ao tomados os valores esperados do log f (Y , θm|a, b) condicional a algumas representa¸c˜oes observadas de θ e essas quantidades

tratadas como se fossem conhecidas (Passo-E). A forma particular da representa¸c˜ao de θm

varia em fun¸c˜ao do problema ao qual o algoritmo ´e aplicado. Esses valores s˜ao ent˜ao utili- zados para encontrar as estimativas dos parˆametros maximizando o logaritmo da fun¸c˜ao de verosimilhan¸ca (Passo-M) utilizando m´etodos de m´axima verosimilhan¸ca.

Para percebermos melhor o procedimento vamos assumir que a capacidade dos estudantes ´e restringida a um conjunto finito de valores, θk, com probabilidades ψ1, ..., ψk, ..., ψq. Seja

tamb´em mi= (mi1, ..., mik, ..., miq)0 o n´umero de estudantes em cada um dos q n´ıveis de ca-

pacidade para o item i, e ri = (ri1, ..., rik, ..., riq)0 o n´umero de respostas corretas em cada um

dos q n´ıveis de capacidade para o item i. Se as capacidades de M estudantes forem uma amos- tra aleat´oria da distribui¸c˜ao acima, a probabilidade conjunta de que mi1, · · · , mik, · · · , miq

estudantes ter˜ao n´ıveis de capacidade θ1, · · · , θk, · · · , θq ent˜ao m segue uma distribui¸c˜ao mul-

tinomial, Multi(M ,ψ1, · · · , ψq), ou seja

f (mi|ψ) = " M ! mi1!...mik!...miq! # q Y k=1 ψmik k . (2.52)

Dados mik e θk, o n´umero de estudantes com capacidade θk que responde corretamente ao

item i, rik, tem distribui¸c˜ao binomial de parˆametros mik e Pi(θk), portanto

g(r1k, · · · , rIk|θk, a, b, m) = I Y i=1 mik rik  Pi(θk)rikQi(θk)mik−rik, (2.53)

e a probabilidade conjunta de m e r, que traduz a verosimilhan¸ca, ´e dada por

L = q Y k=1 I Y i=1 mik rik  Pi(θk)rikQi(θk)mik−rik " m! mi1!...mik!...miq! # q Y k=1 ψmik k . (2.54)

Ignorando os termos constantes, o logaritmo da verosimilhan¸ca para os dados completos pode ser escrito como

log(L) ≈ q X k=1 I X i=1 "

riklog Pi(θk) + (mik− rik) log Qi(θk) + log ψk

#

. (2.55)

Neste caso, (m, r) n˜ao ´e observado, mas dados a, b utilizando a esperan¸ca condicional a Y do logaritmo da verosimilhan¸ca obtemos

E[log(L)] = (2.56) q X k=1 I X i=1 (

E(rik|Y , ai, bi) log Pi(θk) + E[(mik− rik)|Y , ai, bi)] log Qi(θk) + E(mik|Y ) log ψk

) .

A ´ultima parcela do somat´orio duplo na express˜ao 2.56 pode ser ignorada pois n˜ao depende de ai, bi. Maximizar a express˜ao 2.56 ´e equivalente a maximizar a express˜ao do Passo-E em

2.51, e, para um dado g(θ|τ

e

do itens que s˜ao solu¸c˜oes das equa¸c˜oes de m´axima verosimilhan¸ca marginal das express˜oes 2.40 e 2.41.

Uma vez que se assume que os itens s˜ao independentes as segundas derivadas cruzadas de diferentes itens s˜ao 0 no Passo-M, e portanto a maximiza¸c˜ao de E(log L) ´e realizada para cada item isoladamente. Apresenta-se de forma sucinta o algoritmo EM para o modelo 2-PL.

1. Passo E

(a) Utilizar a quadratura dada pela express˜ao 2.45 e as estimativas provis´orias para os parˆametros dos itens para calcular a verosimilhan¸ca do vetor das classifica¸c˜oes de cada estudante em cada um dos q n´os da quadratura.

(b) Utilizar a express˜ao 2.46 e os pesos da quadratura A(Xk) em cada um dos q n´os

para calcular a verosimilhan¸ca de que a capacidade do m-´esimo estudante ´e Xk.

(c) Utilizar as equa¸c˜oes 2.47 e 2.48 para gerar rik e mik, que representam respeti-

vamente o n´umero de esperado de estudantes a responder ao item i e o n´umero esperado de respostas corretas para esse item e para o n´o k da capacidade. 2. Passo M

(a) Resolver as equa¸c˜oes de m´axima verosimilhan¸ca 2.40 e 2.41 em rela¸c˜ao aos parˆame- tros do item utilizando rik e mik. Como estes valores dependem dos termos de

f (Xk|ym, a, b, τ e

) os quais, por sua vez, dependem dos parˆametros do item que s˜ao desconhecidos, as equa¸c˜oes de m´axima verosimilhan¸ca s˜ao impl´ıcitas e devem ser resolvidas iterativamente utilizando uma s´erie de Taylor e o procedimento de Newton-Raphson/Fisher.

3. Se, no geral, a fun¸c˜ao de m´axima verosimilhan¸ca ´e inalterada em rela¸c˜ao ao ciclo an- terior, o processo de estima¸c˜ao do item convergiu e termina. Caso contr´ario, repetir passos 1 e 2.

A abordagem MMLE/EM ´e muito ´util na estima¸c˜ao dos parˆametros do item ai e bi pois

a marginaliza¸c˜ao sobre θm produz estimativas consistentes desses parˆametros para testes

de dimens˜ao finita e permite conceptualizar ai e bi como amostras aleat´orias da popula¸c˜ao

com a capacidade do estudante distribu´ıda de acordo com a fun¸c˜ao densidade g(θ|τ

e

). O algoritmo EM n˜ao envolve uma solu¸c˜ao bayesiana uma vez que os parˆametros s˜ao tratados como constantes, ou seja as estimativas do parˆametro s˜ao geradas utilizando m´etodos de m´axima verosimilhan¸ca.

No cap´ıtulo seguinte ser´a realizada a abordagem bayesiana.

2.2

Abordagem bayesiana

Na abordagem bayesiana os parˆametros quer sejam relativos ao item i, ai e bi, quer sejam

relativos ao estudante m, θm, s˜ao tratados como vari´aveis aleat´orias e s˜ao estimados via dis-

tribui¸c˜oes marginais a posteriori. Neste caso, as estimativas de Bayes s˜ao calculadas para substituir as estimativas de m´axima verosimilhan¸ca.

no entanto flex´ıvel metodologia para estimar θm, ai e bi. Baker and Kim (2004) descreve o

modelo atrav´es da Figura 2.1

Item i Estudante m ai bi θm Pi Ymi

Figura 2.1: Modelo TRI

A fun¸c˜ao de probabilidade de ymi nas aplica¸c˜oes TRI pode ser definida, de acordo com a

equa¸c˜ao 2.2 como f (ym|θm, a, b) = I Y i=1 Pi(θm)ymiQi(θm)1−ymi,

e a fun¸c˜ao de verosimilhan¸ca definida na equa¸c˜ao 2.57 onde o produto de ordem m ´e devido a assumir a independˆencia da experiˆencia no TRI e o produto de ordem i ´e devido a assumir a independˆencia local.

L = f (Y |θ, a, b) = M Y m=1 f (ym|θm, a, b) = M Y m=1 I Y i=1 f (ymi|θm, ai, bi). (2.57) O logaritmo da verosimilhan¸ca ´e log L = log f (Y |θ, a, b) = M X m=1 I X i=1 [ymilog Pi(θm) + (1 − ymi) log Qi(θm)]. (2.58)

Considerando o modelo 2-PL onde θm ∈ < ´e unidimensional definido em 1.10

Pi(θm, ai, bi) = P [Ymi= 1|θm, ai, bi] =

1 1 + eai(θm−bi),

de seguida ser´a especificado o modelo 2-PL na perspetiva bayesiana.

Documentos relacionados