M ´etodos de Diagn ´
ostico para Modelos
Lineares Mistos
Aluno: Juv ˆencio Santos Nobre juvencio@ime.usp.br
Orientador: Prof. PhD J ´ulio da Motta Singer
jmsinger@ime.usp.br
Introdução
Experimentos com medidas repetidas referem-se a casos no qual
cada unidade experimental é observada pelo menos duas vezes.
Exemplo
Estudo realizado na FOUSP. Objetivo: comparar dois tipos de escova, monobloco e
convencional, quanto à manuntenção da capacidade de remoção da placa bacteriana (durabilidade) sob uso
Introdução
Experimentos com medidas repetidas referem-se a casos no qual
cada unidade experimental é observada pelo menos duas vezes.
Exemplo
Estudo realizado na FOUSP.
Objetivo: comparar dois tipos de escova, monobloco e convencional, quanto à manuntenção da capacidade de remoção da placa bacteriana (durabilidade) sob uso
Modelagem da Estrutura de Correlação
Espera-se uma dependência entre as observações referentes a uma mesma unidade experimental. Propostas para modelar a estrutura de correlação intra-unidade experimental:
Inclusão de variáveis latentes em modelos lineares (não
lineares), gerando assim os modelos lineares (não lineares) mistos e os modelos lineares generalizados mistos [Laird & Ware (1982), McCulloch & Searle (2001)];
Inclusão de uma matriz de correlação de trabalho (EEG)[Liang & Zeger (1986)].
Modelos Lineares Mistos
Um modelo linear misto pode ser escrito na forma
Yi = Xiβ + Ziγi + εi (i = 1, ..., c), (1)
Considerando Y = (Y1>, · · · , Yc>)>, X = (X>1 · · · X>c )>,
Z=diag(Z1, · · · , Zc), γ = (γ1>, · · · , γc>)> e ε = (ε>1 , · · · , ε>c )> temos:
Yn×1 = Xn×pβp×1 + Zn×cqγcq×1 + εn×1. (2)
Usualmente, assume-se que
" γ ε # ∼ Ncq+n " 0cq 0n # , " ∆ 0cq×n 0n×cq Σ #! , (3) com γ1, ..., γc i.i.d.∼ Nq(0, G) [∆ = Ic N G].
Modelos Lineares Mistos
∆ e Σ são funções de poucos parâmetros (desconhecidos) θ que
independem dos parâmetros de localização β, ou seja, ∆ = σ2D(θ)
e Σ = σ2R(θ). Fazendo ξ = Zγ + ε, obtém-se
Y = Xβ + ξ, (4)
com ξ ∼ Nn(0n, V), em que
V = σ2 ZDZ> + R . (5)
Se R = In ⇒ modelo de independência condicional
BLUE e BLUP
Seja γ ( ˆˆ β) o BLUP (BLUE) de γ (β) então:
ˆ
γ e βˆ são funções lineares de Y;
IE[ˆγ − γ] = 0 (IE[ ˆβ − β] = 0), ou seja, γ ( ˆˆ β) é não viesado para
γ (β);
ˆ
γ ( ˆβ) é o melhor preditor (estimador) de γ (β) dentro da classe
dos preditores (estimadores) lineares, no sentido, de que o mesmo minimiza o erro quadrático médio de previsão
(estimação).
Supondo V conhecida, mostra-se que
ˆ
β = X>MX−1 X>MY = X>V−1X−1 X>V−1Y e
ˆ
BLUE e BLUP
com M = σ2V−1 e Q = M − MX X>MX−1 X>M uma matriz
simétrica semi-definida positiva de ordem n (posto(Q)=n − p), com
QM−1Q = Q e QX = 0. Pode-se mostrar que
Cov " ˆ β − β ˆ γ − γ # = σ2 " X>R−1X X>R−1Z Z>R−1X Z>R−1Z + D−1 #−1 . (6)
BLUE e BLUP
com M = σ2V−1 e Q = M − MX X>MX−1 X>M uma matriz
simétrica semi-definida positiva de ordem n (posto(Q)=n − p), com
QM−1Q = Q e QX = 0. Pode-se mostrar que
Cov " ˆ β − β ˆ γ − γ # = σ2 " X>R−1X X>R−1Z Z>R−1X Z>R−1Z + D−1 #−1 . (7) EBLUE e EBLUP
Como D (V) depende de um vetor de componentes de
covariância θ∗ desconhecido, calculamos o BLUE e BLUP
com base no estimador θb∗; nesse caso eles são
denominados como BLUE e BLUP empíricos (EBLUE e
Testes de hipóteses e critérios de informação
Teste da Razão de Verossimilhanças;
Teste de Wald/Score [Verbeke & Molenberghs (2003)].
Problemas quando a hipótese de interesse situa-se na borda do espaço paramétrico [Self & Liang (1987)].
Testes de hipóteses e critérios de informação
Teste da Razão de Verossimilhanças;
Teste de Wald/Score [Verbeke & Molenberghs (2003)].
Problemas quando a hipótese de interesse situa-se na borda do espaço paramétrico [Self & Liang (1987)].
É comum utilizar alguns critérios de informação como o AIC, o BIC definidos como
AIC = −2l + 2d, (8)
BIC = −2l + d ln n, (9)
com l representando o máximo da log-verossimilhança (completa ou
restrita), d o número de parâmetros do modelo e n o número de
Aplicação
Singer & Andrade (1997) apontam as seguintes características que o modelo adotado para representar dados deste tipo deve apresentar:
(i) Um índice pré-tratamento nulo implica um índice pós-tratamento também nulo;
(ii) Os índices pré-tratamento e pós-tratamento são não-negativos; (iii) Os dados são possivelmente heterocedásticos (pois são
não-negativos e satisfazem a desigualdade y ≤ x);
(iv) A relação entre os índices pré-tratamento e pós-tratamento é possivelmente não-linear;
(v) As observações realizadas numa mesma unidade experimental são possivelmente correlacionadas.
Modelo
Singer et al. (2004) sugerem o seguinte modelo
yijd = βjdxγijdjdξijd, (10)
com βjd > 0, i = 1, 2, ..., 32, j = 0, 1, d = 1, 2, 3, 4.
yijd (xijd) é o índice de placa bacteriana pós-tratamento
(pré-tratamento) relativo a i- ´esima criança com a j- ´esima escova
na d- ´esima sessão de avaliação;
βjd é um coeficiente de placa bacteriana residual relativo à
j- ´esima escova e à d- ´esima sessão de avaliação;
γjd é um coeficiente de uniformidade da taxa de placa residual
esperada relativo à j- ´esima escova e a d- ´esima sessão de
Modelo
Considerando a seguinte transformação
ln yijd = ln βjd + γjd ln xijd + ln ξijd
yijd∗ = λjd + γjdx∗ijd + ξijd∗ , (11)
ξijd∗ = ln ξijd ∼ N(0, σi2). Para satisfazer a característica (v),
consideramos que o logaritmo do erro é decomposto da seguinte forma:
ξijd∗ = ψi + εijd, (12)
com ψi ∼ N(0, τ2) e εijd ∼ N(0, σ2), denotando respectivamente, o
Modelo adotado
ln Yi = Xiβ + Ziψi + εi, (13) em que β = (λ01, λ02, · · · , λ13, λ14, γ01, γ02, · · · , γ13, γ14)> e Zi = 14. A priori, consideramos Σi = Var[εi] = σ2 1 ρ ρ2 ρ3 ρ 1 ρ ρ2 ρ2 ρ 1 ρ ρ3 ρ2 ρ 1 . (14)Estratégia de análise
(i) Simplificação da estrutura de covariâncias (ρ = 0), ou seja,
Σi = σ2I4;
(ii) Testar a homogeneidade entre os coeficientes de uniformidade para as duas escovas nas quatro sessões de avaliação, ou
seja, testar se γjd = γ (j = 0, 1, d = 1, ..., 4);
(iii) Testar a significância do efeito de interação e dos efeitos
principais dos tipos de escova com relação aos coeficientes de placa bacteriana residual, ou seja,
λ01 − λ11 = λ02 − λ12 = λ03 − λ13 = λ04 − λ14 e λjd = λj;
(iv) Ajustar o modelo que incorpora as conclusões obtidas em (i), (ii) e (iii), ou seja, reduzir o modelo (10) para
Ajuste do modelo final
Figura 1: Ajuste do modelo final.∗
Indice de placa bacteriana pre-tratamento
Indice de placa bacteriana pos-tratamento
1.0 1.5 2.0 0.0 0.5 1.0 1.5 2.0 Convencional Monobloco
As observações representadas por • referem-se as crianças que
Objetivos da análise de diagnóstico
Verificar as suposições do modelo;
Identificar observações/unidades experimentais que exercem influência desproporcional no modelo ajustado;
Avaliar a robustez do modelo quando ele está sujeito a algum tipo de perturbação (qualquer mudança nas suposições ou nos dados).
Análise de Resíduos
No modelo (2), podemos definir três tipos de erro:
Erro condicional: ε = Y − IE[Y|γ] = Y − Xβ − Zγ; Efeitos aleat ´orios: Zγ = IE[Y|γ] − IE[Y];
Erro marginal: ξ = Y − IE[Y] = Y − Xβ = Zγ + ε.
Os respectivos resíduos (e matrizes de covariâncias ) são dados por
Res´ıduo condicional: ε = Y − X ˆˆ β − Zˆγ (Var[ˆε] = σ2Q); EBLUP: Zˆγ (Var[Zˆγ] = σ2ZDZ>QZDZ>);
Resíduo marginal e resíduo condicional
Resíduo marginal
Avaliar a suposição de linearidade entre IE[Y] e as
covariáveis X [Hilden-Minton (1995)];(ξˆ vs. x)
Avaliar o ajuste da estrutura de covariâncias [Weiss
(1995)], uma vez que Var[ξ] = V.
Resíduo condicional
Avaliar a hipótese de homocedasticidade do erro condicional;
Verificar a existência de observações discrepantes [Weiss &
Lazaro (1992), Weiss (1995), Oman (1995) e Pinheiro & Bates (2000, p.175)];
Gráfico dos elementos do resíduo condicional padronizado
vs. índices [R = In] εˆ∗i = εˆi
ˆ
Resíduo com confundimento mínimo
Sob a validade do modelo (2) temos
ˆ
ε = Qε + QZγ, (16)
implicando que εˆ é confundido pela presença de γ. Hilden-Minton
(1995) define a fração de confundimento para εˆi
0 ≤ CFi = Var[U>i ZγUi] Var[ˆεi] = U>i QZDZ>QUi U>i QUi = 1 − U>i QQUi U>i QUi ≤ 1. (17)
Para minimizar o efeito de confundimento, Hilden-Minton (1995)
su-gere utilizar uma tranformação linear de εˆ, L>εˆ, que minimize o
Resíduo com confundimento mínimo
Denotando as colunas de L por li, uma sugestão é minimizar o
confundimento de l>i εˆ, ou seja maximizar
λi =
l>i QQli
l>i Qli , (18)
sujeito a restrição Var[l>i ε] ∝ lˆ >i Qli > 0. Desta forma, mostra-se que
o vetor li que minimiza o confundimento é dado por li = πi−1/2Ki(i =
1, ..., n − p), com Ki representando a i- ´esima coluna de K, em que
Q = KΠK>, com Kn×(n−p); K>K = In−p e Π=diag(π1, ..., πn−p)
EBLUP
Encontrar possíveis unidades experimentais discrepantes
[Waternaux et al. (1989), Verbeke (1995), Verbeke & Lesaffre
(1996a), Pinheiro & Bates (2000) e Longford (2001)]
Ziγˆi reflete a diferença entre o valor predito e o valor médio
populacional para a i- ´esima unidade experimental, desta
forma podemos utilizar o EBLUP para encontrar unidades
experimentais discrepantes através de
ζi = ˆγi>Varc[ˆγi − γi]ˆγi ≈ χ2n
i.
Avaliar a hipótese de normalidade de γ [Lange & Ryan (1989) e
Jiang (2001)].
Estimativas consistentes mesmo quando γ não segue
EBLUP
Encontrar possíveis unidades experimentais discrepantes
[Waternaux et al. (1989), Verbeke (1995), Verbeke & Lesaffre
(1996a), Pinheiro & Bates (2000) e Longford (2001)]
Ziγˆi reflete a diferença entre o valor predito e o valor médio
populacional para a i- ´esima unidade experimental, desta
forma podemos utilizar o EBLUP para encontrar unidades
experimentais discrepantes através de
ζi = ˆγi>Varc[ˆγi − γi]ˆγi ≈ χ2n
i.
Avaliar a hipótese de normalidade de γ [Lange & Ryan (1989) e
Jiang (2001)].
Estimativas consistentes mesmo quando γ não segue
EBLUP
Encontrar possíveis unidades experimentais discrepantes
[Waternaux et al. (1989), Verbeke (1995), Verbeke & Lesaffre
(1996a), Pinheiro & Bates (2000) e Longford (2001)]
Ziγˆi reflete a diferença entre o valor predito e o valor médio
populacional para a i- ´esima unidade experimental, desta
forma podemos utilizar o EBLUP para encontrar unidades
experimentais discrepantes através de
ζi = ˆγi>Varc[ˆγi − γi]ˆγi ≈ χ2n
i.
Avaliar a hipótese de normalidade de γ [Lange & Ryan (1989) e
Jiang (2001)].
Estimativas consistentes mesmo quando γ não segue
EBLUP
Encontrar possíveis unidades experimentais discrepantes
[Waternaux et al. (1989), Verbeke (1995), Verbeke & Lesaffre
(1996a), Pinheiro & Bates (2000) e Longford (2001)]
Ziγˆi reflete a diferença entre o valor predito e o valor médio
populacional para a i- ´esima unidade experimental, desta
forma podemos utilizar o EBLUP para encontrar unidades
experimentais discrepantes através de
ζi = ˆγi>Varc[ˆγi − γi]ˆγi ≈ χ2n
i.
Avaliar a hipótese de normalidade de γ [Lange & Ryan (1989) e
Jiang (2001)].
Estimativas consistentes mesmo quando γ não segue
Figura 2: Resíduo Marginal e EBLUP do modelo final .
Logaritmo do indice de placa bacteriana pre-escovacao
Residuo Marginal -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 -1.0 -0.5 0.0 0.5 1.0 (a) 12.2 29.3 29.4 Unidade Experimental EBLUP 0 5 10 15 20 25 30 -0.4 -0.2 0.0 0.2 0.4 (b) 29
Figura 3: Resíduo condicional padronizado e envelope simulado
com 95% para o resíduo com confundimento mínimo.
Unidade Experimental
Residuo Condicional Padronizado
0 5 10 15 20 25 30 -4 -2 0 2 4 (a) 12.2 29.4 Quantis da N(0,1)
Residuo com confundimento minimo
-2 -1 0 1 2 -2 0 2 4 (b)
Análise de Sensibilidade
Identificar observações/unidades experimentais que exercem influência desproporcional no modelo ajustado;
Avaliar a robustez do modelo quando está sujeito a algum tipo de perturbação (qualquer mudança nas suposições ou nos dados).
Pontos/Observações Alavanca
Observações que exercem uma forte influência no respectivo valor predito; destacam-se observações com valores atípicos
das variáveis explicativas [Cook & Weisberg (1982) e Wei et al.
(1998)].
Considerando um modelo estatístico em que Yb = \IE[Y] = µ( ˆβ),
Wei et al. (1998) definem a matriz de alavancagem generalizada
GL( ˆβ) = ∂ bY ∂Y> = ∂ ˆyi ∂yj n×n , (19)
que reflete a taxa de mudança instantânea no respectivo valor pre-dito quando a variável resposta é acrescida por um infinitésimo. A
Observações alavanca para os efeitos fixos
Considerando γ como um parâmetro de pertubação no modelo,
uma vez que IE[Y] não depende do mesmo, e lembrando
ˆ
β = X>V−1X−1 X>V−1Y, tem-se que a matriz (19) fica
GL( ˆβ) = X X>V−1X−1 X>V−1. (20)
Definindo h∗ii = GL( ˆβ)ii, consideraremos o i- ´esimo ponto como
“ala-vanca" se h∗ii ≥ 2p/n. Usando a abordagem de Banerjee & Frees
(1997) podemos definir uma unidade experimental como alavanca
se tr(Hi)
ni ≥ 2p/n, em que Hi = Xi(X
>V−1X)−1X>
Alavancagem nos efeitos fixos e aleatórios
Uma observação pode influenciar tanto as estimativas dos efeitos fixos como as predições dos efeitos aleatórios;
Aconselhável medir esta influência de forma conjunta.
Uma proposta para incorporar informações a respeito dos efeitos
aleatórios, é considerar Yb ∗ = \IE[Y|γ] = X ˆβ + Zˆγ. Derivando Yb ∗
com relação a Y> GL( ˆβ, ˆγ) = ∂ bY∗ ∂Y> = b Y ∂Y> + ∂Zˆγ ∂Y> = GL( ˆβ) + ZDZ>Q. (21)
Figura 4: Alavancagem generalizada. Unidade Experimental Alavanca Generalizada 0 5 10 15 20 25 30 0.02 0.04 0.06 0.08 0.10
(a) Efeitos fixos por observacao 3.1 6.3 11.2 12.1 19.1 31.1 31.4 Unidade Experimental Alavanca Generalizada 0 5 10 15 20 25 30 0.020 0.025 0.030 0.035 0.040 0.045 (b) Efeitos fixos por UE 11 12 Unidade Experimental Alavanca Generalizada 0 5 10 15 20 25 30 0.16 0.18 0.20
(c) Efeitos fixos e aleatorios por observacao 3.1 6.3 11.2 12.1 31.1 Unidade Experimental Alavanca Generalizada 0 5 10 15 20 25 30 0.145 0.150 0.155 0.160 0.165
(d) Efeitos fixos e aleatorios por UE 1112
Eliminação de observações
Avaliar a influência de um conjunto de observações I através
da sua eliminação;
Importância de obter a relação entre θˆ e θˆ(I), evitando assim
reajustar o modelo; Incoveniente:
Estimativas dos parâmetros de covariâncias são obtidas iterativamente (processo computacionalmente intensivo); Propostas:
Considerar a estrutura de covariância conhecida, encontrar a relação e avaliar sobre a estrutura de covariância estimada [Hilden-Minton (1995), Haslett
(1999) e Fung et al. (2002)];
Fórmulas de atualização do BLUE e BLUP
Considerando V conhecida e que I = {i1, i2, ..., ik} mostra-se
ˆ β − ˆβ(I) = X>MX−1 X>MUIφˆI (22) e ˆ γ − ˆγ(I) = DZ>QUIφˆI, (23) com ˆ φI = U>I QUI−1 U>I QY (24) UI = (uij)n×k = (Ui1, Ui2, ..., Uik), (25)
Medidas baseadas na eliminação de observações
Uma das medidas mais utilizadas para avaliar a influência de um conjunto de observações, via eliminação, é a distância de Cook
[Cook (1977)] DI = b θ − bθ(I)> Uθ − bb θ(I) c , (26)
sendo U uma matriz positiva definida e c um parâmetro de escala.
DI mede a influência das observações do conjunto I na estimativa
do vetor de parâmetros θ, segundo a métrica definida por U e c. No
Generalizações da distância de Cook
Algumas “generalizações" de (26) são propostas dentro do
contexto de modelos lineares mistos. Uma proposta [Christensen et
al. (1992), Banerjee & Frees (1997) e Fung et al. (2002) ] é utilizar
DI = ( ˆβ − ˆβ(I)) >(X>Vb −1X)( ˆβ − ˆβ (I)) ˆ σ2 = ( bY − bY(I)) >Vb −1( bY − bY (I)) ˆ σ2 , (27)
para medir a influência das observações do conjunto I nas
Desvantagem de
D
I
Pode não detectar observações influentes nas estimativas dos
parâmetros de covariância [Banerjee (1998) e Tan et al. (2001)];
Dado que o efeito causado pela eliminação de uma observação na estrutura de covariância é equivalente ao efeito causado no
BLUP γˆ, então Tan et al. (2001) sugerem a utilização da medida de
Cook condicional nos efeitos aleatórios (i = 1, ..., n)
Dicond =
c
X
j=1
P>j(i)Varc[Y|γ]−1Pj(i)
(n − 1)c + p = c X j=1 P>j(i)Pj(i) k , (28)
com Pj(i) = bYj − bYj(i) = (Xj + Zjγˆj) − (Xj (i) + Zjγˆj(i)) e k = ˆσ2([n −
Decomposição de
D
i
cond
Podemos decompor (28) da seguinte forma
Dicond = D1icond + Dcond2i + D3icond, (29)
em que D1icond = ( ˆβ − ˆβ(i)) >(X>X)( ˆβ − ˆβ (i)) k = ( bY − bY(i))>( bY − bY(i)) k , D2icond = (ˆγ − ˆγ(i)) >Z>Z(ˆγ − ˆγ (i)) k , e D3icond = 2( ˆβ − ˆβ(i)) >X>Z(ˆγ − ˆγ (i)) k .
Influência de uma unidade experimental
Ao eliminar todas as observações de uma unidade
experimental não podemos prever o correspondente efeito aleatório.
Proposta: Avaliar a influência da i- ´esima unidade
experimental utilizando a média das distâncias (28) referentes a todas as observações da unidade
experimental, ou seja,
Dcondi. = (ni)−1 X
j∈I
Djcond, (30)
com I representando o conjunto das ni observações da
Figura 5: Distância de Cook condicional por observação. Unidade Experimental Di 0 5 10 15 20 25 30 0.0 0.01 0.02 0.03 0.04 0.05
(a) Distancia de Cook condicional 12.2 29.4 Unidade Experimental Di1 0 5 10 15 20 25 30 0.0 0.01 0.02 0.03 0.04 0.05 (b) D1i 12.1 12.2 29.4 Unidade Experimental D2i 0 5 10 15 20 25 30 0.0 0.01 0.02 0.03 0.04 0.05 (c) D2i 12.2 29.4 Unidade Experimental D3i 0 5 10 15 20 25 30 -0.001 0.0 0.001 (d) D3i 12.1 12.2 12.4
Figura 6: Distância de Cook condicional por unidade experimental. Unidade Experimental Di 0 5 10 15 20 25 30 0.0 0.005 0.010 0.015 0.020
(a) Distancia de Cook condicional 12 29 Unidade Experimental D1i 0 5 10 15 20 25 30 0.0 0.005 0.010 0.015 0.020 (b) D1i 12 29 D2i 0.010 0.015 0.020 (c) D2i 12 29 D3i 0.0 0.0002 0.0004 0.0006 (d) D3i
Influência Local
Proposto por Cook (1986) com o objetivo de avaliar a mudança nos resultados da análise quando incorporamos “pequenas
perturbações" ao modelo. A abordagem original baseia-se na análise do afastamento da verossimilhança (“likelihood
displacement")
LD(w) = 2nL(bθ) − L(bθw)
o
, (31)
em que:
L(·) é a log-verossimilhança do modelo postulado;
θ é um vetor p × 1 de parâmetros ;
L(·|w) é a log-verossimilhança do modelo “perturbado";
w representa um vetor q × 1 de perturbações relevantes,
Influência Local
b
θ e θbw são, respectivamente, os EMV baseados em L(·) e
L(·|w);
w0 ∈ Ω é o vetor que representa a ausência de perturbação, ou
seja, L(θ|w0) = L(θ), ∀θ ∈ Θ.
Quanto maior for LD(w) maior é a sensibilidade com relação ao
esquema de perturbação proposto. Nesse contexto LD(w) é
uti-lizada para comparar θb e θbw com respeito aos contornos da
Influência Local
Cook (1986) considerou o gráfico de influência (LD(w) vs. w)
como uma superfície em IRq+1 formada pelos valores do vetor
α(w) = w>, LD(w)> , (32)
com w variando em Ω. Para medir a sensibilidade do afastamento
da verossimilhança, Cook (1986) utilizou a curvatura normal de (32)
ao redor de w0 na direção de um vetor d (q × 1) de norma unitária,
Curvatura Normal
A curvatura normal de α(w) é dada por [Cook (1986, eq.16)]
Cd = −2d>H>L¨−1Hd, (33)
com L¨ = ∂2L(θ)/∂θ>∂θ |θ=θb e H = ∂2L(θ|w)/∂θ>∂w |w=w
0;θ=θb.
A curvatura normal (33) assume seu valor máximo quando
d = dmax, com dmax representando o autovetor normalizado
associado ao maior autovalor de −H>L¨−1H.
dmax indica qual o tipo de perturbação que produz a maior
mudança em LD(w);
O gráfico de | dmax | pode revelar qual o tipo de perturbação
que possue a maior influência em LD(w) na “vizinhança" de
Influência Local em Modelos Lineares mistos
Beckman et al. (1987) e Lesaffre & Verbeke (1998) utilizaram o
conceito de influência local em modelos lineares mistos;
Ambos basearam-se na verossimilhança marginal de Y
L(ψ) = −(1/2) ln |V| + (Y − Xβ)>V−1(Y − Xβ) , (34)
Tipos de perturbação
Perturbação na matriz de covariâncias de ε.
Identificar observações sensíveis a suposição de
Tipos de perturbação
Perturbação na matriz de covariâncias de ε.
Identificar observações sensíveis a suposição de
Tipos de perturbação
Perturbação na matriz de covariâncias de ε.
Identificar observações sensíveis a suposição de homocedasticidade.
Perturbação na variável resposta. Identificar observações sensíveis a pequenas perturbações
na variável resposta; No caso linear normal destacam-se
as observações com alto erro de predição |yi − ˆyi|
Tipos de perturbação
Perturbação na matriz de covariâncias de ε.
Identificar observações sensíveis a suposição de homocedasticidade.
Perturbação na variável resposta.
Identificar observações sensíveis a pequenas perturbações na variável resposta; No caso linear normal destacam-se
as observações com alto erro de predição |yi − ˆyi|
Tipos de perturbação
Perturbação na matriz de covariâncias de ε
Identificar observações sensíveis a suposição de homocedasticidade.
Perturbação na variável resposta
Identificar observações sensíveis a pequenas perturbações na variável resposta; No caso linear normal destacam-se
as observações com alto erro de predição |yi − ˆyi|
[Schwarzmann (1991)].
Perturbação na matriz de covariâncias de γi.
Identificar unidades experimentais sensíveis a suposição de homogeneidade entre as matrizes de covariâncias dos
Tipos de perturbação
Perturbação na matriz de covariâncias de ε
Identificar observações sensíveis a suposição de homocedasticidade.
Perturbação na variável resposta
Identificar observações sensíveis a pequenas perturbações na variável resposta; No caso linear normal destacam-se
as observações com alto erro de predição |yi − ˆyi|
[Schwarzmann (1991)].
Perturbação na matriz de covariâncias de γi.
Identificar unidades experimentais sensíveis a suposição de homogeneidade entre as matrizes de covariâncias dos
Figura 7: Perturbação na matriz de covariâncias de ε. ∗ |dmax| 0.2 0.4 0.6 0.8 1.0 1.2 12.2 29.4
Figura 8: Perturbação na variável resposta. ∗ Observacao |dmax| 0 5 10 15 20 25 30 0.0 0.2 0.4 0.6 0.8 1.0 1.2 12.2 29.4
Figura 9: Perturbação na matriz de covariâncias de γi. ∗ |dmax| 0.2 0.4 0.6 0.8 1.0 29
Caso ponderado
Lesaffre & Verbeke (1998) consideraram o modelo linear misto,
com a respectiva matriz de covariâncias Var[γi] = G não
estruturada. Nesse caso, a log-verossimilhança pode ser reescrita da seguinte forma L(ψ) = c X i=1 Li(ψ) = c X i=1 (−1/2)ln |Vi| + r>i V−1i ri , (35) com ri = ξi = Yi − Xiβ e Li(ψ) representando a
log-verossimilhança referente a i- ´esima U.E., respectivamente. Eles
surgeriram perturbar o modelo da seguinte forma
Li(ψ|w) =
c
X
i=1
wiLi(ψ), (36)
Influência local referente ao
i- ´esimoindivíduo
Lesaffre & Verbeke (1998) definiram a influência local referente ao i-ésimo indíviduo como sendo a curvatura normal (33) calculada
na direção do vetor di, com di representando um vetor de
dimensão c × 1 com valor 1 na i- ´esima posição e zero nas demais.
Nesse caso a curvatura normal é dada por
Ci = 2d>i H>L¨−1Hdi = 2 H>i L¨−1Hi , (37)
Propriedades de
C
i
Ci converge para 2ρi, com ρi representando a proposta de
Pregibon (1981) para medir a influência da i- ´esima unidade
experimental, via aproximação por 1 passo de ψb(i) [Verbeke
(1995)];
Pode-se mostrar que
Ci = 2
c
X
j=1
λjvji2 , (38)
com λ1 ≥ λ2 ≥ · · · ≥ λc denotando os c autovalores de
−H>L¨−1H e dmax ≡ v1, · · · , vc os autovetores ortogonais
normalizados correspondentes, com vji representando o
Figura 10: Caso ponderado∗ Unidade Experimental Ci 0 5 10 15 20 25 30 0 2 4 6 12 29 Unidade Experimental |dmax| 0 5 10 15 20 25 30 0.0 0.2 0.4 0.6 0.8 12 29
Decomposição de
C
i
Podemos reescrever Ci como
Ci = 2||¨L−1|| cos φi||Hi||2, (39)
com φi representando o ângulo entre vec(−¨L−1) e vec(HiH>i ), com
||A|| = |vec(A)| denotando a norma de Frobenius da matriz A. A
idéia de Lesaffre & Verbeke (1998) foi decompor ||Hi||2 como a soma
dos quadrados das normas da contribuição do i- ´esimo indivíduo para
Decomposição de
C
i
||Hi||2 = ||X>i Vbi−1ˆri||2 + 1 2||Z > i Vb−1i Zi − Z>i Vbi−1ˆriˆr>i Vb−1i Zi||2 + 1 4||tr{ bV −1 i } − ˆr>i Vb−1i Vbi−1ˆri||2. (40)Desta forma, pode-se mostrar que Ci = ai + bi + di com
ai = 2 ncos φi cos ψi||¨L−1|| o ||XiXi>|| 2 ||Ri|| 2 , (41) bi = n cos φi cos κi||¨L−1|| o ||ZiZi>|| 2 ||Ini − RiR>i || 2 , (42) di = 1 2 n cos φi cos2 νi||¨L−1|| o || bVi−1||2||Ini − RiR>i || 2 . (43)
Decomposição de
C
i
em que ψi, κi e υi representam ângulos similares a φi e
Ri = bVi−1/2ˆri, Xi = bV−1/2i Xi e Zi = bVi−1/2Zi.
||¨L−1|| é a parte comum a todas as componentes;
ψi, κi e υi representam as partes não interpretáveis de ai, bi e
di, respectivamente; Partes interpretáveis: ||XiXi>|| 2 (ai); ||Ri|| 2 (ai); ||ZiZi>||2 (bi); ||Ini − RiR>i || 2 (bi e di); || bV−1i ||2 (di).
Decomposição de
C
i
Um alto valor de ai pode ser causado por uma unidade
experimental que tem muitas observações ou que não é bem predita pelo modelo;
bi tende a assumir um valor alto, para uma unidade
experimental com muitas observações com a respectiva matriz de covariâncias mal ajustada;
di tende a assumir um grande valor, para uma unidade
experimental com pequena variabilidade e com respectiva matriz de covariâncias mal ajustada;
Em um estudo desbalanceado as partes interpretáveis a
podem sofrer uma alta influência do número de observações de cada unidade experimental;
Figura 11: Quantidades interpretáveis de Ci Unidade Experimental norx 0 5 10 15 20 25 30 70 75 80 85 90 95
(f) Norma de Frobenius da Matriz de planejamento dos efeitos fixos padronizada
Unidade Experimental |ri|^2 0 5 10 15 20 25 30 1 2 3 4 5
(g) Norma de Frobenius dos residuos marginais padronizados
12 29 Unidade Experimental noresi 0 5 10 15 20 25 30 5 10 15 20 25
Residuos para a estrutura da matriz de covariancias
12
Unidades experimentais “atípicas".
# 11: Essa criança utilizou a escova convencional e apresentou
o menor índice de placa bacteriana pré-escovação (0.60);
# 12: Essa criança utilizou a escova convencional e apresentou
o segundo menor índice de placa bacteriana pré-escovação (0.71) na segunda sessão; apresenta também um alto índice, entre as 25% maiores, de placa bacteriana pós-escovação (1.31) na quarta sessão;
# 29: Essa criança apesar de ter utilizado a escova monobloco,
apresentou todos seus índices de placa bacteriana
pós-escovação entre os 25% menores índices, inclusive o menor (0.37) obtido na quarta sessão.
Pesquisas futuras
Estender o gráfico da variável adicionada para efeitos aleatórios;
Utilizar o EBLUP com confundimento mínimo, como ferramenta para avaliar a suposição de normalidade dos efeitos aleatórios; Estender as técnicas de diagnóstico aqui apresentadas para os modelos lineares mistos sem se restringir ao modelo de
independência condicional, modelos não-lineares mistos e para os modelos lineares generalizados mistos;
Estudar a sensibilidade das medidas de diagnóstico
apresentadas, devido a má especificação das matrizes R e D;