• Nenhum resultado encontrado

Métodos de Diagnóstico para Modelos Lineares Mistos p.1/58

N/A
N/A
Protected

Academic year: 2021

Share "Métodos de Diagnóstico para Modelos Lineares Mistos p.1/58"

Copied!
67
0
0

Texto

(1)

M ´etodos de Diagn ´

ostico para Modelos

Lineares Mistos

Aluno: Juv ˆencio Santos Nobre juvencio@ime.usp.br

Orientador: Prof. PhD J ´ulio da Motta Singer

jmsinger@ime.usp.br

(2)

Introdução

Experimentos com medidas repetidas referem-se a casos no qual

cada unidade experimental é observada pelo menos duas vezes.

Exemplo

Estudo realizado na FOUSP. Objetivo: comparar dois tipos de escova, monobloco e

convencional, quanto à manuntenção da capacidade de remoção da placa bacteriana (durabilidade) sob uso

(3)

Introdução

Experimentos com medidas repetidas referem-se a casos no qual

cada unidade experimental é observada pelo menos duas vezes.

Exemplo

Estudo realizado na FOUSP.

Objetivo: comparar dois tipos de escova, monobloco e convencional, quanto à manuntenção da capacidade de remoção da placa bacteriana (durabilidade) sob uso

(4)

Modelagem da Estrutura de Correlação

Espera-se uma dependência entre as observações referentes a uma mesma unidade experimental. Propostas para modelar a estrutura de correlação intra-unidade experimental:

Inclusão de variáveis latentes em modelos lineares (não

lineares), gerando assim os modelos lineares (não lineares) mistos e os modelos lineares generalizados mistos [Laird & Ware (1982), McCulloch & Searle (2001)];

Inclusão de uma matriz de correlação de trabalho (EEG)[Liang & Zeger (1986)].

(5)

Modelos Lineares Mistos

Um modelo linear misto pode ser escrito na forma

Yi = Xiβ + Ziγi + εi (i = 1, ..., c), (1)

Considerando Y = (Y1>, · · · , Yc>)>, X = (X>1 · · · X>c )>,

Z=diag(Z1, · · · , Zc), γ = (γ1>, · · · , γc>)> e ε = (ε>1 , · · · , ε>c )> temos:

Yn×1 = Xn×pβp×1 + Zn×cqγcq×1 + εn×1. (2)

Usualmente, assume-se que

" γ ε # ∼ Ncq+n " 0cq 0n # , " ∆ 0cq×n 0n×cq Σ #! , (3) com γ1, ..., γc i.i.d.∼ Nq(0, G) [∆ = Ic N G].

(6)

Modelos Lineares Mistos

∆ e Σ são funções de poucos parâmetros (desconhecidos) θ que

independem dos parâmetros de localização β, ou seja, ∆ = σ2D(θ)

e Σ = σ2R(θ). Fazendo ξ = Zγ + ε, obtém-se

Y = Xβ + ξ, (4)

com ξ ∼ Nn(0n, V), em que

V = σ2 ZDZ> + R . (5)

Se R = In ⇒ modelo de independência condicional

(7)

BLUE e BLUP

Seja γ ( ˆˆ β) o BLUP (BLUE) de γ (β) então:

ˆ

γ e βˆ são funções lineares de Y;

IE[ˆγ − γ] = 0 (IE[ ˆβ − β] = 0), ou seja, γ ( ˆˆ β) é não viesado para

γ (β);

ˆ

γ ( ˆβ) é o melhor preditor (estimador) de γ (β) dentro da classe

dos preditores (estimadores) lineares, no sentido, de que o mesmo minimiza o erro quadrático médio de previsão

(estimação).

Supondo V conhecida, mostra-se que

ˆ

β = X>MX−1 X>MY = X>V−1X−1 X>V−1Y e

ˆ

(8)

BLUE e BLUP

com M = σ2V−1 e Q = M − MX X>MX−1 X>M uma matriz

simétrica semi-definida positiva de ordem n (posto(Q)=n − p), com

QM−1Q = Q e QX = 0. Pode-se mostrar que

Cov " ˆ β − β ˆ γ − γ # = σ2 " X>R−1X X>R−1Z Z>R−1X Z>R−1Z + D−1 #−1 . (6)

(9)

BLUE e BLUP

com M = σ2V−1 e Q = M − MX X>MX−1 X>M uma matriz

simétrica semi-definida positiva de ordem n (posto(Q)=n − p), com

QM−1Q = Q e QX = 0. Pode-se mostrar que

Cov " ˆ β − β ˆ γ − γ # = σ2 " X>R−1X X>R−1Z Z>R−1X Z>R−1Z + D−1 #−1 . (7) EBLUE e EBLUP

Como D (V) depende de um vetor de componentes de

covariância θ∗ desconhecido, calculamos o BLUE e BLUP

com base no estimador θb∗; nesse caso eles são

denominados como BLUE e BLUP empíricos (EBLUE e

(10)

Testes de hipóteses e critérios de informação

Teste da Razão de Verossimilhanças;

Teste de Wald/Score [Verbeke & Molenberghs (2003)].

Problemas quando a hipótese de interesse situa-se na borda do espaço paramétrico [Self & Liang (1987)].

(11)

Testes de hipóteses e critérios de informação

Teste da Razão de Verossimilhanças;

Teste de Wald/Score [Verbeke & Molenberghs (2003)].

Problemas quando a hipótese de interesse situa-se na borda do espaço paramétrico [Self & Liang (1987)].

É comum utilizar alguns critérios de informação como o AIC, o BIC definidos como

AIC = −2l + 2d, (8)

BIC = −2l + d ln n, (9)

com l representando o máximo da log-verossimilhança (completa ou

restrita), d o número de parâmetros do modelo e n o número de

(12)

Aplicação

Singer & Andrade (1997) apontam as seguintes características que o modelo adotado para representar dados deste tipo deve apresentar:

(i) Um índice pré-tratamento nulo implica um índice pós-tratamento também nulo;

(ii) Os índices pré-tratamento e pós-tratamento são não-negativos; (iii) Os dados são possivelmente heterocedásticos (pois são

não-negativos e satisfazem a desigualdade y ≤ x);

(iv) A relação entre os índices pré-tratamento e pós-tratamento é possivelmente não-linear;

(v) As observações realizadas numa mesma unidade experimental são possivelmente correlacionadas.

(13)

Modelo

Singer et al. (2004) sugerem o seguinte modelo

yijd = βjdxγijdjdξijd, (10)

com βjd > 0, i = 1, 2, ..., 32, j = 0, 1, d = 1, 2, 3, 4.

yijd (xijd) é o índice de placa bacteriana pós-tratamento

(pré-tratamento) relativo a i- ´esima criança com a j- ´esima escova

na d- ´esima sessão de avaliação;

βjd é um coeficiente de placa bacteriana residual relativo à

j- ´esima escova e à d- ´esima sessão de avaliação;

γjd é um coeficiente de uniformidade da taxa de placa residual

esperada relativo à j- ´esima escova e a d- ´esima sessão de

(14)

Modelo

Considerando a seguinte transformação

ln yijd = ln βjd + γjd ln xijd + ln ξijd

yijd∗ = λjd + γjdx∗ijd + ξijd∗ , (11)

ξijd∗ = ln ξijd ∼ N(0, σi2). Para satisfazer a característica (v),

consideramos que o logaritmo do erro é decomposto da seguinte forma:

ξijd∗ = ψi + εijd, (12)

com ψi ∼ N(0, τ2) e εijd ∼ N(0, σ2), denotando respectivamente, o

(15)

Modelo adotado

ln Yi = Xiβ + Ziψi + εi, (13) em que β = (λ01, λ02, · · · , λ13, λ14, γ01, γ02, · · · , γ13, γ14)> e Zi = 14. A priori, consideramos Σi = Var[εi] = σ2      1 ρ ρ2 ρ3 ρ 1 ρ ρ2 ρ2 ρ 1 ρ ρ3 ρ2 ρ 1      . (14)

(16)

Estratégia de análise

(i) Simplificação da estrutura de covariâncias (ρ = 0), ou seja,

Σi = σ2I4;

(ii) Testar a homogeneidade entre os coeficientes de uniformidade para as duas escovas nas quatro sessões de avaliação, ou

seja, testar se γjd = γ (j = 0, 1, d = 1, ..., 4);

(iii) Testar a significância do efeito de interação e dos efeitos

principais dos tipos de escova com relação aos coeficientes de placa bacteriana residual, ou seja,

λ01 − λ11 = λ02 − λ12 = λ03 − λ13 = λ04 − λ14 e λjd = λj;

(iv) Ajustar o modelo que incorpora as conclusões obtidas em (i), (ii) e (iii), ou seja, reduzir o modelo (10) para

(17)

Ajuste do modelo final

Figura 1: Ajuste do modelo final.

Indice de placa bacteriana pre-tratamento

Indice de placa bacteriana pos-tratamento

1.0 1.5 2.0 0.0 0.5 1.0 1.5 2.0 Convencional Monobloco

As observações representadas por referem-se as crianças que

(18)

Objetivos da análise de diagnóstico

Verificar as suposições do modelo;

Identificar observações/unidades experimentais que exercem influência desproporcional no modelo ajustado;

Avaliar a robustez do modelo quando ele está sujeito a algum tipo de perturbação (qualquer mudança nas suposições ou nos dados).

(19)

Análise de Resíduos

No modelo (2), podemos definir três tipos de erro:

Erro condicional: ε = Y − IE[Y|γ] = Y − Xβ − Zγ; Efeitos aleat ´orios: Zγ = IE[Y|γ] − IE[Y];

Erro marginal: ξ = Y − IE[Y] = Y − Xβ = Zγ + ε.

Os respectivos resíduos (e matrizes de covariâncias ) são dados por

Res´ıduo condicional: ε = Y − X ˆˆ β − Zˆγ (Var[ˆε] = σ2Q); EBLUP: Zˆγ (Var[Zˆγ] = σ2ZDZ>QZDZ>);

(20)

Resíduo marginal e resíduo condicional

Resíduo marginal

Avaliar a suposição de linearidade entre IE[Y] e as

covariáveis X [Hilden-Minton (1995)];(ξˆ vs. x)

Avaliar o ajuste da estrutura de covariâncias [Weiss

(1995)], uma vez que Var[ξ] = V.

Resíduo condicional

Avaliar a hipótese de homocedasticidade do erro condicional;

Verificar a existência de observações discrepantes [Weiss &

Lazaro (1992), Weiss (1995), Oman (1995) e Pinheiro & Bates (2000, p.175)];

Gráfico dos elementos do resíduo condicional padronizado

vs. índices [R = In] εˆ∗i = εˆi

ˆ

(21)

Resíduo com confundimento mínimo

Sob a validade do modelo (2) temos

ˆ

ε = Qε + QZγ, (16)

implicando que εˆ é confundido pela presença de γ. Hilden-Minton

(1995) define a fração de confundimento para εˆi

0 ≤ CFi = Var[U>i ZγUi] Var[ˆεi] = U>i QZDZ>QUi U>i QUi = 1 − U>i QQUi U>i QUi ≤ 1. (17)

Para minimizar o efeito de confundimento, Hilden-Minton (1995)

su-gere utilizar uma tranformação linear de εˆ, L>εˆ, que minimize o

(22)

Resíduo com confundimento mínimo

Denotando as colunas de L por li, uma sugestão é minimizar o

confundimento de l>i εˆ, ou seja maximizar

λi =

l>i QQli

l>i Qli , (18)

sujeito a restrição Var[l>i ε] ∝ lˆ >i Qli > 0. Desta forma, mostra-se que

o vetor li que minimiza o confundimento é dado por li = πi−1/2Ki(i =

1, ..., n − p), com Ki representando a i- ´esima coluna de K, em que

Q = KΠK>, com Kn×(n−p); K>K = In−p e Π=diag(π1, ..., πn−p)

(23)

EBLUP

Encontrar possíveis unidades experimentais discrepantes

[Waternaux et al. (1989), Verbeke (1995), Verbeke & Lesaffre

(1996a), Pinheiro & Bates (2000) e Longford (2001)]

Ziγˆi reflete a diferença entre o valor predito e o valor médio

populacional para a i- ´esima unidade experimental, desta

forma podemos utilizar o EBLUP para encontrar unidades

experimentais discrepantes através de

ζi = ˆγi>Varc[ˆγi − γi]ˆγi ≈ χ2n

i.

Avaliar a hipótese de normalidade de γ [Lange & Ryan (1989) e

Jiang (2001)].

Estimativas consistentes mesmo quando γ não segue

(24)

EBLUP

Encontrar possíveis unidades experimentais discrepantes

[Waternaux et al. (1989), Verbeke (1995), Verbeke & Lesaffre

(1996a), Pinheiro & Bates (2000) e Longford (2001)]

Ziγˆi reflete a diferença entre o valor predito e o valor médio

populacional para a i- ´esima unidade experimental, desta

forma podemos utilizar o EBLUP para encontrar unidades

experimentais discrepantes através de

ζi = ˆγi>Varc[ˆγi − γi]ˆγi ≈ χ2n

i.

Avaliar a hipótese de normalidade de γ [Lange & Ryan (1989) e

Jiang (2001)].

Estimativas consistentes mesmo quando γ não segue

(25)

EBLUP

Encontrar possíveis unidades experimentais discrepantes

[Waternaux et al. (1989), Verbeke (1995), Verbeke & Lesaffre

(1996a), Pinheiro & Bates (2000) e Longford (2001)]

Ziγˆi reflete a diferença entre o valor predito e o valor médio

populacional para a i- ´esima unidade experimental, desta

forma podemos utilizar o EBLUP para encontrar unidades

experimentais discrepantes através de

ζi = ˆγi>Varc[ˆγi − γi]ˆγi ≈ χ2n

i.

Avaliar a hipótese de normalidade de γ [Lange & Ryan (1989) e

Jiang (2001)].

Estimativas consistentes mesmo quando γ não segue

(26)

EBLUP

Encontrar possíveis unidades experimentais discrepantes

[Waternaux et al. (1989), Verbeke (1995), Verbeke & Lesaffre

(1996a), Pinheiro & Bates (2000) e Longford (2001)]

Ziγˆi reflete a diferença entre o valor predito e o valor médio

populacional para a i- ´esima unidade experimental, desta

forma podemos utilizar o EBLUP para encontrar unidades

experimentais discrepantes através de

ζi = ˆγi>Varc[ˆγi − γi]ˆγi ≈ χ2n

i.

Avaliar a hipótese de normalidade de γ [Lange & Ryan (1989) e

Jiang (2001)].

Estimativas consistentes mesmo quando γ não segue

(27)

Figura 2: Resíduo Marginal e EBLUP do modelo final .

Logaritmo do indice de placa bacteriana pre-escovacao

Residuo Marginal -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 -1.0 -0.5 0.0 0.5 1.0 (a) 12.2 29.3 29.4 Unidade Experimental EBLUP 0 5 10 15 20 25 30 -0.4 -0.2 0.0 0.2 0.4 (b) 29

(28)

Figura 3: Resíduo condicional padronizado e envelope simulado

com 95% para o resíduo com confundimento mínimo.

Unidade Experimental

Residuo Condicional Padronizado

0 5 10 15 20 25 30 -4 -2 0 2 4 (a) 12.2 29.4 Quantis da N(0,1)

Residuo com confundimento minimo

-2 -1 0 1 2 -2 0 2 4 (b)

(29)

Análise de Sensibilidade

Identificar observações/unidades experimentais que exercem influência desproporcional no modelo ajustado;

Avaliar a robustez do modelo quando está sujeito a algum tipo de perturbação (qualquer mudança nas suposições ou nos dados).

(30)

Pontos/Observações Alavanca

Observações que exercem uma forte influência no respectivo valor predito; destacam-se observações com valores atípicos

das variáveis explicativas [Cook & Weisberg (1982) e Wei et al.

(1998)].

Considerando um modelo estatístico em que Yb = \IE[Y] = µ( ˆβ),

Wei et al. (1998) definem a matriz de alavancagem generalizada

GL( ˆβ) = ∂ bY ∂Y> =  ∂ ˆyi ∂yj  n×n , (19)

que reflete a taxa de mudança instantânea no respectivo valor pre-dito quando a variável resposta é acrescida por um infinitésimo. A

(31)

Observações alavanca para os efeitos fixos

Considerando γ como um parâmetro de pertubação no modelo,

uma vez que IE[Y] não depende do mesmo, e lembrando

ˆ

β = X>V−1X−1 X>V−1Y, tem-se que a matriz (19) fica

GL( ˆβ) = X X>V−1X−1 X>V−1. (20)

Definindo h∗ii = GL( ˆβ)ii, consideraremos o i- ´esimo ponto como

“ala-vanca" se h∗ii ≥ 2p/n. Usando a abordagem de Banerjee & Frees

(1997) podemos definir uma unidade experimental como alavanca

se tr(Hi)

ni ≥ 2p/n, em que Hi = Xi(X

>V−1X)−1X>

(32)

Alavancagem nos efeitos fixos e aleatórios

Uma observação pode influenciar tanto as estimativas dos efeitos fixos como as predições dos efeitos aleatórios;

Aconselhável medir esta influência de forma conjunta.

Uma proposta para incorporar informações a respeito dos efeitos

aleatórios, é considerar Yb ∗ = \IE[Y|γ] = X ˆβ + Zˆγ. Derivando Yb ∗

com relação a Y> GL( ˆβ, ˆγ) = ∂ bY∗ ∂Y> = b Y ∂Y> + ∂Zˆγ ∂Y> = GL( ˆβ) + ZDZ>Q. (21)

(33)

Figura 4: Alavancagem generalizada. Unidade Experimental Alavanca Generalizada 0 5 10 15 20 25 30 0.02 0.04 0.06 0.08 0.10

(a) Efeitos fixos por observacao 3.1 6.3 11.2 12.1 19.1 31.1 31.4 Unidade Experimental Alavanca Generalizada 0 5 10 15 20 25 30 0.020 0.025 0.030 0.035 0.040 0.045 (b) Efeitos fixos por UE 11 12 Unidade Experimental Alavanca Generalizada 0 5 10 15 20 25 30 0.16 0.18 0.20

(c) Efeitos fixos e aleatorios por observacao 3.1 6.3 11.2 12.1 31.1 Unidade Experimental Alavanca Generalizada 0 5 10 15 20 25 30 0.145 0.150 0.155 0.160 0.165

(d) Efeitos fixos e aleatorios por UE 1112

(34)

Eliminação de observações

Avaliar a influência de um conjunto de observações I através

da sua eliminação;

Importância de obter a relação entre θˆ e θˆ(I), evitando assim

reajustar o modelo; Incoveniente:

Estimativas dos parâmetros de covariâncias são obtidas iterativamente (processo computacionalmente intensivo); Propostas:

Considerar a estrutura de covariância conhecida, encontrar a relação e avaliar sobre a estrutura de covariância estimada [Hilden-Minton (1995), Haslett

(1999) e Fung et al. (2002)];

(35)

Fórmulas de atualização do BLUE e BLUP

Considerando V conhecida e que I = {i1, i2, ..., ik} mostra-se

ˆ β − ˆβ(I) = X>MX−1 X>MUIφˆI (22) e ˆ γ − ˆγ(I) = DZ>QUIφˆI, (23) com ˆ φI = U>I QUI−1 U>I QY (24) UI = (uij)n×k = (Ui1, Ui2, ..., Uik), (25)

(36)

Medidas baseadas na eliminação de observações

Uma das medidas mais utilizadas para avaliar a influência de um conjunto de observações, via eliminação, é a distância de Cook

[Cook (1977)] DI =  b θ − bθ(I)> Uθ − bb θ(I) c , (26)

sendo U uma matriz positiva definida e c um parâmetro de escala.

DI mede a influência das observações do conjunto I na estimativa

do vetor de parâmetros θ, segundo a métrica definida por U e c. No

(37)

Generalizações da distância de Cook

Algumas “generalizações" de (26) são propostas dentro do

contexto de modelos lineares mistos. Uma proposta [Christensen et

al. (1992), Banerjee & Frees (1997) e Fung et al. (2002) ] é utilizar

DI = ( ˆβ − ˆβ(I)) >(X>Vb −1X)( ˆβ − ˆβ (I)) ˆ σ2 = ( bY − bY(I)) >Vb −1( bY − bY (I)) ˆ σ2 , (27)

para medir a influência das observações do conjunto I nas

(38)

Desvantagem de

D

I

Pode não detectar observações influentes nas estimativas dos

parâmetros de covariância [Banerjee (1998) e Tan et al. (2001)];

Dado que o efeito causado pela eliminação de uma observação na estrutura de covariância é equivalente ao efeito causado no

BLUP γˆ, então Tan et al. (2001) sugerem a utilização da medida de

Cook condicional nos efeitos aleatórios (i = 1, ..., n)

Dicond =

c

X

j=1

P>j(i)Varc[Y|γ]−1Pj(i)

(n − 1)c + p = c X j=1 P>j(i)Pj(i) k , (28)

com Pj(i) = bYj − bYj(i) = (Xj + Zjγˆj) − (Xj (i) + Zjγˆj(i)) e k = ˆσ2([n −

(39)

Decomposição de

D

i

cond

Podemos decompor (28) da seguinte forma

Dicond = D1icond + Dcond2i + D3icond, (29)

em que D1icond = ( ˆβ − ˆβ(i)) >(X>X)( ˆβ − ˆβ (i)) k = ( bY − bY(i))>( bY − bY(i)) k , D2icond = (ˆγ − ˆγ(i)) >Z>Zγ − ˆγ (i)) k , e D3icond = 2( ˆβ − ˆβ(i)) >X>Zγ − ˆγ (i)) k .

(40)

Influência de uma unidade experimental

Ao eliminar todas as observações de uma unidade

experimental não podemos prever o correspondente efeito aleatório.

Proposta: Avaliar a influência da i- ´esima unidade

experimental utilizando a média das distâncias (28) referentes a todas as observações da unidade

experimental, ou seja,

Dcondi. = (ni)−1 X

j∈I

Djcond, (30)

com I representando o conjunto das ni observações da

(41)

Figura 5: Distância de Cook condicional por observação. Unidade Experimental Di 0 5 10 15 20 25 30 0.0 0.01 0.02 0.03 0.04 0.05

(a) Distancia de Cook condicional 12.2 29.4 Unidade Experimental Di1 0 5 10 15 20 25 30 0.0 0.01 0.02 0.03 0.04 0.05 (b) D1i 12.1 12.2 29.4 Unidade Experimental D2i 0 5 10 15 20 25 30 0.0 0.01 0.02 0.03 0.04 0.05 (c) D2i 12.2 29.4 Unidade Experimental D3i 0 5 10 15 20 25 30 -0.001 0.0 0.001 (d) D3i 12.1 12.2 12.4

(42)

Figura 6: Distância de Cook condicional por unidade experimental. Unidade Experimental Di 0 5 10 15 20 25 30 0.0 0.005 0.010 0.015 0.020

(a) Distancia de Cook condicional 12 29 Unidade Experimental D1i 0 5 10 15 20 25 30 0.0 0.005 0.010 0.015 0.020 (b) D1i 12 29 D2i 0.010 0.015 0.020 (c) D2i 12 29 D3i 0.0 0.0002 0.0004 0.0006 (d) D3i

(43)

Influência Local

Proposto por Cook (1986) com o objetivo de avaliar a mudança nos resultados da análise quando incorporamos “pequenas

perturbações" ao modelo. A abordagem original baseia-se na análise do afastamento da verossimilhança (“likelihood

displacement")

LD(w) = 2nL(bθ) − L(bθw)

o

, (31)

em que:

L(·) é a log-verossimilhança do modelo postulado;

θ é um vetor p × 1 de parâmetros ;

L(·|w) é a log-verossimilhança do modelo “perturbado";

w representa um vetor q × 1 de perturbações relevantes,

(44)

Influência Local

b

θ e θbw são, respectivamente, os EMV baseados em L(·) e

L(·|w);

w0 ∈ Ω é o vetor que representa a ausência de perturbação, ou

seja, L(θ|w0) = L(θ), ∀θ ∈ Θ.

Quanto maior for LD(w) maior é a sensibilidade com relação ao

esquema de perturbação proposto. Nesse contexto LD(w) é

uti-lizada para comparar θb e θbw com respeito aos contornos da

(45)

Influência Local

Cook (1986) considerou o gráfico de influência (LD(w) vs. w)

como uma superfície em IRq+1 formada pelos valores do vetor

α(w) = w>, LD(w)> , (32)

com w variando em Ω. Para medir a sensibilidade do afastamento

da verossimilhança, Cook (1986) utilizou a curvatura normal de (32)

ao redor de w0 na direção de um vetor d (q × 1) de norma unitária,

(46)

Curvatura Normal

A curvatura normal de α(w) é dada por [Cook (1986, eq.16)]

Cd = −2d>H>L¨−1Hd, (33)

com L¨ = ∂2L(θ)/∂θ>∂θ |θ=θb e H = ∂2L(θ|w)/∂θ>∂w |w=w

0;θ=θb.

A curvatura normal (33) assume seu valor máximo quando

d = dmax, com dmax representando o autovetor normalizado

associado ao maior autovalor de −H>L¨−1H.

dmax indica qual o tipo de perturbação que produz a maior

mudança em LD(w);

O gráfico de | dmax | pode revelar qual o tipo de perturbação

que possue a maior influência em LD(w) na “vizinhança" de

(47)

Influência Local em Modelos Lineares mistos

Beckman et al. (1987) e Lesaffre & Verbeke (1998) utilizaram o

conceito de influência local em modelos lineares mistos;

Ambos basearam-se na verossimilhança marginal de Y

L(ψ) = −(1/2) ln |V| + (Y − Xβ)>V−1(Y − Xβ) , (34)

(48)

Tipos de perturbação

Perturbação na matriz de covariâncias de ε.

Identificar observações sensíveis a suposição de

(49)

Tipos de perturbação

Perturbação na matriz de covariâncias de ε.

Identificar observações sensíveis a suposição de

(50)

Tipos de perturbação

Perturbação na matriz de covariâncias de ε.

Identificar observações sensíveis a suposição de homocedasticidade.

Perturbação na variável resposta. Identificar observações sensíveis a pequenas perturbações

na variável resposta; No caso linear normal destacam-se

as observações com alto erro de predição |yi − ˆyi|

(51)

Tipos de perturbação

Perturbação na matriz de covariâncias de ε.

Identificar observações sensíveis a suposição de homocedasticidade.

Perturbação na variável resposta.

Identificar observações sensíveis a pequenas perturbações na variável resposta; No caso linear normal destacam-se

as observações com alto erro de predição |yi − ˆyi|

(52)

Tipos de perturbação

Perturbação na matriz de covariâncias de ε

Identificar observações sensíveis a suposição de homocedasticidade.

Perturbação na variável resposta

Identificar observações sensíveis a pequenas perturbações na variável resposta; No caso linear normal destacam-se

as observações com alto erro de predição |yi − ˆyi|

[Schwarzmann (1991)].

Perturbação na matriz de covariâncias de γi.

Identificar unidades experimentais sensíveis a suposição de homogeneidade entre as matrizes de covariâncias dos

(53)

Tipos de perturbação

Perturbação na matriz de covariâncias de ε

Identificar observações sensíveis a suposição de homocedasticidade.

Perturbação na variável resposta

Identificar observações sensíveis a pequenas perturbações na variável resposta; No caso linear normal destacam-se

as observações com alto erro de predição |yi − ˆyi|

[Schwarzmann (1991)].

Perturbação na matriz de covariâncias de γi.

Identificar unidades experimentais sensíveis a suposição de homogeneidade entre as matrizes de covariâncias dos

(54)

Figura 7: Perturbação na matriz de covariâncias de ε. |dmax| 0.2 0.4 0.6 0.8 1.0 1.2 12.2 29.4

(55)

Figura 8: Perturbação na variável resposta. Observacao |dmax| 0 5 10 15 20 25 30 0.0 0.2 0.4 0.6 0.8 1.0 1.2 12.2 29.4

(56)

Figura 9: Perturbação na matriz de covariâncias de γi. |dmax| 0.2 0.4 0.6 0.8 1.0 29

(57)

Caso ponderado

Lesaffre & Verbeke (1998) consideraram o modelo linear misto,

com a respectiva matriz de covariâncias Var[γi] = G não

estruturada. Nesse caso, a log-verossimilhança pode ser reescrita da seguinte forma L(ψ) = c X i=1 Li(ψ) = c X i=1 (−1/2)ln |Vi| + r>i V−1i ri , (35) com ri = ξi = Yi − Xiβ e Li(ψ) representando a

log-verossimilhança referente a i- ´esima U.E., respectivamente. Eles

surgeriram perturbar o modelo da seguinte forma

Li(ψ|w) =

c

X

i=1

wiLi(ψ), (36)

(58)

Influência local referente ao

i- ´esimo

indivíduo

Lesaffre & Verbeke (1998) definiram a influência local referente ao i-ésimo indíviduo como sendo a curvatura normal (33) calculada

na direção do vetor di, com di representando um vetor de

dimensão c × 1 com valor 1 na i- ´esima posição e zero nas demais.

Nesse caso a curvatura normal é dada por

Ci = 2 d>i H>L¨−1Hdi = 2 H>i L¨−1Hi , (37)

(59)

Propriedades de

C

i

Ci converge para 2ρi, com ρi representando a proposta de

Pregibon (1981) para medir a influência da i- ´esima unidade

experimental, via aproximação por 1 passo de ψb(i) [Verbeke

(1995)];

Pode-se mostrar que

Ci = 2

c

X

j=1

λjvji2 , (38)

com λ1 ≥ λ2 ≥ · · · ≥ λc denotando os c autovalores de

−H>L¨−1H e dmax ≡ v1, · · · , vc os autovetores ortogonais

normalizados correspondentes, com vji representando o

(60)

Figura 10: Caso ponderado Unidade Experimental Ci 0 5 10 15 20 25 30 0 2 4 6 12 29 Unidade Experimental |dmax| 0 5 10 15 20 25 30 0.0 0.2 0.4 0.6 0.8 12 29

(61)

Decomposição de

C

i

Podemos reescrever Ci como

Ci = 2||¨L−1|| cos φi||Hi||2, (39)

com φi representando o ângulo entre vec(−¨L−1) e vec(HiH>i ), com

||A|| = |vec(A)| denotando a norma de Frobenius da matriz A. A

idéia de Lesaffre & Verbeke (1998) foi decompor ||Hi||2 como a soma

dos quadrados das normas da contribuição do i- ´esimo indivíduo para

(62)

Decomposição de

C

i

||Hi||2 = ||X>i Vbi−1ˆri||2 + 1 2||Z > i Vb−1i Zi − Z>i Vbi−1ˆriˆr>i Vb−1i Zi||2 + 1 4||tr{ bV −1 i } − ˆr>i Vb−1i Vbi−1ˆri||2. (40)

Desta forma, pode-se mostrar que Ci = ai + bi + di com

ai = 2 ncos φi cos ψi||¨L−1|| o ||XiXi>|| 2 ||Ri|| 2 , (41) bi = n cos φi cos κi||¨L−1|| o ||ZiZi>|| 2 ||Ini − RiR>i || 2 , (42) di = 1 2 n cos φi cos2 νi||¨L−1|| o || bVi−1||2||Ini − RiR>i || 2 . (43)

(63)

Decomposição de

C

i

em que ψi, κi e υi representam ângulos similares a φi e

Ri = bVi−1/2ˆri, Xi = bV−1/2i Xi e Zi = bVi−1/2Zi.

||¨L−1|| é a parte comum a todas as componentes;

ψi, κi e υi representam as partes não interpretáveis de ai, bi e

di, respectivamente; Partes interpretáveis: ||XiXi>|| 2 (ai); ||Ri|| 2 (ai); ||ZiZi>||2 (bi); ||Ini − RiR>i || 2 (bi e di); || bV−1i ||2 (di).

(64)

Decomposição de

C

i

Um alto valor de ai pode ser causado por uma unidade

experimental que tem muitas observações ou que não é bem predita pelo modelo;

bi tende a assumir um valor alto, para uma unidade

experimental com muitas observações com a respectiva matriz de covariâncias mal ajustada;

di tende a assumir um grande valor, para uma unidade

experimental com pequena variabilidade e com respectiva matriz de covariâncias mal ajustada;

Em um estudo desbalanceado as partes interpretáveis a

podem sofrer uma alta influência do número de observações de cada unidade experimental;

(65)

Figura 11: Quantidades interpretáveis de Ci Unidade Experimental norx 0 5 10 15 20 25 30 70 75 80 85 90 95

(f) Norma de Frobenius da Matriz de planejamento dos efeitos fixos padronizada

Unidade Experimental |ri|^2 0 5 10 15 20 25 30 1 2 3 4 5

(g) Norma de Frobenius dos residuos marginais padronizados

12 29 Unidade Experimental noresi 0 5 10 15 20 25 30 5 10 15 20 25

Residuos para a estrutura da matriz de covariancias

12

(66)

Unidades experimentais “atípicas".

# 11: Essa criança utilizou a escova convencional e apresentou

o menor índice de placa bacteriana pré-escovação (0.60);

# 12: Essa criança utilizou a escova convencional e apresentou

o segundo menor índice de placa bacteriana pré-escovação (0.71) na segunda sessão; apresenta também um alto índice, entre as 25% maiores, de placa bacteriana pós-escovação (1.31) na quarta sessão;

# 29: Essa criança apesar de ter utilizado a escova monobloco,

apresentou todos seus índices de placa bacteriana

pós-escovação entre os 25% menores índices, inclusive o menor (0.37) obtido na quarta sessão.

(67)

Pesquisas futuras

Estender o gráfico da variável adicionada para efeitos aleatórios;

Utilizar o EBLUP com confundimento mínimo, como ferramenta para avaliar a suposição de normalidade dos efeitos aleatórios; Estender as técnicas de diagnóstico aqui apresentadas para os modelos lineares mistos sem se restringir ao modelo de

independência condicional, modelos não-lineares mistos e para os modelos lineares generalizados mistos;

Estudar a sensibilidade das medidas de diagnóstico

apresentadas, devido a má especificação das matrizes R e D;

Referências

Documentos relacionados

Caso o candidato não consiga efetuar a matrícula no modo online, poderá enviar um e-mail para agendar seu comparecimento na secretaria da Escola de Dança de São Paulo, situada na

Propiciar a formação de base teórica e a reflexão das noções iniciais e fundamentais do Direito Administrativo contemporâneo, conjuntamente com a polêmica

c1) Entre 2 a 30 de Novembro de 2013, serão remetidos por parte da ARM, através de e- mail, convites dirigidos aos consumidores apurados nos termos da alínea b6) supra. c2) O

No caso em que pessoas tratadas com LACTULONA ® sejam submetidas a eletrocauterização durante proctoscopia e colonoscopia, recomenda-se lavagem colônica prévia com uma

O presente estudo, desenvolvido na Universidade Federal do Pampa – Campus Uruguaiana, buscou identificar e analisar as concepções prévias de estudantes

Conversando sobre o tipo de drogas usadas, a composição química, a turma propôs um estudo sobre as drogas facilitadoras de estupro como temática para a prática

pela geração da representação digital. Sendo, portanto, o projetista responsável pela definição das regras que regem o mecanismo, assim como o desenvolvimento do

Segundo OCDE (2012), no programa PISA, não deve ser necessária outra leitura para compreender o texto utilizado na avaliação. Tabela I: O que é Situação ou Contexto na Prova