• Nenhum resultado encontrado

Modelo de regressão beta retangular para análise de dados com medidas repetidas

N/A
N/A
Protected

Academic year: 2021

Share "Modelo de regressão beta retangular para análise de dados com medidas repetidas"

Copied!
99
0
0

Texto

(1)

CENTRO DE CIÊNCIAS

DEPARTAMENTO DE ESTATÍSTICA E MATEMÁTICA APLICADA PROGRAMA DE PÓS-GRADUAÇÃO EM MODELAGEM E MÉTODOS

QUANTITATIVOS

VINÍCIUS SILVA OSTERNE RIBEIRO

MODELO DE REGRESSÃO BETA RETANGULAR PARA ANÁLISE DE DADOS COM MEDIDAS REPETIDAS

FORTALEZA 2019

(2)

MODELO DE REGRESSÃO BETA RETANGULAR PARA ANÁLISE DE DADOS COM MEDIDAS REPETIDAS

Dissertação apresentada ao Curso de Pós-Graduação em Modelagem e Métodos Quantitativos, como requisito parcial à obtenção do título de mestre em Modelagem e Análise Quantitativa. Área de Concentração: Modela-gem e Análise Quantitativa

Orientador: Prof. Dr. Juvêncio Santos Nobre

Coorientador: Prof. Dr. José Roberto Silva dos Santos

FORTALEZA 2019

(3)

Biblioteca Universitária

Gerada automaticamente pelo módulo Catalog, mediante os dados fornecidos pelo(a) autor(a)

R372m Ribeiro, Vinícius Silva Osterne.

Modelo de regressão beta retangular para análise de dados com medidas repetidas / Vinícius Silva Osterne Ribeiro. – 2019.

98 f. : il.

Dissertação (mestrado) – Universidade Federal do Ceará, Centro de Ciências, Programa de Pós-Graduação em Modelagem e Métodos Quantitativos, Fortaleza, 2019.

Orientação: Prof. Dr. Juvêncio Santos Nobre.

Coorientação: Prof. Dr. José Roberto Silva dos Santos.

1. Dados Longitudinais. 2. Modelos de Regressão. 3. Equações de Estimação. I. Título.

(4)

MODELO DE REGRESSÃO BETA RETANGULAR PARA ANÁLISE DE DADOS COM MEDIDAS REPETIDAS

Dissertação apresentada ao Curso de Pós-Graduação em Modelagem e Métodos Quantitativos, como requisito parcial à obtenção do título de mestre em Modelagem e Análise Quantitativa. Área de Concentração: Modela-gem e Análise Quantitativa

Aprovada em: 12/08/2019

BANCA EXAMINADORA

Prof. Dr. Juvêncio Santos Nobre (Orientador) Universidade Federal do Ceará (UFC)

Prof. Dr. José Roberto Silva dos Santos (Coorientador)

Universidade Federal do Ceará (UFC)

Prof. Dr. Gualberto Segundo Agamez Montalvo Universidade Federal do Ceará (DEMA - UFC)

Prof. Dr. Gilberto Alvarenga de Paula Universidade de São Paulo (IME - USP)

(5)

nheirismo.

(6)

Agradeço a Deus por todos os momentos da minha vida. À minha família pelo apoio em todas as circunstâncias. Mãe (Joselanda), Pai (Marcus) e Alice, vocês são exemplos de amor, carinho, atenção e companheirismo. À Neila, Socorro, Jusmar, Gina e Raimundo, sou muito feliz em tê-los na minha vida. À minha companheira de estudos, trabalho, tango e de vida, Jamile você foi e é muito importante para mim. À sua mãe, Dona Terezinha, por me acolher sempre com muito amor e paciência.

Agradeço também aos professores que foram meus companheiros durante esse pro-cesso de pós-graduação. Em primeiro lugar ao professor Juvêncio, pelo exemplo de profissional e de estudante que é. Sua ajuda e incentivo foram fundamentais para o meu amadurecimento no campo científico. Ao professor José Roberto, pelos ensinamentos e paciência em cada encontro que fizemos. Aos professores Gualberto Segundo e Gustavo Pinho, grandes responsáveis pelo meu avanço computacional.

Aos amigos, pela construção de largos conhecimentos nos momentos de conversa e estudo. Lívia, Rossana, Kennedy, Armando e Raul, todos os momentos com vocês foram sempre cheios de alegria e bom humor, fazendo com que essa caminhada se tornasse menos cansativa e mais prazerosa.

À Fundação Ceará de Apoio ao Desenvolvimento Científico e Tecnológico (FUN-CAP) Brasil pelo apoio financeiro parcial.

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento 001.

É dessa forma que agradeço a todos por terem participado da minha vida de forma tão significativa e terem moldado o indivíduo que sou hoje.

(7)

Mejorar su situación, Todos viven suspirando Con razón o sin razón. Todo el mundo se lamenta Si en la buena ya no están, Nadie aguanta la tormenta Si la contra se le da. La vida es una milonga Y hay que saberla bailar, En la pista está sobrando El que pierde su compás. La vida es una milonga Y hay que saberla bailar, Porque es triste estar sentado Mientras bailan los demás.”

(8)

A independência entre observações é uma hipótese usual para a aplicação de inúmeras técnicas estatísticas e se adequa, em geral, quando somente um valor é observado para cada unidade amostral. Todavia, é comum a existência de experimentos com medidas repetidas, isto é, quando há mais de uma observação para cada uma dessas unidades. Considerando a estrutura de medidas repetidas, a possível existência de correlação entre as observações de uma mesma unidade e casos em que a variável resposta é restrita ao intervalo (0, 1), propomos a modelagem da média de um modelo de regressão beta retangular a partir das Equações de Estimação Generalizadas sob a suposição de homogeneidade do parâmetro de precisão. Sob esse modelo construímos técnicas de diagnóstico como pontos de alavanca, distância de Cook e influência local e apresentamos um exemplo para ilustrar a metodologia desenvolvida.

Palavras-chave: Dados Longitudinais. Modelos de Regressão. Equações de Estimação. Méto-dos de Diagnóstico.

(9)

The independence between observations is a usual hypothesis for the application of numerous statistical techniques and is generally adequate when only one value is observed for each sample unit. However, it is common to have experiments with repeated measures, that is, when there is more than one observation for each of these units. Considering the structure of repeated measures, the possible existence of a correlation between the observations of the same unit and cases in which the response variable is restricted to the interval (0, 1), we propose the modeling of the mean of a rectangular beta regression model from the Generalized Estimation Equations under the assumption of homogeneity of the precision parameter. Under this model we construct diagnostic techniques such as leverage points, Cook’s distance and local influence, and present an example to illustrate the methodology developed.

Keywords: Longitudinal Data. Regression Models. Estimation Equations and Methods of Diagnosis.

(10)

Figura 1 – Desconto versus vendas de 5 produtos. . . 16 Figura 2 – Densidade da distribuição beta, B(p, q), para diferentes valores de p e q,

respectivamente. . . 24 Figura 3 – Densidade da distribuição beta, B(µ, φ ), para diferentes valores de µ e φ ,

respectivamente . . . 24 Figura 4 – Densidade da distribuição beta retangular, BR(µ, φ , θ ), para diferentes

valo-res de µ, φ e θ . . . 28 Figura 5 – Densidade da distribuição beta retangular reparametrizada, BR(γ, φ , α), para

diferentes valores de γ, φ e α. . . 29 Figura 6 – Gráfico de perfis dos pacientes para as concentrações de gás iguais a 15%

(A), 20% (B) e 25% (C). . . 72 Figura 7 – Envelope simulado meio-normal para o modelo de regressão beta para

me-didas repetidas (valor esperado da estatística de ordem meio-normal versus valor absoluto ordenado do resíduo padronizado). . . 74 Figura 8 – Envelope simulado meio-normal para o modelo de regressão beta retangular

para medidas repetidas (valor esperado da estatística de ordem meio-normal versus valor absoluto ordenado do resíduo padronizado). . . 76 Figura 9 – Influência local para os esquemas de ponderação de casos (A), perturbação

na variável resposta (B) e pertubação na variável logarítmo do tempo (C) e da variável quadrado do logarítmo do tempo (D). . . 77 Figura 10 – Dispersão dos dados e curvas ajustadas dos modelos de regressão beta (A) e

(11)

Tabela 1 – Estimativas e erros padrão dos parâmetros, considerando o modelo de regres-são beta para medidas repetidas, para o modelo (7.1) extraído de Venezuela (2008). Estudo oftalmológico. . . 74 Tabela 2 – Medida QIC considerando o modelo de regressão beta retangular para

medi-das repetimedi-das. Estudo oftalmológico. . . 75 Tabela 3 – Estimativas e erros padrão dos parâmetros, considerando o modelo de

re-gressão beta retangular para medidas repetidas, para o modelo (7.1). Estudo oftalmológico. . . 75 Tabela 4 – Variações percentuais referentes às estimativas dos parâmetros do modelo

de regressão beta retangular com todas as observações - estimativa antes - e retirando as observações (21,1), (21,3) e (25,20) - estimativa depois. Estudo oftalmológico. . . 77 Tabela 5 – Bias and Mean Square Error of the beta regression model estimators for

repeated measures, for the case φ = 10. . . 86 Tabela 6 – Bias and Mean Square Error of the beta regression model estimators for

repeated measures, for the case φ = 50. . . 87 Tabela 7 – Bias and Mean Square Error of the beta regression model estimators for

repeated measures, for the case φ = 10. . . 88 Tabela 8 – Bias and Mean Square Error of the beta regression model estimators for

repeated measures, for the case φ = 50. . . 89 Tabela 9 – Variáveis dos pacientes observados (Parte I). Estudo oftalmológico. . . 90 Tabela 10 – Variáveis dos pacientes observados (Parte II). Estudo oftalmológico. . . 91

(12)

1 INTRODUÇÃO . . . 14

1.1 Conceitos iniciais . . . 14

1.2 Motivação e contribuição do trabalho . . . 19

1.3 Organização da dissertação . . . 19

2 MODELOS PARA OBSERVAÇÕES INDEPENDENTES . . . 20

2.1 Modelos Lineares Generalizados . . . 20

2.2 Modelo de Regressão Beta . . . 23

2.3 Modelo de Regressão Beta Retangular . . . 27

3 EQUAÇÕES DE ESTIMAÇÃO GENERALIZADAS . . . 33

3.1 Introdução . . . 33

3.2 Funções de estimação . . . 34

3.2.1 Função de estimação regular e informação de Godambe . . . 36

3.2.2 Função de estimação ótima e função de estimação linear . . . 38

3.3 Quase verossimilhança . . . 39

3.4 Equações de Estimação Generalizadas . . . 42

3.4.1 Equações de estimação para modelos lineares generalizados com medidas repetidas . . . 43

3.4.2 Equações de estimação para o modelo de regressão beta com medidas re-petidas . . . 45

4 EQUAÇÕES DE ESTIMAÇÃO GENERALIZADAS PARA O MODELO DE REGRESSÃO BETA RETANGULAR . . . 48

4.1 Introdução . . . 48

4.2 Modelagem do parâmetro de posição (φ e α conhecidos) . . . 48

4.2.1 Estimação de β e ρ . . . 51

4.2.2 Etapas do processo iterativo para estimação dos parâmetros . . . 53

4.3 Modelagem do parâmetro de posição (φ e α desconhecidos) . . . 53

4.3.1 Estimação de β , φ , α e ρ . . . 54

4.3.2 Etapas do processo iterativo para estimação dos parâmetros . . . 54

5 MÉTODOS DE DIAGNÓSTICO . . . 56

(13)

5.3 Medidas de influência local . . . 59

5.3.1 Influência local para equações de estimação . . . 61

5.3.2 Esquemas de perturbação . . . 62

5.3.2.1 Ponderação de casos. . . 62

5.3.2.2 Perturbação da variável resposta . . . 63

5.3.2.3 Perturbação em uma covariável contínua . . . 64

5.3.2.4 Perturbação na matriz de correlação de trabalho . . . 67

5.4 Seleção de modelos e matriz de correlação . . . 68

5.5 Envelope simulado . . . 69

6 SIMULAÇÃO . . . 70

7 APLICAÇÃO . . . 72

7.1 Análise descritiva . . . 72

7.2 Análise inferencial . . . 73

7.2.1 Ajuste com o Modelo de Regressão beta para medidas repetidas . . . 73

7.2.2 Ajuste com o Modelo de Regressão beta retangular para medidas repetidas 75 8 CONSIDERAÇÕES FINAIS . . . 79

REFERÊNCIAS . . . 80

APÊNDICES . . . 86

APÊNDICE A – Resultados de simulação . . . 86

A.1 Caso gerado com estrutura AR-1 e estimado pela estrutura AR-1 para φ = 10 . . . 86

A.2 Caso gerado com estrutura AR-1 e estimado pela estrutura AR-1 para φ = 50 . . . 87

A.3 Caso gerado com estrutura AR-1 e estimado pela estrutura indepen-dente para φ = 10 . . . 88

A.4 Caso gerado com estrutura AR-1 e estimado pela estrutura indepen-dente para φ = 50 . . . 89

APÊNDICE B – Dados utilizados . . . 90

B.1 Estudo oftalmológico . . . 90

APÊNDICE C – Algoritmo EM . . . 92

(14)

C.2.1 Definição . . . 92

C.2.2 Exemplo 1 - Densidade mista . . . 93

C.2.3 Exemplo 2 - Distribuição t-Student . . . 94

APÊNDICE D – Introdução à Teoria de cópulas . . . 97

D.1 Introdução . . . 97

D.2 Transformada integral de probabilidade . . . 97

D.3 Distribuições multivariadas . . . 97

(15)

1 INTRODUÇÃO

1.1 Conceitos iniciais

A independência entre observações é uma hipótese usual para a aplicação de inúmeras técnicas estatísticas e se mostra adequada, em geral, quando somente um valor é observado para cada unidade amostral. Nessa estrutura, denominada de estudo transversal, a coleta da amostra é realizada em um único momento. Todavia, é comum a existência de experimentos que possuem mais de uma observação para cada uma das unidades (estrutura denominada de medidas repetidas), sendo razoável considerar a existência de algum grau de dependência entre essas observações (dependência intra-unidade amostral) e, consequentemente, se faz necessário o uso de metodologias mais sofisticadas para garantir resultados mais confiáveis.

Um caso especial dos estudos com medidas repetidas são os denominados estudos longitudinais (chamados de estudo de coorte ou painel em áreas da saúde), cuja característica inerente é considerar a coleta da amostra obtida em sucessivos momentos ordenados sob alguma dimensão, seja ela tempo, velocidade, dosagem, altura, dentre outras, na qual a medição é feita considerando uma mesma quantidade física. Existem, portanto, outros casos que envolvem medidas repetidas, mas que não são considerados do tipo longitudinal, ou seja, envolvem uma outra abordagem. Como exemplo, temos Séries Temporais, Análise de Sobrevivência e Análise Multivariada, que consideram, respectivamente, o acompanhamento em muitos instantes de uma única variável (série histórica); o acompanhamento, ao longo do tempo, até o desfecho da unidade observada (tempo de vida); e a observação de um vetor de medidas de uma mesma unidade, cujos valores podem representar quantidades físicas diferentes.

A aplicação de estudos do tipo longitudinal tem uso frequente em diversos campos científicos (Psicologia, Economia, Saúde e Educação, por exemplo) e, não diferente de outras metodologias estatísticas, apresenta vantagens e desvantagens quanto à sua utilização. O acom-panhamento de unidades amostrais durante a realização do estudo, por exemplo, pode não ser uma tarefa simples, pois em alguns casos gera alto custo para a pesquisa. Entretanto, conforme Venezuela (2008), essa abordagem requer menos unidades amostrais do que planejamentos com-pletamente casualizados; proporcionam condições mais adequadas para o estudo de covariáveis que possam ter influência na variável resposta; além de avaliar o comportamento da resposta ao longo do tempo e permitir o estudo da mudança do comportamento da resposta média da unidade amostral nos diferentes tratamentos (incorpora a informação sobre a variação intra-indivíduos na

(16)

análise).

A coleta dos dados para a análise de dados longitudinais pode receber diferentes denominações dependendo da sua característica. Se todas as unidades amostrais são observadas nos mesmos instantes (igualmente espaçados ou não), por exemplo, a caracterizamos como um experimento balanceado com relação ao tempo. Por outro lado, caso a coleta seja feita de forma que as observações sejam coletadas irregularmente no tempo, ou mesmo se houver dados omissos, a caracterizamos como experimento desbalanceado com relação ao tempo. Além disso, outra terminologia importante em estudos longitudinais refere-se às tirespostas da i-ésima

unidade amostral (i = 1, 2, ..., n), conhecido como perfil individual de resposta, caracterizado por yi= (yi1, yi2, ..., yiti)

>.

Acresça-se, ainda, que o estudo de dados do tipo longitudinal apresenta também peculiaridades em sua análise descritiva. A possível existência de correlação entre as observações motiva a necessidade da construção de um gráfico de dispersão e correlação em relação ao tempo (matriz de covariância amostral ou matriz de correlações amostrais), por exemplo. Outra importante ferramenta é o denominado gráfico de perfis. Esse gráfico, com o auxílio do perfil médio ou mediano (em alguns casos são mostradas também as barras de erros-padrão), identifica possíveis correlações intra-unidades amostrais, bem como a possível existência de heterocedasticidade e pontos remotos. Mais detalhes sobre esses termos, consultar (SINGER et al., 2018), por exemplo.

O diferencial, portanto, da análise de dados do tipo longitudinal é considerar a dependência existente dentro desses perfis individuais de respostas das unidades observadas. Não considerar essa característica inerente pode nos levar a conclusões/interpretações equivocadas dos resultados obtidos. Como ilustração, simulamos um exemplo hipotético, similar àquele conhecido na literatura como paradoxo das vendas (DEMIDENKO, 2013), o qual temos interesse em investigar se o desconto de um produto específico (aqui consideramos 5 categorias de produtos, totalizando 10 produtos) afeta sua quantidade vendida. Observe na Figura 1 os valores coletados. O gráfico do lado esquerdo apresenta a plotagem de todas as observações coletadas considerando a independência entre as mesmas. Se ajustássemos um modelo de regressão neste caso, poderíamos concluir que as vendas dos produtos caem com o aumento de seu desconto. Entretanto, se considerarmos a existência de dependência entre as observações, isto é, considerando que os produtos pertencem a categorias diferentes, como mostra o gráfico do lado direito, a interpretação é totalmente diferente, ou seja, quanto maior o desconto oferecido, mais

(17)

Figura 1 – Desconto versus vendas de 5 produtos.

vendido é o produto, evidenciando-se, nesse caso, um paradoxo.

Desse modo, o trabalho adicional da metodologia de estudos envolvendo dados longitudinais refere-se a forma sobre como será feita a modelagem da estrutura de dependência dos dados. Em alguns casos, podemos fazer uma redução de um estudo multivariado para um estudo univariado, não sendo necessária a utilização de técnicas sofisticadas para a análise. A utilização do teste-t pareado ou ANOVA (paramétrica ou não-paramétrica), por exemplo, podem ser suficientes. A primeira abordagem pode ser utilizada quando somente duas observações são feitas sob a mesma unidade e, assim, um teste de comparação de médias será eficiente para a situação. No caso da ANOVA (que pode ser utilizada quando tivermos mais que duas observações de uma mesma unidade), entretanto, será necessária a utilização de medidas resumo, como a área sob a curva e análise de desfecho. Detalhes a respeito podem ser vistos em Singer et al.(2018), por exemplo.

Apesar de serem muito aplicadas em diversas situações, as análises utilizando técnicas como as listadas acima podem ser limitadas em alguns casos. A partir disso, muitos autores propuseram, ao longo do tempo, alternativas para as abordagens com o estudo do tipo longitudinal. Grande parte das pesquisas iniciais destinaram-se aos casos em que a variável resposta do modelo segue distribuição Normal. Dentre elas, podemos citar a análise de variância com medidas repetidas (NETER et al., 1996), análise uni/multivariada de perfis e a análise de curvas de crescimento Singer e Andrade (1986).

Mais propostas, portanto, foram desenvolvidas com a finalidade de dispor outras alternativas para o estudo de dados longitudinais. Henderson (1953), por exemplo, propõe modelar a estrutura de correlação por meio da inclusão de novas fontes de variação aleatória ao modelo – chamados efeitos aleatórios –, para que seja possível a modelagem da dependência

(18)

intra-unidade amostral. Essa classe de modelos, denominada de Modelos Lineares Mistos, foi, posteriormente, estendida à uma abordagem denominada de modelo em dois estágios por Laird e Ware (1982) e Ware (1985). Essa proposta generaliza alguns modelos importantes, tais como o modelo linear clássico, o modelo de componentes de variância e os modelos hierárquicos.

Todavia, nem sempre é razoável supor a hipótese de normalidade para alguns casos. Seguindo a mesma ideia que Nelder e Wedderburn (1972) tiveram, ao propor a modelagem da variável resposta por meio das distribuições da família exponencial linear (Modelos Lineares Generalizados), Breslow e Clayton (1993) propuseram uma extensão dos modelos lineares mistos, denominando de Modelos Lineares Generalizados Mistos. Outras abordagens que podemos citar neste contexto são: Modelos Lineares Mistos Elípticos (SAVALLI et al., 2006) e Modelos Lineares Mistos Assimétricos (LACHOS, 2004; ARELLANO-VALLE et al., 2005; LACHOS et al., 2010).

Concomitantemente aos avanços dos estudos para dados longitudinais utilizando modelos mistos, outras metodologias também foram apresentadas como extensões dos modelos lineares generalizados para dados longitudinais. A proposta de Liang e Zeger (1986), a partir das Equações de Estimação Generalizadas (EEG’s), teve importante contribuição na literatura. Diferentemente dos modelos de efeitos aleatórios, que permitem modelar o comportamento individual (na literatura denominados de modelos subject-specific), as EEG’s avaliam a diferença na resposta média populacional entre grupos (na literatura, esses modelos são denominados population-averaged).

A EEG’s surgem a partir da proposta de Wedderburn (1974), que desenvolveu os modelos de quase verossimilhança, cuja teoria é considerada uma extensão da proposta de Nelder e Wedderburn (1972), citada anteriormente. Wedderburn (1974) aborda a quase verossimilhança no seu caso uni e multivariado, sendo este capaz de incluir a estrutura de correlação dos dados (denominado de quase-verossimilhança multivariada). Porém, (ARTES; BOTTER, 2005) afirmam que essa versão multivariada apresenta dificuldades no seu uso, tendo em vita que a modelagem da matriz de correlação em função da média pode fornecer equações de difícil solução analítica e, ao mesmo tempo, a proposta não garante que as correlações pertençam ao intervalo [−1, 1]. O que os autores das EEG’s propõem, portanto, é modelar a matriz de correlação de trabalho independentemente da média, ou seja, os parâmetros de correlação são estimados adicionalmente.

(19)

por serem construídas sem a especificação de uma distribuição conjunta (por isso são baseadas nos modelos de quase verossimilhança) e utilizam uma matriz de correlação de trabalho para o vetor de medidas repetidas de cada unidade amostral (essa matriz não precisa ser correta para se obter consistência dos estimadores de regressão). No intuito de aprimorar o trabalho de Liang e Zeger (1986), Crowder (1987) propõs a teoria de função de estimação linear ótima para obtenção de estimadores com boas propriedades a partir da EEG’s. Além disso, Prentice e Zhao (1991) propõe a estimação dos parâmetros de correlação também via Equações de Estimação Generalizadas, sendo conhecida como EEG do tipo 2, ou simplesmente EEG2.

Como na prática a suposição de homogeneidade da dispersão pode ser questionada, as equações de estimação também passaram a ser utilizadas para modelar tal parâmetro – deno-minada EEG do tipo 3, ou simplesmente EEG3, seguindo a proposta de Song et al. (2004). Além disso, as equações de estimação têm sido estendidas para outras classes de modelos. Jorgensen (1997) desenvolve para modelos de dispersão. Sob o contexto de que variáveis preditoras podem influenciar a variável resposta através de uma função desconhecida, Lin e Carroll (2001) avaliam o uso de funções Kernel para EEG’s semiparamétricas. Outras abordagens recentes utilizam os Modelos Aditivos Generalizados (HASTIE; TIBSHIRANI, 1990) e as EEG’s sob a estrutura de Modelos Parcialmente Lineares Aditivos Generalizados para dados correlacionados (WANG et al., 2014; LIAN et al., 2014; MANGHI et al., 2019).

Venezuela et al. (2007) estenderam algumas técnicas de diagnóstico para EEG’s considerando propostas similares às usadas nos Modelos Lineares Generalizados. Posteriormente, Venezuela (2008) assume que a variável resposta de um modelo com observações correlacionadas assumem valores somente no intervalo (0, 1). Supõe, portanto, a distribuição marginal beta – com a estrutura de regressão proposta por Ferrari e Cribari-Neto (2004) – e distribuição marginal simplex. A partir disso, elabora uma extensão das propostas de EEG1 e EEG3 para os modelos, desenvolvendo também medidas de diagnóstico, incluindo análise de influência local.

Além da distribuição beta e da distribuição simplex, outras extensões considerando diferentes distribuições vem sendo desenvolvidas no campo das Equações de Estimação Gene-ralizadas. Oesselmann (), por exemplo, desenvolve o modelo de regressão binomial negativo para dados de contagem com sobredispersão, e Tsuyuguchi (2017) utiliza a metodologia com a distribuição Birnbaum-Saunders.

(20)

1.2 Motivação e contribuição do trabalho

Delimitando o estudo para respostas com suporte em (0, 1) (ou um suporte limitado qualquer (a, b), com a < b), Hahn (2008) e García et al. (2011) observam que a distribuição beta pode não modelar de forma satisfatória eventos próximos a cauda da distribuição, além de não permitir uma flexibilidade maior na especificação da variância, limitando o uso de tal distribuição para dados de taxas e proporções. A distribuição beta retangular, portanto, é proposta por Hahn (2008) com intuito de acomodar essa limitação, considerando uma mistura entre a distribuição beta e a distribuição uniforme. Bayes et al. (2012) propõem uma reparametrização para a distribuição beta retangular e uma estrutura de regressão mais adequada para a média da distribuição beta retangular.

Em vista disso, o presente trabalho utilizará a distribuição beta retangular, bem como a estrutura de regressão da respectiva distribuição, para desenvolver equações de estimação generalizadas para modelos de regressão beta retangular com medidas repetidas. Essas equações de estimação serão desenvolvidas sob o enfoque da modelagem da média com homogeneidade de dispersão e parâmetro de mistura fixo, tendo como base os trabalhos de Venezuela (2008), que apresenta equações de estimação para os modelos de regressão beta e regressão simplex, e no trabalho de Santos et al. (2017b), que apresentam a estimação dos parâmetros do modelo beta retangular (sob uma nova parametrização) na visão frequentista.

1.3 Organização da dissertação

O trabalho está, portanto, dividido em duas partes, as quais visam, respectivamente, realizar uma revisão bibliográfica sobre os modelos para observações independentes, tais como modelos lineares generalizados – base para aplicação do estudo de Liang e Zeger (1986) –, modelo de regressão beta – modelo utilizado por Venezuela (2008) para a construção de EEG’s – e modelo de regressão beta retangular – modelo base para o desenvolvimento desta dissertação –, além de mostrar conceitos básicos sobre as Equações de Estimação Generalizadas; e apresentar o desenvolvimento da proposta com base na extensão das Equações de Estimação Generalizadas para o modelo de regressão beta retangular, como as etapas de estimação, os métodos de diagnóstico, simulações e aplicação.

(21)

2 MODELOS PARA OBSERVAÇÕES INDEPENDENTES

2.1 Modelos Lineares Generalizados

A suposição de normalidade para a variável resposta de um modelo de regressão linear foi, por muito tempo, bastante utilizada para modelagem de diversos fenômenos aleatórios. Mesmo nos casos em que os dados não tinham tal comportamento, algumas modificações eram feitas para que se pudesse adotar a suposição, como é o caso da transformação de Box e Cox (1964), por exemplo. Com o avanço computacional, alguns modelos foram ganhando espaço na literatura e mostraram ser bem mais flexíveis do que os modelos antes utilizados. Dentre eles, podemos citar os Modelos Lineares Generalizados, propostos por Nelder e Wedderburn (1972), que constituem uma extensão dos modelos lineares usuais, de forma que a distribuição da variável resposta é um caso regular da família exponencial linear.

(Família exponencial linear) A família exponencial linear é uma família de distribui-ções cuja função densidade pode ser escrita na forma:

f(yi; θi, φ ) = exp  1 ai(φ ){yiθi− b(θi)} + c(yi, φ )  , (2.1)

em que a(·), b(·), c(·) são funções conhecidas, θié o parâmetro natural ou canônico e ai(φ ) =

φ /wi, com wio peso a priori e φ > 0, conhecido, o parâmetro de dispersão ou escala.

Muitas distribuições importantes podem ser escritas na forma (2.1), tais como: binomial, Poisson, binomial negativa, Normal, gama e normal inversa, por exemplo.

Nesse contexto, o modelo se caracteriza pela especificação de três componentes, sendo eles o componente aleatório, dado por (2.1), o componente sistemático (preditor linear), ηi, e a função de ligação, g(·), que podem ser expressos da seguinte maneira:

ηi= g(µi).

O componente sistemático, dado por ηi= x>i β , é definido pelas variáveis regressoras e o vetor η é denominado vetor de preditores lineares, em que β = (β1, β2, ..., βp)>, p < n,

é um vetor de parâmetros a serem estimados, xi= (xi1, xi2, ..., xip)> representam as variáveis

explicativas (cuja matriz de especificação formada deve ser de posto completo). Além disso, considera-se que g(µ) é uma função (monótona e duplamente diferenciável) de ligação que relaciona a média, µi, (ou componente aleatório, Y) com o componente sistemático η (PAULA,

(22)

É possível mostrar, sob as condições de regularidade, que E  ∂ log f (yi; θi, φ ) ∂ θi  = 0 e (2.2) E  ∂2log f (yi; θi, φ ) ∂ θi2  = −E "  ∂ log f (yi; θi, φ ) ∂ θi 2# , (2.3)

em que E(yi) = µi= b0(θi) e Var(yi) = φ−1V(µi), em que V (µi) =

∂ µi

∂ θi

é denominada de função de variância (caracteriza a distribuição) e φ−1é o parâmetro de dispersão.

Jorgensen (1987) apresenta uma propriedade importante que relaciona a distribuição de Y e a função de variância: p φ (Y − µi) d − →N (0,V(µ)) quando φ → ∞,

ou seja, não há necessidade de uma tamanho amostral grande, basta que φ seja grande para que o comportamento da variável aleatória se aproxime de uma distribuição normal (mesmo essa variável sendo discreta). A importância desse resultado reflete na facilidade da construção de intervalos de confiança e testes de hipóteses.

O processo de estimação para esse modelo é baseado no método de máxima veros-similhança. Nesse caso, após alguma álgebra, pode-se mostrar que o vetor escore é expresso por: Uβj = l(θ ) ∂ βj = n

i=1 1 ai(φ )  yi ∂ θi ∂ µi ∂ µi ∂ ηi ∂ ηi ∂ βj −∂ b(θ ) ∂ θi ∂ θi ∂ µi ∂ µi ∂ ηi ∂ ηi ∂ βj  = n

i=1 1 ai(φ )  yiVi−1∂ µi ∂ ηi xi j− µiVi−1 ∂ µi ∂ ηi xi j  = n

i=1 1 ai(φ )  (yi− µi)xi jVi−1 ∂ µi ∂ ηi  = n

i=1 1 ai(φ ) r ωi Vi(yi− µi)xi j  , com ai(φ ) = φ /ωie ωi= 1 V(µi)  ∂ ηi ∂ µi 2 .

O estimador de β é obtido quando resolvemos a equação Uβ = 0. Entretanto, essas equações, em geral, não são lineares, fazendo-se necessário o uso de aproximações numéricas para calcular as soluções do sistema. A abordagem mais utilizada é o método de Newton-Raphson, cuja forma pode ser reexpressa por:

ˆ β(m+1)= ˆβ(m)+ (−U 0(m) β ) −1(U(m) β ), m= 0, 1, 2, ...,

(23)

em que U0β denota a primeira derivada de Uβ com respeito a β>, sendo U 0(m)

β e U

(m)

β as respectivas

quantidades avaliadas em β(m) (estimativa de β na m-ésima iteração).

Como a matriz −U0β pode não ser positiva definida1, essa quantidade é substituida pelo seu valor esperado, I, gerando assim o método denominado Escore de Fisher:

β(m+1)= β(m)+ (I−1)(m)U(m) m = 0, 1, 2, ..., sendo a matriz de informação de Fisher, I, dada por:

Ii = 1 φX > i WiXi, com Wi= diag ( ωi V(µi)  ∂ µi ∂ ηi 2)

representado a matriz de pesos.

Utilizando os termos ai(φ ) e Wi, expressos anteriormente, podemos reescrever a

função escore na forma: Uβj = 1 φ n

i=1 (yi− µi)xi jWiDi , sendo Di= ∂ ηi ∂ µi

= diag{g0(µi)}. De forma que a função escore de β pode ser reescrita

matrici-almente como: Ui= 1 φX > i WiDi(yi− µi). (2.4)

Os termos do processo iterativo também podem ser reescritos e expressos – como um processo iterativo de mínimos quadrados reponderados – da seguinte forma

ˆ

β(m+1) = (X>W(m)X)−1X>W(m)Z(m), com

Z(m) = X ˆβ(m)+ D(m)(y − ˆµ(m)) = ηˆ(m)+ D(m)(y − ˆµ(m)),

desempenhando o papel de uma variável dependente modificada.

Para mais detalhes sobre os modelos lineares generalizados, incluindo métodos de diagnóstico e aplicações, sugerimos ao leitor ver McCulloch e Searle (2004) ou Paula (2015), por exemplo.

1 Uma matriz M é dita ser positiva definida se z>

(24)

2.2 Modelo de Regressão Beta

Em diversas situações, como por exemplo em casos de variáveis respostas expressas como contagens ou aquelas que assumem apenas valores positivos, a classe dos MLGs fornecem boas alternativas de modelagem. Entretanto, em algumas outras situações, o comportamento da variável resposta pode não apresentar semelhança alguma com as distribuições pertencentes à família exponencial linear e, portanto, se faz necessário expandir o leque de distribuições a serem utilizadas.

Um caso particular, por exemplo, é quando a variável resposta de interesse se distribui continuamente no intervalo (0,1) - ou mais geralmente em um intervalo (a,b), com a e b conhecidos e a < b - frequentemente encontrada em dados de taxas, índices e proporções. Para esse caso, é sabido que a abordagem de modelos lineares generalizados pode não ser satisfatória e uma outra distribuição, que não pertença à família exponencial linear, pode ser mais adequada para essa modelagem. Dentre as possíveis distribuições, podemos citar a distribuição beta (a ser utilizada neste trabalho), cujas diferentes especificações para modelos de regressão são discutidas, como em Paolino (2001), Kieschnick e McCullough (2003), Ferrari e Cribari-Neto (2004) e Smithson e Verkuilen (2006), por exemplo.

Dessa forma, considere Y uma variável aleatória com distribuição beta de parâmetros denotados por p e q, com p > 0 e q > 0 e p, q ∈ R, denotada por Y ∼ B(p, q), cuja respectiva densidade é dada por:

f(y; p, q) = Γ( p + q) Γ( p)Γ(q)y

p−1(1 − y)q−1

I(0,1)(y). (2.5)

Para diferentes valores dos parâmetros p e q, respectivamente, o comportamento da densidade beta é bastante flexível, assumindo diferentes formas, conforme é apresentado na Figura (2).

O trabalho de Ferrari e Cribari-Neto (2004) destaca-se dentre os demais pelo fato de especificar a estrutura de regressão, baseada na distribuição beta, de forma similar à classe dos MLG’s. Os autores utilizam a seguinte reparametrização para o parâmetro de posição, µ, e precisão, φ , na especificação do modelo de regressão:

µ = p

p+ q φ = p + q,

de forma que a densidade pode ser reescrita como: g(y; µ, φ ) = Γ(φ )

Γ(µ φ )Γ((1 − µ )φ )y

(25)

0 1 2 3 4 0.00 0.25 0.50 0.75 1.00 y Densidade (2,2) (2,5) (2,7) (2,9) 0 1 2 3 0.00 0.25 0.50 0.75 1.00 y Densidade (2,7) (5,7) (7,7) (9,7)

Figura 2 – Densidade da distribuição beta, B(p, q), para diferentes valores de p e q, respectiva-mente.

em que 0 < µ < 1 e φ > 0. A média e a variância são dados, respectivamente, por: E(Y ) = µ e Var(Y ) = V(µ)

1 + φ,

em que V(µ) = µ(1 − µ), µ representa a média e φ , pode ser entendido como o parâmetro de precisão (para um valor fixo de µ, quanto maior o valor de φ , menor a variância de Y ).

A seguir podemos observar os diferentes comportamentos que a distribuição beta reparametrizada assume para diferentes valores de µ e φ , respectivamente:

0 1 2 3 0.00 0.25 0.50 0.75 1.00 y Densidade (0.2,10) (0.5,10) (0.6,10) (0.8,10) 0 2 4 6 0.00 0.25 0.50 0.75 1.00 y Densidade (0.2,50) (0.5,50) (0.6,50) (0.8,50)

Figura 3 – Densidade da distribuição beta, B(µ, φ ), para diferentes valores de µ e φ , respectiva-mente

A estimação dos parâmetros da distribuição apresentada em (2.6) pode ser realizada através do método de máxima verossimilhança, por exemplo. O logaritmo natural da função de verossimilhança baseado numa única observação é dado por

l(µ, φ ) = log B(y; µ, φ )

= log Γ(φ ) − log Γ(µφ ) − log Γ((1 − µ)φ ) + (µφ − 1) log y + ((1 − µ)φ − 1) log(1 − y).

(26)

A função escore de µ e φ são dadas, respectivamente, por Uµ(µ, φ ) = ∂ l(µ , φ )

∂ µ = φ (y

− µ)

Uφ(µ, φ ) = µ(y∗− µ∗) + log(1 − y) − Ψ((1 − µ)φ ) + Ψ(φ ).

em que y∗i = log(y/1 − y), µ∗= Ψ(µφ ) − Ψ[(1 − µ)φ ] e Ψ(.) representa a função digama, derivada da função gama (ABRAMOWITZ; STEGUN, 1965).

Note que as funções escores referentes aos parâmetros µ e φ podem ser reescritas em função de uma nova resposta, y∗, e de um novo parâmetro, µ∗. Dessa forma, os resultados inferenciais da distribuiçao beta de Ferrari e Cribari-Neto (2004) muito se assemelham aos dos Modelos Lineares Generalizados.

Utilizando o fato de que o modelo assume as condições de regularidade definidas em (2.2) e (2.3), temos que a média dessa nova variável é dada por:

E(φ (y∗− µ∗)) = 0 ⇔ E(y∗) = µ∗, e a variância, por:

Var(y∗) = Var(y∗− µ∗) = Var(y∗) = E[(y∗− µ∗)2]

= 1

φ2E[φ

2(y− µ)2]

= Ψ0(µφ ) + Ψ0((1 − µ)φ ), sendo Ψ0 a função trigama.

Considerando agora a estrutura de um modelo de regressão, considere y um vetor, tal que y = (y1, y2, ..., yn)>, representando n variáveis aleatórias independentes, na qual cada yi, com

i= 1, 2, ..., n, tem densidade beta, com média µie parâmetro de precisão φ . Então, o modelo de

regressão beta (FERRARI; CRIBARI-NETO, 2004) pode ser expresso funcionalmente como: g(µi) =

p

j=1

xi jβj= ηi, i= 1, 2, ..., n.

Sendo g(µi) a função de ligação com domínio em (0, 1) e imagem em R (duplamente

diferenciável e monótona); xi1, xi2, ..., xipobservações de p covariáveis conhecidas (p < n) e β o

(27)

A estimação dos parâmetros do modelo ocorre de forma semelhante ao dos MLG’s. A função escore para cada um dos parâmetros é dada por:

Uβ(β , φ ) = φ X>T(y∗− µ∗) (2.7) Uφ(β , φ ) = n

i=1 {µi(y∗i − µi∗) + log(1 − yi) − Ψ((1 − µi)φ ) + Ψ(φ )} , (2.8)

em que X é uma matriz de especificação n × p, de posto completo, com a i-ésima linha dada por x>i , y∗i = log(yi/1 − yi), µ∗= Ψ(µφ ) − Ψ[(1 − µ)φ ], T = diag(1/g

0

(µ1), ..., 1/g

0

(µn)), com

g0(µi) denotando a derivada de g(µi).

Os estimadores de máxima verossimilhança são obtidos resolvendo o seguinte sis-tema de equações:    Uβ(β , φ ) = 0, Uφ(β , φ ) = 0.   

Sob certas condições de regularidade, para tamanhos amostrais grandes, a distribui-ção conjunta de bβ e bφ é aproximadamente normal bivariada, de forma que

  √ n( bβ − β ) √ n( bφ − φ )  ∼Np+1  0, K−1  ,

sendo K a matriz de informação de Fisher que, segundo Ferrari e Cribari-Neto (2004), é dada por: K =   Kβ β Kβ φ Kφ β Kφ φ  , em que Kβ β = φ X>WX, Kβ φ = K> φ .β = X >Tc e K φ φ = tr(D), sendo W = diag(w1, ..., wn), com wi= φ {Ψ 0 (µiφ ) + Ψ 0 ((1 − µi)φ ){g0(µi)}2}; D = diag(d1, ..., dn), com di= φ {Ψ 0 (µiφ )µ2+ Ψ0((1 − µi)φ )(1 − µi)2− Ψ 0 (φ )}; e c = (c1, ..., cn)>, com ci= φ {Ψ 0 (µiφ ) − Ψ 0 ((1 − µi)φ )(1 − µi)}.

Existem na literatura algumas extensões do modelo de regressão beta (Smithson e Verkuilen (2006), Simas et al. (2010)), que incremetam a dispersão variável no modelo, que passa a ser denotado por B(µi, φi). Esse último ainda aborda preditores não-lineares no modelo.

Além dos métodos iniciais de diagnóstico apresentados em Ferrari e Cribari-Neto (2004), existem ainda propostas relacionadas à medidas de influência e análise de resíduos, veja, por exemplo, em Espinheira et al. (2008a) e Espinheira et al. (2008b). Além disso, Huang e Oosterlee (2008) propõem um modelo de regressão beta generalizado misto com efeito aleatório

(28)

no preditor linear. Uma discussão a respeito da modelagem da regressão beta no software R, incluindo tanto o trabalho de Ferrari e Cribari-Neto (2004) quanto o de Simas et al. (2010), é apresentada com detalhes em Cribari-Neto e Zeileis (2010), o qual também consta a apresentação do pacote betareg. E Ospina e Ferrari (2012) estendem o modelo beta no sentido de considerar regressão beta para dados inflacionados de zero ou um.

2.3 Modelo de Regressão Beta Retangular

Apesar da vantagem relacionada à sua flexibilidade, a distribuição beta pode apre-sentar limitações, visto que em alguns contextos prescrevem a utilização de uma distribuição de cauda mais leve para a modelagem dos dados. Conforme observou Hahn (2008), cujo estudo apresentou a aplicação da distribuição beta-PERT2na avaliação do tempo de atividade de geren-ciamentos de projetos, as conclusões excessivamente otimistas em relação aos resultados desses projetos podem ser injustificáveis se valores extremos forem mais prováveis.

Nesse contexto, a distribuição beta não é particularmente flexível. Tal cenário induz ao autor sugerir uma distribuição, baseada em uma mistura de uma distribuição beta usual e uma uniforme padrão, que permite a modelagem de eventos mais extremos, bem como maior flexibilidade na especificação da sua função de variância, denominando-a de distribuição beta retangular, cuja densidade é definida abaixo:

g(y; µ, φ , θ ) = θ I(y)(0,1) + (1 − θ )B(y; µ, φ ) I(y)(0,1), (2.9) em que 0 ≤ θ ≤ 1 é um parâmetro de mistura e B(y; µ, φ ) é a densidade da distribuição beta proposta por (FERRARI; CRIBARI-NETO, 2004).

Observe que para θ = 0, obtemos a distribuição beta e para θ = 1, obtemos a distribuição uniforme padrão, ou seja, pela definição dada em (2.9), percebe-se que a distribuição beta retangular nada mais é do que uma mistura de distribuições beta, de parâmetros µ e φ , e uniforme padrão.

Denotamos a distribuição beta retangular por Y ∼ BR(µ, φ , θ ), na qual sua média e variância são dadas, respectivamente, por (HAHN, 2008):

E(Y ) = θ 2+ (1 − θ )µ e Var(Y ) = V(µ) 1 + φ(1 − θ )[1 − θ (1 + φ )] + θ 12(4 − 3θ ). (2.10)

2 A distribuição PERT, amplamente utilizada em análise de risco, é uma família de distribuições de probabilidade

contínuas definidas pelos valores mínimo (a), mais provável (b) e máximo (c) que uma variável pode assumir. É uma transformação da distribuição beta de quatro parâmetros com uma suposição adicional de que seu valor esperado é µ = a+ 4b + c

(29)

A seguir, podemos observar diferentes comportamentos que a distribuição beta retangular assume para valores distintos de µ, φ e , θ , respectivamente:

0 1 2 3 0.00 0.25 0.50 0.75 1.00 y Densidade (0.2, 10, 0) (0.2, 10, 0.5) (0.2, 10, 0.6) (0.2, 10, 0.8) 0.0 0.5 1.0 0.00 0.25 0.50 0.75 1.00 y Densidade (0.5, 10, 0) (0.5, 10, 0.5) (0.5, 10, 0.6) (0.5, 10, 0.8)

Figura 4 – Densidade da distribuição beta retangular, BR(µ, φ , θ ), para diferentes valores de µ, φ e θ .

Em sua representação gráfica é possível notar vantagens da distribuição beta retangu-lar em relação à distribuiçao beta. A primeira delas consiste na possibilidade do controle das caudas da distribuição por meio do incremento do parâmetro θ ao modelo, ou seja, dependendo do seu valor, esse pode tornar a cauda mais leve ou pesada. A segunda é consequência da primeira, ou seja, o fato de existir um parâmetro que controla as caudas, resulta em uma maior abragência da distribuição, visto que permite a modelagem de eventos extremos.

Para a obtenção de uma estrutura de regressão mais adequada para a média da distribuição beta retangular, Bayes et al. (2012) sugerem a seguinte reparametrização:

γ = θ 2 + (1 − θ )µ e α = θ 2  1 −θ 2  θ 2  1 −θ 2  + (1 − θ )2µ (1 − µ ) ,

de modo que o espaço paramétrico de γ e α é um quadrado dado por {0 ≤ γ ≤ 1, 0 ≤ α ≤ 1}, sendo θ = 1 −p1 − 4αγ(1 − γ) e µ = γ −1 2+ 1 2p1 − 4αγ(1 − γ) p1 − 4αγ(1 − γ) . (2.11)

Após a reparametrização, a média e variância da distribuição beta retangular são obtidas substituindo (2.11) em (2.10). A respectiva densidade da distribuição, denotada por

(30)

Y ∼ BRr(γ, φ , α), com parâmetro da média sendo representado por γ, pode ser expressa por: h(y; γ, φ , α) = 1 −p1 − 4αγ(1 − γ) +p1 − 4αγ(1 − γ) I(0,1)(y) × B    γ −1 2+ 1 2p1 − 4αγ(1 − γ) p1 − 4αγ(1 − γ) , φ    I(0,1)(y), (2.12) sendo B    γ −1 2+ 1 2p1 − 4αγ(1 − γ) p1 − 4αγ(1 − γ) , φ  

a função densidade de probabilidade da distribuição beta, conforme (2.6), com o parâmetro µ definido conforme a reparametrização sugerida por Bayes et al. (2012).

A seguir podemos observar os diferentes comportamentos que a distribuição beta retangular assume para diferentes valores de γ, φ e α, respectivamente:

0 1 2 3 0.00 0.25 0.50 0.75 1.00 y Densidade (0.3, 10, 0) (0.3, 10, 0.2) (0.3, 10, 0.5) (0.3, 10, 0.8) 0.0 0.5 1.0 1.5 2.0 2.5 0.00 0.25 0.50 0.75 1.00 y Densidade (0.5, 10, 0) (0.5, 10, 0.2) (0.5, 10, 0.5) (0.5, 10, 0.8) 0 2 4 6 0.00 0.25 0.50 0.75 1.00 y Densidade (0.3, 50, 0) (0.3, 50, 0.2) (0.3, 50, 0.5) (0.3, 50, 0.8) 0 2 4 0.00 0.25 0.50 0.75 1.00 y Densidade (0.5, 50, 0) (0.5, 50, 0.2) (0.5, 50, 0.5) (0.5, 50, 0.8)

Figura 5 – Densidade da distribuição beta retangular reparametrizada, BR(γ, φ , α), para diferen-tes valores de γ, φ e α.

Considerando a estrutura de um modelo de regressão, tome y1, y2, ..., ynuma amostra

da distribuição BRr(γi, φi, α), i = 1, 2, ..., n. A estrutura de regressão proposta por Bayes et al.

(2012) é dada por

(31)

sendo β e δ os vetores de parâmetros associados a xie wi, respectivamente; x>i = (xi1, xi2, ..., xik)

e w>i = (wi1, wi2, ..., wil) os vetores de k e l covariaveis, respectivamente; g1(·) uma função cuja

inversa é uma função de ligação que relaciona γicom as covariáveis xi; e g2(·) uma função de

ligação que relaciona φicom as covariáveis wi, com o sinal negativo presente para facilitar a

interpretação dos coeficientes estimados (SMITHSON; VERKUILEN, 2006).

Vale destacar que o modelo de regressão beta retangular apresenta a generalização de dois casos particulares: se α = 0 e φié constante, obtemos o modelo de regressão beta proposto

por Ferrari e Cribari-Neto (2004), por outro lado, se α = 0, obtemos o modelo de regressão beta com dispersão variável proposta por Smithson e Verkuilen (2006).

A função de verossimilhança do modelo pode ser expressa, conforme (2.9) e (2.12), respectivamente, por: L(ϑ ,Y ) = n

i=1 fY(yi|µi, φi, θi) = n

i=1 gY(yi|γi, φi, α),

em que ϑ = (β>, γ>, α)>, são definidos em (2.13) sob a reparametrização definida em (2.11). A estimação dos parâmetros do modelos de regressão pode ser feita tanto pela abordagem frequentista (SANTOS et al., 2017b) como pela abordagem bayesiana (BAYES; BAZÁN, 2014; SANTOS et al., 2017a). Para a primeira, é considerada a estimação por máxima verossimilhança via algoritmo EM3(Expectation-Maximization), o que facilita o processo, dado que a distribuição beta retangular é obtida através de uma mistura finita.

Nessa abordagem, portanto, considera-se ϑ = (β>, γ>, α)> e L(ϑ ,Y ) =

n

i=1

gY(yi|γi, φi, α).

O algoritmo EM, para os casos de distribuições de mistura, consiste em aumentar os dados observados (ou incompletos) considerando um vetor U = (U1, U2, ..., Un)>, não

obser-vável, que informa de qual componente da mistura Yi se originou. Dessa forma, Santos et al.

(2017b) definem a seguinte variável latente

Ui=   

0, se Yi∼ B(µi, φi) com probabilidade 1 − θi,

1, se Yi∼ U(0, 1) com probabilidade θi.

(32)

Então, a distribuição dos dados faltantes tem distribuição Bernoulli, Ui|(yi, µi) ∼

Ber(θi), com probabilidade de sucesso dada por:

b

ui= E(Ui|yi, ϑ ) = P(Ui= 0|yi, ϑ ) + P(Ui= 1|yi, ϑ )

= P(Ui= 1|yi, ϑ ) = θi θi+ (1 − θi)B(yi; µi, φi) , (2.14) em que θi= 1 −p1 − 4αγi(1 − γi) e µi= γi− 1 2+ 1 2p1 − 4αγi(1 − γi) p1 − 4αγi(1 − γi) .

A densidade conjunta dos dados completos (y>, U>) pode ser escrita da seguinte forma:

g(yi, ui|ϑ ) = θui

i (1 − θi)1−uiB(yi; µi, φi)1−uiI(ui){0,1}I(yi)(0,1),

com o logaritmo da função de verossimilhança na forma: l(β , γ, α, ui) =

n

i=1

{uilog θi+ (1 − ui) log(1 − θi) − (1 − ui)

× [log(Γ(φi)) − log(Γ(µiφi)) − log(Γ(1 − µi)φi)

+ (µiφi− 1) log yi+ ((1 − µi)φi− 1) log(1 − yi)]}.

Q(ϑ|ϑ(m)

) = E(l(ϑ |y, µ)|y, bϑ )) = n

i=1 {ub(m)i log θi+ (1 −ub (m) i ) log(1 − θi) − (1 −bu (m) i )

× [log(Γ(φi)) log(Γ(µiφi)) − log(Γ(1 − µi)φi)

+ (µiφi− 1) log yi+ ((1 − µi)φi− 1) log(1 − yi)]} = n

i=1 Qi(ϑ | bϑ(m)),

e o segundo passo, passo M, maximizaQi(ϑ | bϑ(m)) com relação a ϑ , obtendo bϑ(m+1). Pelo fato

deQ(ϑ|ϑb(m)) não possuir solução analítica, (SANTOS et al., 2017b) faz o uso da estimação por métodos numéricos, neste caso usando L-BFGS-B (BYRD et al., 1995). A implementação do algoritmo, portanto, é realizada em dois passos:

Passo E: Dado bϑ = ϑ , calcule u(m)i , para i = 1, 2, ..., n utilizando (2.14); Passo M: Atualize bϑ(m+1) maximizandoQ(ϑ|ϑb(m)).

Esse processo será utilizado como base na estimação dos parâmetros do modelo proposto neste trabalho. Para mais detalhes sobre o estudo do modelo de regressão beta retangular,

(33)

sob as perspectivas frequentista e bayesiana, consultar Santos et al. (2017b), Santos et al. (2017a) e Alencar (2016), por exemplo.

No próximo capítulo, apresentamos conceitos Funções de Estimação, inclunido as funções de estimação regular, ótima e linear, além da informação de Godambe. Em seguida, introduzimos conceitos sobre quase verossimilhança e Equações de Estimação Generalizadas. Nesta última, abordaremos sua extensão para modelos lineares generalizados e para regressão beta.

(34)

3 EQUAÇÕES DE ESTIMAÇÃO GENERALIZADAS

3.1 Introdução

As Equações de Estimação Generalizadas, desenvolvidas inicialmente por Liang e Zeger (1986), formam uma importante classe de modelos para análise de dados longitudinais (e análise de dados multivariados em geral) com distribuição marginal pertencente à família exponencial linear. Alguns trabalhos que trazem uma boa revisão sobre esse tema, incluindo aplicações, são Godambe (1997), Ziegler et al. (1998) e Hardin e Hilbe (2003), por exemplo.

Tais equações foram basedas na teoria envolvendo as funções de estimação, cujos conceitos podem ser encontrados em Godambe (1960), Godambe (1997), Jorgensen e Laboriau (1994), Artes et al. (2000), Jorgensen (2003) e Artes e Botter (2005), e os modelos de quase verossimilhança, proposto por Wedderburn (1974).

Neste capítulo apresentamos de forma sucinta as definições envolvendo tanto funções de estimação – incluindo função de estimação regular, linear e linear ótima, além de informação de Godambe – quanto conceitos sobre os modelos de quase verossimilhança, cujas funções de estimação levam a estimadores consistentes e assintoticamente normais dos parâmetros do modelo de regressão.

Ademais, são apresentados pontos resumidos do trabalho de Liang e Zeger (1986), que serviram como base para o trabalho de Venezuela (2008) (também apresentado na sequência), que utiliza as equações de estimação para o desenvolvimento do modelo de regressão beta para dados de medidas repetidas. Esses trabalhos servirão como base para o desenvolvimento da metodologia proposta nesta dissertação.

Vale ressaltar que muitas outras extensões, considerando diferentes distribuições, vem sendo desenvolvidas no campo das Equações de Estimação Generalizadas. A título de ilustração, podemos citar o trabalho de Oesselmann (), que propõe uma abordagem alternativa para analisar dados correlacionados com distribuição binomial negativa, considerando dados de contagem com sobredispersão, bem como o trabalho de Tsuyuguchi (2017), que propõe uma abordagem alternativa para analisar dados correlacionados com distribuição Birnbaum-Saunders.

(35)

3.2 Funções de estimação

As funções de estimação, de acordo com (ARTES et al., 2000), são funções mensurá-veis dos dados e dos parâmetros de interesse, cujas raízes resultantes das equações de estimação são as estimativas dos parâmetros.

(Função de estimação) Seja (X ,A ,P) um espaço de probabilidade, tal que X ∈ R e P ∈ {Pθ : θ ∈ Θ ⊆ Rp}, tal que p ∈ N (dimensão do espaço paramétrico). Uma função

ψ :X × Θ −→ Rp é uma função de estimação se para cada θ ∈ Θ, ψ(·, θ ) é uma variável aleatória.

Assumindo a existência de uma amostra com n vetores aleatórios independentes, estende-se o conceito de estimação para a amostra:

(Função de estimação da amostra) Seja ψi(yi, θ ) a função de estimação da i-ésima

unidade amostral, então: Ψn(y; θ ) =

n

i=1

ψi(yi; θ ), (3.1)

com dimensão p × 1, sendo y = (y>1, y>2, ..., yn>)> um vetor (N × 1), N = ∑ni=1ti, i = 1, 2, ..., n

(com tidenotando o número de observações do indivíduo i) é denominada função de estimação

da amostra.

Por apresentar uma definição muito ampla e que engloba os mais variados tipos de funções, vamos restringir os estudos das funções de estimação àquelas cujas raízes são estimadores dos parâmetros de interesse, ou seja,

Ψn(y; bθ ) = 0, (3.2)

então estaremos avaliando as chamadas equações de estimação (que será o foco do estudo neste trabalho).

(ARTES; BOTTER, 2005) Considere uma amostra y1, y2, ..., yn, de variáveis

aleató-rias independentes, na qual p(yi; θ ) é a função densidade de probabilidade regular associada a yi.

Portanto, a função escore Ψn(y; θ ) = n

i=1 ∂ ∂ θ log p(yi; θ ), é uma função de estimação.

Para facilitar a escrita da notação, vamos utilizar Ψ(θ ) quando a referência for feita à função de estimação – conforme Artes e Botter (2005).

(36)

A função de estimação não viciada é outra definição importante para o desenvolvi-mento da teoria de funções de estimação.

(Função de estimação não viciada) Uma função de estimação é dita ser não viciada, se:

Eθ{Ψn(y; θ )} = 0, ∀θ ∈ Θ. (3.3)

A seguir definimos a matriz de variabilidade e matriz de sensibilidade de uma função de estimação Ψ(θ ).

(Matriz de variabilidade) Seja Ψ(θ ) uma função de estimação não viciada. A matriz de variabilidade de Ψ(θ ) é definida por

VΨ(θ ) = Eθ(Ψ(y, θ )Ψ>(y, θ ))

(Matriz de sensibilidade) Seja Ψ(θ ) uma função de estimação não viciada. A matriz de sensibilidade de Ψ(θ ) é definida por

SΨ(θ ) = Eθ  ∂ ∂ θ>Ψ(θ )  = Eθ{∇θΨ(y, θ )}

No caso da matriz de sensibilidade, relacionada à derivada parcial da mesma em relação aos parâmetros, é desejável que uma pequena variação no vetor paramétrico leve a uma grande variação no valor da função de estimação, pois quanto maior essa variação, mais eficiente a função será na estimação do parâmetro. No caso da matriz de variabilidade, espera-se que a função de estimação apresente pequena variabilidade, pois dessa forma garante-se que no verdadeiro valor do parâmetro, seu valor aproxime-se de seu valor médio, que é nulo (ARTES; BOTTER, 2005).

Ademais, é necessário estabelecer algumas condições sob as quais as raízes de uma função de estimação possuam boas propriedades assintóticas. Os conceitos sobre função de estimação regular e informação de Godambe são pontos importantes para o estudo dessas propriedades, as quais abordaremos no próximo tópico. Mais detalhes podem ser encontrados em Godambe (1960), Godambe (1997), Jorgensen e Laboriau (1994), Artes et al. (2000) e Artes e Botter (2005), por exemplo.

(37)

3.2.1 Função de estimação regular e informação de Godambe

(Função de estimação regular) Uma função de estimação ψ(y; θ ) = (ψ1, ψ2, ..., ψp)>:

X × Θ −→ Rpé dita ser uma função de estimação regular se as condições a seguir forem

satis-feitas para todo θ ∈ Θ: i. ψi(y; θ ) é não viciada;

ii. A derivada parcial de Ψi(y; θ ) com respeito a θiexiste e é contínua quase certamente;

iii. É possível permutar o sinal de integração e diferenciação da seguinte forma:

∂ ∂ θl Z X Ψ(y; θ )dPθ = Z X ∂ ∂ θlΨ(y; θ )dPθ, com l = 1, 2, ..., p; iv. Eθ(ψj(θ )ψk(θ )) ∈ R, com j, k = 1, 2, ..., p e Vψ(θ ) = Eθ(Ψ(y, θ )Ψ>(y, θ )) é positiva definida; v. Eθ  ∂ ∂ θl ψj(θ ) ∂ ∂ θm ψk(θ )  , com j, k, l, m = 1, 2, ..., p e SΨ(θ ) = Eθ{∇θΨ(y, θ )} é não singular.

Se o parâmetro de interesse é unidimensional, então os pontos (iv.) e (v.) se reduzem, respectivamente, a 0 < Eθ{Ψ 2(y; θ )} < ∞ Eθ  ∂ Ψ(y; θ ) ∂ θ  < ∞.

A seguir, apresentaremos a definição de Informação de Godambe, que desempenha um papel similar à Informação de Fisher, para funções de estimação regulares.

(Informação de Godambe) Seja Ψ(y; θ ) uma função de estimação regular. Define-se a matriz de informação de Godambe de θ associada a Ψ por

JΨ(θ ) = SΨ>(θ )VΨ−1(θ )SΨ(θ ).

Vale ressaltar que a função escore, obtida a partir de uma função densidade de probabilidade regular, satisfaz as propriedades da Definição 3.2.1 e, além disso, SΨ(θ ) =

(38)

−VΨ(θ ), o que faz com que sua matriz de informação de Godambe coincida com a matriz de informação de Fisher (ARTES; BOTTER, 2005).

A seguir, é apresentado o teorema que estabelece condições para normalidade assintótica de estimadores obtidos a partir de funções de estimação regulares no caso de θ unidimensional.

(JORGENSEN; LABORIAU, 1994). Seja θ um parâmetro unidimensional e con-sidere a amostra de variáveis aleatórias independentes y1, y2, ..., yn, com y = (y1, y2, ..., yn)>.

Uma sequência de raízes { bθn}n≥1 associada a uma função de estimação regular Ψn(y, θ ) =

∑ni=1Ψi(yi; θ ) é tal que

b θn p − → θ , assintoticamente normal √ n( ˆθ − θ )−→d N (0,JΨ−1(θ )), em que JΨ= S2(θ )/V (θ ) e S(θ ) = lim n→∞ n

i=1 SΨi n (θ ); SΨi(θ ) = Eθ{∇θψi(yi, θ )}, (3.4) V(θ ) = lim n→∞ n

i=1 VΨi n (θ ); VΨi(θ ) = Eθ{ψ 2 i(yi, θ )}. (3.5)

No caso do parâmetro ser unidimensional, basta provar a consistência das raízes de uma função de estimação regular para que se tenha distribuição assintótica conhecida (ARTES; BOTTER, 2005). No caso multidimensional – desenvolvido por (ARTES, 1997) –, sob condições de regularidade, a matriz JΨ(θ ) = S>(θ )V−1(θ )S(θ ), em que S(θ ) = lim n→∞ n

i=1 Sn(θ ) n = limn→∞ n

i=1 SΨi(θ ) n (3.6)

(39)

e V(θ ) = lim n→∞ n

i=1 Vn(θ ) n = limn→∞ n

i=1 VΨi(θ ) n , (3.7)

com SΨi(θ ) = Eθ{∇θψi(yi; θ )} e VΨi(θ ) = Eθ{ψi(yi; θ )ψi>(yi; θ )}, desempenha o papel de

uma matriz de informação de Godambe assintótica associada a Ψn.

Dessa forma, o vetor de parâmetros θ também é consistente e tem distribuição assintótica normal, ou seja,

ˆ θn

p

→ θ √n( ˆθ − θ )−→d N (0,JΨ−1(θ )). (3.8)

3.2.2 Função de estimação ótima e função de estimação linear

O conceito de otimalidade de uma função de estimação regular foi desenvolvido por Godambe (1960). Para o caso de θ ser unidimensional, é possível definir uma função de estimação ótima como aquela cujas raízes possuem variância assintótica mínima. No caso multidimensional esse conceito pode ser estendido como por meio e uma ordenação das matrizes de covariâncias assintóticas. Chandrasekar e Kale (1984) mostra a definição para essa ordenação e Artes e Botter (2005) fazem comentários sobre esse resultado.

Partindo dessa questão, (CROWDER, 1987) avalia a geração de funções de estimação que são ótimas em uma sub-classe de funções regulares. Nesse sentido, o autor estuda as chamadas funções de estimação lineares.

(Função de estimação linear) Sejam Qi(θ ), i = 1, 2, ..., n, matrizes não estocásticas,

não singulares e de pesos que, eventualmente, podem depender de θ e bi, i = 1, 2, ..., n, vetores

aleatórios de média zero e mutualmente independentes satisfazendo as condições de função de estimação regular. Então, bigera uma classe de funções de estimação lineares definida por:

L (b) = ( Ψn(θ ) ∈ R : Ψn(θ ) = n

i=1 Qi(θ )bi(yi; θ ) ) , (3.9)

sendo R o conjunto contendo todas as funções regulares de θ e b = (b>1, b>2, ..., b>n)>.

Segundo o autor, a função de estimação linear ótima dentre as da classe L (b) é obtida quando a matriz de pesos é dada por:

Ψon(θ ) =

n

i=1

(40)

em que Qoi(θ ) = E  ∂ bi ∂ θ>  Cov(bi)−1 (3.11) com

Cov(bi) = Var(bi)1/2R(bi)Var(bi)1/2, (3.12)

sendo Var(bi) = diag{Var(bi1), ..., Var(bis)} e R(bi) a verdadeira matriz de correlação de bicom

dimensão s × s.

Acresça-se, ainda, que as equações normais obtidas a partir do método de mínimos quadrados é ótima em uma classe de funções de estimação regulares e lineares. O mesmo ocorre para o método dos mínimos quadrados generalizados (ARTES; BOTTER, 2005).

3.3 Quase verossimilhança

Nem sempre especificar um correspondente multivariado para distribuição de proba-bilidade de uma variável é uma tarefa simples – o caso da normal multivariada é uma rara exceção a qual conseguimos especificar. São necessárias, portanto, opções que não levem em considera-ção a funconsidera-ção de verossimilhança para a estimaconsidera-ção de parâmetros do modelo. Como alternativas a esse problema são propostos os chamados modelos marginais, os quais não necessitam que a distribuição conjunta de yiseja especificada, isto é, apenas é conhecido o comportamento da

média da distribuição em função das variáveis explicativas e a relação entre a média e a variância da mesma.

Artes e Botter (2005) utilizam um exemplo para ilustrar o desconhecimento da distribuição conjunta e, consequentemente, o uso da estimação por quase verossimilhança, considerando uma variável resposta de um modelo de regressão que representa contagem. Para esse caso, seria natural admitir a modelagem utilizando a distribuição de Poisson. Entretanto, ao realizar a análise descritiva e ao calcular a função desvio, nota-se evidências de que existe superdispersão dos dados, ou seja, a variância dos dados é superior à sua média, evidenciando uma possível limitação ao uso da distribuição Poisson. Neste caso, várias extensões são apresentadas na literatura como alternativas de modelagem, em nosso caso, vamos considerar o uso do método de quase verossimilhança.

(41)

Dessa forma, sendo Y uma variável aleatória de interesse, Wedderburn (1974) define o logaritmo da função de quase verossimilhança por

Q(µ; y) = 1 σ2 Z µ y y− t V(t)dt,

em que V (t) é uma função positiva e conhecida, −∞ < y < ∞ e σ2> 0 é o parâmetro de dispersão. Pelo fato de termos uma integral definida, então

∂ Q(µ ; y) ∂ µ = y− t σ2V(t)| µ y = y− µ σ2V(µ). (3.13)

Wedderburn (1974) chama a função (3.13) de função quase escore, em analogia a função escore da família exponencial linear, pelo fato de ambas apresentarem as mesmas propriedades, ou seja, i. E  ∂ Q(µ ;Y ) ∂ µ  = 0 e ii. E "  ∂ Q(µ ;Y ) ∂ µ 2# = −E  ∂2Q(µ;Y ) ∂2µ  ,

com E(Y ) = µ e Var(Y ) = σ2V(µ). Dessa forma, o cenário se assemelha aos Modelos Lineares Generalizados, visto que, µ é a média da variável Y e a variância de Y é proporcional à V (µ). Outrossim, o autor mostra ainda que

iii. −E  ∂2Q(µ;Y ) ∂2µ  ≤ −E  ∂2L(µ;Y ) ∂2µ  ,

sendo L(µ;Y ) a função de verossimilhança de µ. Essa terceira propriedade mostra que quando se conhece a verossimilhança dos dados, a informação à respeito de µ é maior.

Considerando agora a existência de um modelo de regressão, com yi, i = 1, 2, ..., n,

uma amostra de variáveis aleatórias independentes com distribuição desconhecida, com média µi

e parâmetro de dispersão φ−1, associa-se à observação i, a existência de um vetor p-dimensional de covariáveis fixas xi, de modo que

g(µi) = x>i β = η e Var(yi) = φ−1V(µi),

sendo g(·) a função de ligação, monótona e duplamente diferenciável, e β um vetor p-dimensional de parâmetros de regressão. A função de quase verossimilhança para a observação i é dada por Qi(µi; yi) = Qi= φ Z µi yi yi− µi V(µi) dµi, (3.14)

e para a amostra completa é dada por Q= n

i=1 (yi− µi)2 Var(yi) = n

i=1 (yi− µi)2 φ−1V(µi) .

(42)

Note que a ideia desse método consiste na estimação dos parâmetros utilizando mínimos quadrados ponderados pela variância de yi.

Utilizando os conceitos expostos anteriormente, a função de estimação ótima na classeL (y − µ) para um único indivíduo é dada por

Qi(µi; yi) = Qi= φ Z µi yi yi− µi V(µi) dµi, (3.15)

cuja derivada em relação à β é expressa por:

Ψi(β ) = ∂ Qi ∂ β = φ ∂ Qi ∂ µi ∂ µi ∂ ηi ∂ ηi ∂ β = φ xi ∂ µi ∂ ηi yi− µi V(µi) .

Utilizando a representação dos termos pela forma matricial e considerando Ψn(β ) =

∑ni=1ψi(β ), temos que a função de estimação é dada por

Ψn(β ) = φ X>HW−1(y − µ) = φ D>W−1(y − µ), (3.16)

com Hi= diag{∂ dµi/∂ dηi} e W = Cov(y) = diag{V1,V2, ...,Vn}, sendo D> = X>H.

Para relacionar a função quase escore e as funções de estimação lineares ótimas, considere o Teorema a seguir.

Sob condições gerais de regularidade, a função de estimação (3.16) é a função de estimação linear ótima da classeL (y− µ). Além disso, a informação de Godambe de β baseada em Ψn(β ) é dada por

JΨn(β ) = φ D>W−1D.

McCullagh (1983) provou, sob condições gerais de regularidade, que o estimador de quase verossimilhança, obtido como raiz da função quase escore, é consistente e que√n( bβn−

β ) converge em distribuição para uma normal p-variada com vetor média zero e matriz de covariância J−1, com J = lim

n−→∞

JΨn

n . As estimativas de β e φ podem ser obtidas através de algoritmos semelhantes aos apresentados para os modelos lineares generalizados (ARTES; BOTTER, 2005). (WEDDERBURN, 1974) apresenta ainda a função quase desvio e mostra uma proposta para a estimação do parâmetro φ .

Considere agora que tenhamos um modelo multivariado, ou seja, uma amostra (y>i , x>i )>, com yivetores aleatórios t dimensionais independentes e X>i = (xi1, xi2, ..., xit)

(43)

como:

E(yi j) = x>i jβ = µi j, Var(yi j) = φ−1V(µi j) e Corr(yi) = Γ(µi).

A função quase escore multivariada (ARTES; BOTTER, 2005), que sob condições gerais de regularidade é regular e função de estimação ótima na classe das lineares geradas por yi− µi, é dada então por

Ψ(β ) = φ n

i=1 D>i W−1i (yi− µi), com Wi= Cov(yi) = φ−1A 1/2 i Γ(µi)A 1/2 i e Ai= diag{V1, ..., Vn}.

Alguns pontos, todavia, limitam e tornam o uso da teoria de quase verossimilhança multivariada inviável. Artes e Botter (2005) apresentam-os da seguinte forma:

i. Em alguns casos não há uma função de quase verossimilhança; ii. Apresenta problemas na modelagem com dados desbalanceados;

iii. A modelagem de Γ como função da média pode acarretar dificuldades técnicas.

O autor afirma ainda que para existir uma função de quase verossimilhança, no caso multivariado, faz-se necessário que ∂ Ψn/∂ β seja simétrica, o que geralmente não ocorre. Outro

problema frisado, refere-se à modelagem de Γ, ou seja, deve-se garantir que Γ seja sempre uma matriz de correlação, isto é, que os elementos de fora da diagonal principal estejam restritos ao intervalo [−1; 1] e, além disso, é necessário que a mesma seja uma matriz positiva definida. Considere como exemplo que t = 3 e admita que ρi, jk = Corr(yi j, yik). Ao tomarmos ρi, jk=

arctang( f (µi)), como exemplo, sendo f uma função qualquer, garantimos que −1 ≤ ρi, jk≤ 1,

mas não garantimos que a matriz resultante será positiva definida.

Uma solução para contornar esse problema e garantir que a matriz seja positiva definida, seria modelar ρi,12 e ρi,13 e modelar a correlação parcial entre yi2e yi3eliminado o

efeito de yi1. Todavia, apesar de ser uma interessante solução teórica, essa abordagem torna a

modelagem bem complicada e que não tem grande aplicabilidade (ARTES; BOTTER, 2005).

3.4 Equações de Estimação Generalizadas

A solução para esses problemas, proposta por Liang e Zeger (1986), estende a situação anterior elaborando as chamadas Equações de Estimação Generalizadas para análise de dados longitudinais (EEGs). Os autores propõem uma matriz de correlação dada por Ri(ρ) –

Referências

Documentos relacionados

O bloqueio intempestivo dos elementos de transmissão de energia entre os equipamentos e acessórios ou reboques está impedido ou se não está existem medidas que garantem a segurança

Você está sendo convidado(a) como voluntário(a) a participar da pesquisa: SAE Study - Avaliação da disfunção cerebral aguda em pacientes com sepse grave: Estudo

Analysis of relief and toponymy of the landscape based on the interpretation of the military topographic survey: Altimetry, Hypsometry, Hydrography, Slopes, Solar orientation,

Muitos aspectos destacam-se, por exemplo: a diversificação e a heterogeneidade das ações profissionais; a juventude das(os) psicólogas(os) que atuam na área, indicando que ela

Outras possíveis causas de paralisia flácida, ataxia e desordens neuromusculares, (como a ação de hemoparasitas, toxoplasmose, neosporose e botulismo) foram descartadas,

Para reverter essa situa~ão, o setor tel que se tornar aais eficiente e versátil no trata.ento dos recursos florestais.. Pelas suas características tecnológicas, as quais perlitel

Our contributions are: a set of guidelines that provide meaning to the different modelling elements of SysML used during the design of systems; the individual formal semantics for

Ao contrá- rio, se a contaminação é precoce e se t o das as condições são favoráveis à exterio rização, os sintomas descritos aparecem de uma maneira muito