• Nenhum resultado encontrado

3.2 Modelo Linear Generalizado

3.2.4 Inferência estatística sobre o MLG

Uma vez obtidos os estimadores para o parâmetro de interesse, 𝜷, também designados de coeficientes, torna-se interessante inferir sobre os mesmos. Para o efeito é preciso tomar conhecimento da distribuição de amostragem de 𝜷̂ todavia, em geral, nos modelos lineares generalizados não é possível obter as distribuições exactas, pelo que vão ser enunciadas as distribuições assimptóticas que se verificam quando os modelos satisfazem certas condições de regularidade. É pretendido, nesta fase, avaliar a significância dos coeficientes do modelo, implicando a construcção de testes de hipóteses e intervalos de confiança sobre os mesmos com vista a concluir se as covariáveis presentes no modelo são estatisticamente significativas. Por outras palavras, se as covariáveis inseridas no modelo estão estatisticamente associadas à variável dependente, 𝑌.

Irá ser enunciado, primeiramente, a distribuição assimptótica do estimador da máxima verosimilhança de 𝜷 e as suas propriedades.

44

 O estimador de máxima verosimilhança de 𝜷 é assimptoticamente centrado sendo a matriz de variância-covariância aproximadamente igual a 𝐼−1(𝜷).

 A distribuição assimptótica de 𝜷̂ é gaussiana p-variada com valor médio 𝜷 e matriz de variância-covariância 𝐼−1(𝜷) e escreve-se 𝜷~𝑁(𝜷, 𝐼−1(𝜷)).

 A estatística (𝜷̂ − 𝜷)𝑇𝐼(𝜷)(𝜷̂ − 𝜷), conhecida como a estatística de Wald, segue uma distribuição assimptótica qui-quadrado com 𝑝 graus de liberdade (𝜒𝑝2).

 A distribuição assimptótica de 𝜷̂𝑗, 𝑗 = 1, … , 𝑝 é gaussiana com valor médio 𝜷𝑗 e

variância 𝐼𝑗𝑗−1(𝜷), elemento (𝑗, 𝑗) de 𝐼−1(𝜷).

Na prática como 𝜷 é desconhecido e a matriz de informação de Fisher depende de 𝜷 esta é desconhecida pelo que se substitui 𝐼−1(𝜷) por 𝐼−1(𝜷̂).

3.2.4.1 Testes de Hipóteses

A maior parte dos testes de hipótese sobre o vector 𝜷, podem ser formulados da seguinte forma:

𝐻0: 𝑪𝜷 = 𝝃 𝑣𝑠 𝐻1: 𝑪𝜷 ≠ 𝝃

Onde 𝑪 é uma matriz 𝑞 × 𝑝, com 𝑞 ≤ 𝑝 de característica completa 𝑞, e 𝜉 é um vector de dimensão 𝑞 previamente especificado.

Existem vários casos particulares a partir do teste acima mencionado, nomeadamente:

 Hipótese da nulidade de uma componente do vector parâmetro: 𝐻0: 𝛽𝑗= 0 𝑣𝑠 𝐻1: 𝛽𝑗≠ 0,

para algum 𝑗, sendo neste caso 𝑞 = 1, 𝑪 = (0, … ,0,1,0, … ,0) e ocupando o 1 a 𝑗-ésima posição e 𝜉 = 0.

 Hipótese na nulidade de 𝑟 componentes de 𝜷. Se tivermos, por exemplo: 𝐻1: (𝛽1… 𝛽𝑟)𝑇 = (0, … ,0)𝑇, então 𝑞 = 𝑟 e 𝑪 = (𝐼𝑟𝑂𝑟 × (𝑝 − 𝑟)) 𝜉 = 0𝑟

onde 𝐼𝑟 é a matriz identidade de dimensão 𝑟, 𝑂𝑟 × (𝑝 − 𝑟) é uma matriz de zeros de dimensão

𝑟 × (𝑝 − 𝑟) e 𝑂𝑟 é o vector nulo de dimensão 𝑟.

Como já foi referido, qualquer uma das hipóteses anteriores retratam casos particulares do teste inicial. Cada uma das hipóteses corresponde a testar os coeficientes de submodelos a partir do modelo inicial considerado. A primeira hipótese consiste em testar apenas a significância do parâmetro 𝛽𝑗, associado à covariável 𝑥𝑗, num submodelo com todas as

covariáveis do modelo original à excepção da covariável 𝑥𝑗. A segunda hipótese descreve o

mesmo tipo de teste mas, desta vez, sobre um conjunto de r parâmetros de interesse, isto é, o novo submodelo não terá presente as 𝑟 covariáveis definidas na hipótese nula do teste. De seguida vão ser enunciadas as duas estatísticas mais usadas, entre três principais, para testar as hipóteses referidas anteriormente; a estatística de Wald e a estatística de Razão de Verosimilhanças.

Teste de Razão de Verosimilhanças

A estatística da razão de verosimilhanças é definida da seguinte forma: Λ = −2{𝑙(𝛽̂0) − 𝑙(𝛽̂)},

45

onde 𝛽̂̂0 e 𝛽̂ são os estimadores de máxima verosimilhança de 𝜷 , sob 𝐻0 e sob 𝐻1∪ 𝐻0

respetivamente.

A distribuição assimptótica de Λ é, sob certas condições de regularidade e sob 𝐻0, qui-

quadrado cujo número de graus de liberdade corresponde à diferença entre o número de parâmetros a estimar sob 𝐻1∪ 𝐻0 e o número de parâmetros a estimar sob 𝐻0, isto é, r.

Valores elevados da estatística Λ conduzem à rejeição da hipótese nula, assim se o valor observado da estatística Λ for superior ao quantil de probabilidade 1 − 𝛼 da distribuição 𝜒𝑟2,

a hipótese 𝐻0 é rejeitada ao nível de significância 𝛼.

Teste de Wald

A estatística de Wald é aquela que é, usualmente, aplicada para testar hipóteses nulas sobre cada um dos parâmetros individuais ou sobre um conjunto de componentes em simultâneo. No caso em que se testa sobre um conjunto de 𝑟 componentes a sua fórmula é dada por:

𝑊 = (𝑪𝜷̂ − 𝝃)𝑇[𝑪𝑰−𝟏(𝜷̂)𝑪𝑻](𝑪𝜷̂ − 𝝃)

que, sob a hipótese nula, segue uma distribuição assimptótica de um qui-quadrado com 𝑟 graus de liberdade, 𝜒𝑟2. Rejeita-se a hipótese nula, ao nível de significância 𝛼, se o valor

observado da estatística de teste for superior ao quantil de probabilidade 1 − 𝛼 do 𝜒𝑟2.

Por vezes pode interessar testar apenas para um único coeficiente do modelo, sendo que a sua fórmula é representada da seguinte maneira:

𝑊 = (𝛽̂𝑗− 𝛽𝒋) 𝑇

𝐼𝑗𝑗(𝛽̂)(𝛽̂𝑗− 𝛽𝒋)

assim, sob 𝐻0, assume a forma 𝑊 = 𝛽̂𝑗2

𝐼𝑗𝑗−1(𝛽̂) e segue uma distribuição assimptótica de um qui-

quadrado com 1 grau de liberdade, 𝜒12, uma vez que se está a testar apenas 1 coeficiente. A

hipótese nula é então rejeitada ao nível de significância 𝛼 se o valor observado da estatística de teste for superior ao quantil de probabilidade 1 − 𝛼 do 𝜒12.

Sob o pressuposto da existência de normalidade no conjunto de dados (caso mais comum), a estatística de teste de Wald é dada por:

√𝑊 = 𝛽̂𝑗− 𝛽𝒋 √𝑰𝒋𝒋−𝟏(𝜷̂)

onde, sob 𝐻0, a estatística √𝑊 segue uma distribuição 𝑡-student com 𝑛 − 𝑝 graus de liberdade

quando o parâmetro de dispersão é estimado, e uma distribuição gaussiana padrão (𝑁(0,1)- média nula e variância unitária) se o mesmo parâmetro for conhecido. Este resultado permite uma base na inferência exacta em amostras de qualquer dimensão.

Por outro lado, sob um pressuposto assimptótico de segunda ordem tendo em conta o valor médio, a variância e covariância das observações, para amostras de dimensão elevada a estatística √𝑊 segue uma distribuição gaussiana padrão. Este resultado permite uma base na inferência assimptótica em amostras de dimensão elevada.

3.2.4.2 Intervalos de Confiança

O intervalo de confiança para os parâmetros 𝛽𝑗, 𝑗 = 1, … , 𝑝 ao nível de confiança 1 − 𝛼 podem

ser obtidos com base na estatística de Wald, através da seguinte expressão: (𝛽̂𝑗± 𝑧1−𝛼 2⁄ √𝐼𝑗𝑗−1(𝛽̂𝑗))

46

onde 𝑧1−𝛼 2⁄ é o quantil de (1 − 𝛼 2⁄ ) para a distribuição gaussiana padrão e √𝐼𝑗𝑗−1(𝛽̂𝑗) é o

desvio padrão do estimador de ordem 𝑗. Para o vector 𝜷 de dimensão 𝑝:

(𝜷̂ − 𝜷)𝑇𝐼(𝜷)(𝜷̂ − 𝜷) ≤ 𝜒(1−𝛼,𝑝)2

onde 𝜒(1−𝛼,𝑝)2 é o quantil de (1 − 𝛼) do 𝜒2 com 𝑝 graus de liberdade, dá-nos o elipsoide de

confiança para 𝜷.

Documentos relacionados