• Nenhum resultado encontrado

Slides

N/A
N/A
Protected

Academic year: 2021

Share "Slides"

Copied!
31
0
0

Texto

(1)

CE225 - Modelos Lineares Generalizados

Cesar Augusto Taconeli

05 de agosto, 2019

(2)

Aula 2 - Uma breve revisão sobre modelos

lineares

(3)

Modelos lineares

Modelos de regressão são utilizados para modelar a relação entre uma variável aleatória y e um conjunto de variáveis explicativas x1, x2, ..., xp.

As variáveis explicativas são incorporadas ao modelo juntamente com um conjunto de parâmetros desconhecidos, que são estimados com base nos dados disponíveis.

Uma classe de modelos de regressão são os modelos lineares, que podem ser expresso na seguinte forma geral:

y = β0+ β1x1+ β2x2+ ... + βpxp+ , (1)

em que β0, β1, β2, ..., βp são os parâmetros do modelo e  é o erro ,

aleatório e não observável, ao qual assumimos E [] = 0 e Var [] = σ2.

(4)

Modelos lineares

Vamos denotar o modelo linear por:

y = f (β; x) +  = x0β + , (2) em que x = (1, x1, ..., xp)0 é o vetor de variáveis explicativas e

β = (β0, β1, ..., βp)0 é o vetor de parâmetros.

Importante notar que o termo linear se refere à forma como os parâmetros (e não as variáveis explicativas) são inseridos no modelo. Assim, um modelo é linear se cada derivada parcial do tipo

∂f (β; x) ∂βj

(3)

(5)

Modelos lineares

Os seguintes preditores definem modelos lineares:

f (β; x) = β0+ β1x1+ β2x2; (4) f (β; x) = β0+ β1x + β2x2+ β3x3; (5) f (β; x) = β0+ β1ln x1+ β2 1 x2  ; (6) f (β; x) = β0+ β1x1+ β2x2+ β3x1x2. (7)

(6)

Modelos lineares

Os seguintes preditores definem modelos não lineares:

f (β; x) = β0+ β1exp{β2x1}; (8)

f (β; x) = β0

1 + exp{β1x }; (9)

(7)

Representação matricial de modelos lineares

Considere um conjunto de n observações do tipo (y1, x1), (y2, x2), . . . , (yn, xn), x0i = (1, xi 1, xi 2, ..., xip0 ).

A representação matricial de um modelo linear fica dada por:

y = Xβ + ,  ∼ Nn(0, σ2In), (11)

em que Nn representa a distribuição Normal n−variada, In a matriz

identidade n × n e y =       y1 y2 .. . yn       ; X =       1 x11 x12 . . . x1p 1 x21 x22 . . . x2p .. . ... ... . .. ... 1 xn1 xn2 . . . xnp       ; β =       β0 β1 .. . βp       ;  =       1 2 .. . n       . (12)

(8)

Representação matricial de modelos lineares

Uma representação alternativa de modelos lineares pode ser feita em duas etapas.

Considere µ1, µ2, ..., µn, em que E (yi|xi) = µi, i = 1, 2, ..., n. Então:

yi|xi ∼ N(µi, σ2);

µi = x0iβ = β0+ β1xi 1+ ... + βpxip.

(13)

(9)

Ajuste do modelo linear pelo método de mínimos

quadrados

O ajuste de um modelo linear via mínimos quadrados baseia-se na determinação de β = (β0, β1, ..., βp) que minimizam a soma de

quadrados dos erros:

SQE (β) = k(y − µ)k =X i (yi − µi)2 = n X i =1  yi− X j βjxij   2 . (14)

Por se tratar de uma soma de quadrados, a minimização de SQE (β) fica determinada pela solução do seguinte conjunto de equações de estimação:

∂SQE (β) ∂βj

= 0, j = 0, 1, 2, ..., p. (15)

(10)

Ajuste do modelo linear pelo método de mínimos

quadrados

Uma vez que as equações de estimação são lineares com relação aos parâmetros, é possível obter os estimadores de mínimos quadrados de maneira analítica (sem recorrer a métodos numéricos).

Após alguma algebra matricial, o estimador de mínimos quadrados de

β, denotado por ˆβ, fica dado por:

ˆ

(11)

Propriedades dos estimadores de mínimos quadrados

em modelos lineares

Eβˆ= β ;

var( ˆβ) = σ2(X0X)−1;

Na classe de estimadores lineares não viciados, ˆβ tem variância mínima

(eficiência);

Se assumirmos erros com distribuição Normal, então ˆβ tem

distribuição Normal: ˆ β ∼ Np+1  β, σ2 X0X−1 , (17) tal que: ˆ βj ∼ N  βj, σ2  x0jxj −1 . (18)

(12)

Propriedades dos estimadores de mínimos quadrados

em modelos lineares

Dada uma combinação linear dos parâmetros:

c0β = c0β0+ c1β1+ ... + cpβp, (19)

em que c0= (c0, c1, ..., cp) é um vetor de constantes, então o estimador de

mínimos quadrados para c0β é c0β, com:ˆ

E (c0β) = cˆ 0β; Var (c0β) = cˆ 0(X0X)−12 (20) e, sob a suposição de normalidade,

(13)

Resultados adicionais sobre a estimação por

mínimos quadrados

A matriz H = X(X0X)−1X0 é o projetor ortogonal de y no espaço

coluna de X, sendo chamada “matriz chapéu” (hat matrix) Pelo teorema de Pitágoras:

kY k2 = Yˆ 2 + kˆk2, (22)

ou seja, o vetor de observações pode ser decomposto na soma de dois

vetores ortogonais: o vetor ˆY do vetor estimação e o vetor ˆ do espaço

resíduo.

(14)

Resultados adicionais sobre a estimação por

mínimos quadrados

(15)

Resultados adicionais sobre os estimadores de

mínimos quadrados em modelos lineares

Novamente sob a suposição de normalidade dos erros, os estimadores de mínimos quadrados são equivalentes aos de máxima verossimilhança;

Se a matriz do modelo (X) não tem posto completo, então (X0X)−1

também não tem;

Consequentemente, o sistema de equações de estimação admite

infinitas soluções, não existindo estimador de mínimos quadrados ( ˆβ).

A solução nesse caso é considerar uma matriz inversa generalizada para (X0X)−1, o que implica no uso de restrições para os parâmetros.

(16)

Inferência estatística em modelos lineares

A inferência estatística em modelos lineares tem como principais objetivos estimar e testar hipóteses sobre os parâmetros, bem como obter predições.

Inicialmente, vamos tratar da inferência para um particular parâmetro

βj do modelo.

Testes de hipóteses e intervalos de confiança para os parâmetros do modelo podem ser obtidos a partir do seguinte resultado:

ˆ

βj− βj

q

var ( ˆβj)

∼ tn−p−1, (23)

para j = 0, 1, 2, ..., p, em que tν representa a distribuição t−Student com ν

(17)

Inferência estatística em modelos lineares

Assim, um intervalo de confiança 100(1 − α)% para βj fica dado por:

ˆ βj ± tn−p−1;α/2 q d var ( ˆβj) = ˆβj ± tn−p−1;α/2 q ˆ σ2(x0 jxj)−1, (24) em que ˆσ2= P i(yi−ˆyi) 2 n−p−1 .

De maneira similar o teste de H0 : βj = βj0 versus H1 : βj 6= βj0, sendo βj0 um valor postulado para βj, baseia-se na estatística:

t = qβˆj − βj0

ˆ

σ2(x0 jxj)−1

, (25)

rejeitando-se H0, ao nível de significância α, se |t| > tn−p−1;1−α/2.

(18)

Inferência estatística em modelos lineares

Vamos considerar agora o teste da hipótese de nulidade conjunta dos parâmetros do modelo:

H0: β1= β2 = ... = βp= 0. (26)

Esse teste baseia-se na partição da variabilidade total dos dados, conforme pode ser apresentado num quadro de análise de variância.

(19)

Inferência estatística em modelos lineares

Tabela 1: Análise de variância

Fonte Soma de Quadrados gl Quadrado médio F

Regressão SQT - SQRes p SQRegp QMRegQMRes

Resíduos P

i(yi− ˆyi)2 n-p-1 n−p−1SQRes

Total P

i(yi − ¯y )2 n-1

Sob a hipótese nula, a estatística F tem distribuição F-Snedecor com parâmetros p e n − p − 1.

Para um nível de significância α, H0 deve ser rejeitada se

F > Fp,n−p−1;1−α/2.

(20)

Inferência estatística em modelos lineares

Outra possibilidade é o teste da nulidade conjunta de um subconjunto de parâmetros:

H0: β1= β2 = ... = βq= 0, 1 ≤ q ≤ p. (27)

O teste de H0 baseia-se nos resultados dos ajustes “completo” (com

p+1 parâmetros) e “reduzido” (com q+1 parâmetros):

Modelo reduzido: yi = β0+ β1xi 1+ β2xi 2+ ... + βqxiq

Modelo completo: yi = β0+ β1xi 1+ β2xi 2+ ... + βpxip

(21)

Inferência estatística em modelos lineares

Sejam SQReg0 e SQReg1 as somas de quadrados de regressão dos

modelos reduzido e completo, respectivamente.

Sob a hipótese nula (de nulidade conjunta do subconjunto de parâmetros), a estatística F:

F = (SQReg1− SQReg0)/q

SQReg1/(n − p − 1)

(29) tem distribuição F-Snedecor com q e n − p − 1 graus de liberdade,

fundamentando o teste da hipótese.

(22)

Inferência estatística em modelos lineares

Intervalos de confiança e testes de hipóteses para uma combinação linear c0β = c0β0+ c1β1+ ... + cpβp podem ser feitos com base na

distribuição tn−p−1. Começando pelo IC 100(1 − α)%:

c0β ± tˆ n−p−1;1−α/2

q

c0(X0X)−1c ˆσ2, (30)

e, para o teste bilateral de H0 : c0β = 0, a hipótese é rejeitada se

t = c

0βˆ

q

c0(X0X)−1c ˆσ2 > tn−p−1;1−α/2, (31)

(23)

Diagnóstico do ajuste

O diagnóstico do ajuste de um modelo de regressão é uma etapa fundamental da análise, tendo como objetivos:

Avaliar se o modelo proposto, de maneira geral, se ajusta bem aos dados;

Checar se as pressuposições do modelo são atendidas;

Identificar quais as causas de possível falta de ajuste e medidas corretivas apropriadas;

Identificar outliers e pontos influentes. Estudar o impacto desses pontos no ajuste do modelo.

(24)

Diagnóstico do ajuste

Dentre as principais ferramentas para diagnóstico do ajuste, destacam-se:

Métodos gráficos;

Medidas de qualidade de ajuste;

Testes de hipóteses;

(25)

Diagnóstico do ajuste - Análise de resíduos

Resíduo

Medida da diferença entre valores observados de uma variável e os correspondentes valores ajustados por um modelo.

Resíduo ordinário:

ri = yi − ˆyi, (32)

sendo ˆyi o valor ajustado pelo modelo para a i -ésima observação, i = 1, 2, ..., n.

Nota: Os resíduos ordinários não têm variância constante, comprometendo

sua utlização no diagnóstico do ajuste. Versões padronizadas são recomendadas.

(26)

Diagnóstico do ajuste - Análise de resíduos

Resíduo padronizado: ri = yi − ˆyi ˆ σ1 − hi , i = 1, 2, ..., n, (33)

sendo hi o i -ésimo elemento da diagonal de H = X(X0X)−1X0.

Resíduo studentizado: ri = yi − ˆyi ˆ σ(−i )1 − hi , i = 1, 2, ..., n, (34)

em que ˆσ(−i ) é a estimativa de σ obtida sem considerar a i -ésima

(27)

Diagnóstico do ajuste - Alguns gráficos para análise

de resíduos

Gráfico quantil-quantil normal: permite avaliar a pressuposição de

normalidade, avaliar a forma da distribuição em caso de não normalidade, identificar outliers;

Resíduos vs valores ajustados: investigar padrões não aleatórios,

variância não homogênea, presença de outliers e potenciais pontos influentes;

Resíduos vs ordem de coleta (no tempo, no espaço,. . . ): avaliar

possível dependência relacionada à ordem de coleta;

Resíduos versus variáveis explicativas: detectar possível falta de

ajuste em relação às variáveis explicativas inseridas no modelo;

Resíduos versus variáveis não incluídas no modelo: verificar se há

variáveis não incluídas no ajuste que deveriam ser consideradas. . .

(28)

Medidas de influência

Objetivo

Medir o impacto de cada observação no ajuste global (ou em componentes) do modelo.

Leverage hi: Medida de distância da i -ésima observação, no espaço

das variáveis explicativas, ao centróide das demais observações;

Distância de Cook: Medida de diferença das estimativas dos

parâmetros do modelo ao considerar e ao desconsiderar uma particular observação no ajuste;

(29)

Medidas de influência

DFFITS: Medida de diferença dos valores ajustados para uma

particular observação ao considerar e ao desconsiderar essa observação no ajuste;

DFBETAS: Medida de diferença das estimativas dos parâmetros do

modelo (avaliados um a um) ao considerar e ao desconsiderar uma particular observação no ajuste;

COVRATIO: Medida de alteração na precisão das estimativas dos

parâmetros do modelo ao considerar e ao desconsiderar uma particular observação no ajuste.

Nota: Observe que as medidas de influência usam a estratégia leave one

out. Para a análise, pode-se construir gráficos dos valores de uma particular

medida vs o índice da observação.

(30)

Recursos computacionais

O pacote car disponibiliza diversas funções para diagnóstico do ajuste, com diferentes gráficos para resíduos e medidas de influência;

Os pacotes effects e lsmeans dispõem recursos para explorar os efeitos das variáveis usadas no ajuste do modelo e produção de inferências; Usaremos pacotes adicionais, nas aulas práticas, para seleção de covariáveis e teste da qualidade do ajuste, dentre outros.

(31)

Sessão R

Vamos trabalhar com três exemplos, com scripts disponíveis na página da disciplina:

1 Análise da viscosidade de um polímero segundo a temperatura e a taxa

de alimentação do catalisador em uma reação química;

2 Vendas de um produto sob quatro diferentes tipos de embalagens;

3 Total em vendas de representantes de uma marca de cosméticos

segundo a idade, tempo de escolaridade, anos de experiência e tamanho da população atendida.

Referências

Documentos relacionados

A Fundação do ABC – Complexo Hospitalar Municipal de São Bernardo do Campo (CHMSBC), nos termos do seu Regulamento Interno de Compras e Contratação de Serviços de Terceiros

O Projeto ecoValsassina insere-se num dos aspetos básicos da identidade do Colégio Valsassina que constam do seu projeto educativo: “O Colégio Valsassina assume

Coração que é “raso” demais, ou sem terra boa, ou cercado pelos espinhos da preocupação exagerada e do egoísmo, não são bons solos para a boa nova do Evangelho.. As vezes

pela geração da representação digital. Sendo, portanto, o projetista responsável pela definição das regras que regem o mecanismo, assim como o desenvolvimento do

Segundo OCDE (2012), no programa PISA, não deve ser necessária outra leitura para compreender o texto utilizado na avaliação. Tabela I: O que é Situação ou Contexto na Prova

Eles empregaram a teologia como “um meio que pudesse fazer uma análise crítica da sociedade latino-americana e assim reestruturar a Igreja Católica a partir de uma práxis

Romulo Machado relembrou que, na reunião anterior, a bancada de governo havia sinalizado que concordaria com o item 1, necessitando aprofundar a discussão internamente,

Em razão da complexidade da questão, houve solicitação da prorrogação deste prazo por diversas entidades, porém, dois dias após o prazo final estipulado pela Portaria