Fabricio Goecking Avelar
Natália da Silva Martins Fonseca
Universidade Federal de Alfenas - Instituto de Ciências Exatas
2 Modelo de Regressão Linear
Sumário
1 Revisão de Matrizes
2 Modelo de Regressão Linear
Definição (Matrizes)
Uma matriz A com m linhas e n colunas é um conjunto de ele-mentos em que aij é o elemento da i-ésima linha e j-ésima
co-luna, i = 1, · · · , m, j = 1, · · · , n. A = a11 a12 · · · a1n a21 a22 · · · a2n .. . ... ... ... am1 am2 · · · amn A = [aij]m×n 4 / 23
Tipos de matrizes
Se aij =0, ∀ i = 1, · · · , m, j = 1, · · · , n, então
A = [aij]m×n=0 é chamada de matriz nula.
Se m = 1, então A = [aij]1×né chamada de matriz linha.
Se n = 1, então A = [aij]m×1é chamada de matriz coluna.
Se m = n, então A = [aij]n×n é chamada de matriz
Tipos de matrizes
Se A = [aij]n×n é uma matriz quadrada tal que aij =0 se
i 6= j, então A é chamada de matriz diagonal.
Se A = [aij]n×n é uma matriz quadrada tal que
aij =
1, se i = j
0, se i 6= j , então A é chamada de matriz identidade de ordem n.
Notação: Idn
Se A = [aij]m×né uma matriz, então At = [aji]n×m é a
transposta da matriz A.
Uma matriz A é simétrica se A = At.
(At)t =A
Operações com matrizes
Se A = [aij]m×né uma matriz e α é um escalar, então a
multiplicação de α por A é a matriz αA = [αaij]m×n.
Se A = [aij]m×ne B = [bij]m×nsão duas matrizes, então a
soma de A por B é a matriz A + B = [aij +bij]m×n.
Se A = [aij]m×p e B = [bij]p×nsão duas matrizes, então o
produto matricial de A por B é a matriz AB = [cij]m×n em
que cij = p P k =1 aikbkj. (AB)t =BtAt.
Inversa de uma matriz
Se A é uma matriz n × n e B é uma matriz n × n tal que AB = BA = Idn, então B é a inversa da matriz A.
A inversa da matriz A é denotada por A−1.
Definição (Derivada matricial)
Seja A = [aij]m×numa matriz em que os elementos aij são
fun-ções diferenciáveis em relação a uma variável x . Então a deri-vada de A em relação à variável x , denotada pordA
dx, é expressa por: dA dx = da11 dx da12 dx · · · da1n dx da21 dx da22 dx · · · da2n dx .. . ... ... ... dam1 dx dam2 dx · · · damn dx
Definição (Derivada matricial parcial)
Seja A = [aij]m×numa matriz em que os elementos aij são
fun-ções diferenciáveis em relação a um vetor de variáveis X = (x1,x2, · · · ,xn). Então a derivada parcial de A em relação à
va-riável xi, denotada por
∂A ∂xi , é expressa por: ∂A ∂xi = ∂a11 ∂xi ∂a12 ∂xi · · · ∂a1n ∂xi ∂a21 ∂xi ∂a22 ∂xi · · · ∂a2n ∂xi .. . ... ... ... ∂am1 ∂xi ∂am2 ∂xi · · · ∂amn ∂xi 10 / 23
Propriedades da derivada matricial
Sejam A = [aij]m×ne B = [bij]p×q matrizes diferenciáveis
em relação a um vetor de variáveis X = (x1,x2, · · · ,xn)e α
uma constante. Então:
1 ∂(αA) ∂xi = α∂A ∂xi . 2 ∂(A + B) ∂xi = ∂A ∂xi +∂B ∂xi , em que m = p e n = q. 3 ∂(AB) ∂xi =A∂B ∂xi +∂A ∂xi B, em que n = p. 4 ∂(A −1) ∂xi = −A−1∂A ∂xi A−1, em que m = n e exista A−1.
Sumário
1 Revisão de Matrizes
2 Modelo de Regressão Linear
3 Modelo de Regressão Linear Múltiplo
Definição (Modelo de Regressão Linear)
Sejam X1,X2, · · · ,Xk variáveis explanatórias e Y uma variável
dependente de X1,X2, · · · ,Xk. O modelo de regressão linear
nas variáveis X1,X2, · · · ,Xk pode ser expresso por:
Y = β0Z0+ β1Z1+ · · · + βp−1Zp−1+e,
em que Zi = Zi(X1,X2, · · · ,Xk), ∀ i = 0, · · · , p − 1, são
fun-ções de (X1,X2, · · · ,Xk), β0, β1, · · · , βp−1são os parâmetros do
Exemplos
1 O modelo de regressão linear simples Y = α + βX + e é um modelo de regressão linear.
2 O modelo de regressão linear múltiplo
Y = β0+ β1X1+ β2X2+ · · · + βnXn+e é um modelo de
regressão linear.
3 O modelo de regressão polinomial de segundo grau
Y = β0+ β1X + β2X2+e é um modelo de regressão linear.
Contra-exemplos
1 A Isoterma de Langmuir, que pode ser expressa por Y (C) = KMC
1 + KC +e não é um modelo de regressão linear.
2 O modelo de regressão logístico
Y (x ) = α
1 + exp(β − γx )+e não é um modelo de regressão linear.
3 O modelo de rendimento Y (x ) = αx exp(−x
k) +e não é
Sumário
1 Revisão de Matrizes
2 Modelo de Regressão Linear
3 Modelo de Regressão Linear Múltiplo
Definição (Modelo de Regressão Linear Múltiplo)
Sejam X1,X2, · · · ,Xk variáveis explanatórias e Y uma variável
dependente de X1,X2, · · · ,Xk. O modelo de regressão linear
múltiplo nas variáveis X1,X2, · · · ,Xk pode ser expresso por:
Y = β0+ β1X1+ β2X2+ · · · + βkXk+e,
em que β0, β1, · · · , βksão os parâmetros do modelo e e é o erro
Notação matricial
Considerando uma amostra de tamanho n:
Yi = β0+ β1Xi1+ β2Xi2+ · · · + βkXik+ei Y = Y1 Y2 .. . Yn ; β = β0 β1 .. . βk ; e = e1 e2 .. . en ; X = 1 X11 · · · X1k 1 X22 · · · X2k .. . ... ... ... 1 Xn1 · · · Xnk ; Y = X β + e 18 / 23
Estimadores de Mínimos Quadrados
Dado o modelo de regressão linear múltiplo Y = X β + e, os estimadores de mínimos quadrados do vetor de parâmetros β pode ser expresso por
b
Exemplo
1 Os dados se referem a uma amostra de tamanho n = 11, na qual se aplicou CO2em diferentes concentrações em
folhas de trigo (X ) (cm3/dm2) à temperatura de 35oC. A quantidade de CO2absorvida (Y ) em cm3/dm2/hora foi
avaliada. Os resultados são apresentados a seguir:
X 75 100 100 120 130 130 160
Y 0,00 0,65 0,50 1,00 0,95 1,30 1,80
X 190 200 240 250
Y 2,80 2,50 4,30 4,50
1 Encontre os estimadores de mínimos quadrados dos
parâmetros do modelo de regressão linear simples por meio dos estimadores de mínimos quadrados do modelo de regressão linear múltiplo.
FONTE: Adaptado de: FERREIRA, D. F.Estatística Básica. Lavras: UFLA, 2005.
Exemplo
1 O efeito da temperatura da placa de vedação (X 1)e da
depuração da placa de vedação (X2)em uma máquina de
embrulho de sabão afeta a porcentagem de barras de sabão embrulhadas que passam na inspeção. Alguns dados dessas variáveis foram coletadas e são apresentados a seguir:
X1 130 174 134 191 165 194 143 186 X2 190 176 205 210 230 192 220 235 Y 35,0 81,7 42,5 98,3 52,7 82,0 34,5 95,4 X1 139 188 175 156 190 178 132 148 X2 240 230 200 218 220 210 208 225 Y 56,7 84,4 94,3 44,3 83,3 91,4 43,5 51,7
FONTE: Adaptado de: DRAPER, N. R.; SMITH, H.Applied regression analysis. 3.
Exemplo (Continuação)
1 Continuação do exemplo do slide anterior
1 Encontre os estimadores de mínimos quadrados dos
parâmetros do modelo de regressão linear múltiplo Y = β0+ β1X1+ β2X2+e por meio dos estimadores de
mínimos quadrados.
2 Qual porcentagem da variabilidade de Y é explicada pelo
modelo ajustado?
3 Ajuste o modelo Y = β1X1+ β2X2+e e encontre o
coeficiente de determinação do modelo ajustado.
4 Ajuste o modelo Y = β0+ β1X1+e e encontre o
coeficiente de determinação do modelo ajustado.
5 Ajuste o modelo Y = β1X1+e e encontre o coeficiente de
determinação do modelo ajustado.
6 Encontre o coeficiente de correlação linear entre as
variáveis Y e X1e entre as variáveis Y e X2.
Coeficiente de Determinação ajustado
Raj2 =1 − (1 − R2) n − 1 n − p
,
em que R2 é o coeficiente de determinação do modelo ajus-tado, n é o tamanho da amostra e p é o número de parâmetros (incluindo β0) do modelo ajustado.