CE071 - Análise de Regressão Linear
Cesar Augusto Taconeli 13 de fevereiro, 2019
Definição e propriedades básicas
Uma matriz é um conjunto de números ou variáveis dispostos em linhas e colunas.
Uma matriz A de n linhas e p colunas (dimensão n × p) pode ser representada, genericamente, por:
An×p = a11 a12 · · · a1p a21 a22 · · · a2p ... ... ... ... an1 an2 · · · anp ,
A matriz A pode ser denotada ainda por A = {aij}, onde o primeiro
Definição e propriedades básicas
Um vetor x, de dimensão n, é representado, genericamente, por:
x = x1 x2 ... xn
Numa análise de regressão com n indivíduos e p variáveis, as linhas da matriz de dados (observações dos indivíduos) correspondem a n vetores
de tamanho p: x0
i = (xi 1, xi 2, ..., xip), i = 1, 2, ..., n;
As colunas da matriz de dados (observações referentes às variáveis) correspondem a p vetores de tamanho n:
Definição e propriedades básicas
A multiplicação de um vetor x = (x1, x2, ..., xp)0 por uma constante c
resulta em um vetor y = cx = (cx1, cx2, ..., cxp)0, de igual dimensão
em relação ao vetor original;
Geometricamente, a multiplicação de um vetor por um escalar pode mudar seu tamanho e sentido, mas não sua direção.
A soma de dois vetores x e y, de mesma dimensão, resulta em um terceiro vetor dado por:
Definição e propriedades básicas
A diferença de dois vetores x e y, de mesma dimensão, resulta em um terceiro vetor dado por:
w = x − y = (x1− y1, x2− y2, ..., xp− yp)0.
O produto interno de dois vetores x e y, é definido por:
v = x0y =Pp
i =1xiyi = x1y1+ x2y2+ ... + xpyp.
O tamanho do vetor x = (x1, x2, ..., xp)0 é definido pela distância do
ponto p-dimensional determinado por suas coordenadas à origem:
Lx =
√
x0x =qx2
Definição e propriedades básicas
O co-seno do ângulo θ entre os vetores x e y, definidos numa mesma dimensão, é dado por:
cos(θ) = √ x0y
x0x√y0y.
Dois vetores x e y são ortogonais entre si se o ângulo θ entre eles é
90º, de tal forma que cos(θ) = 0, ou, de forma equivalente, x0y = 0.
A normalização de um vetor x corresponde à divisão de x por Lx, de
tal forma que o vetor resultante tenha comprimento unitário:
x∗= L1
Definição e propriedades básicas
Igualdade de matrizes: Dizemos que duas matrizes A e B são iguais se {aij}= {bij} para todo i e para todo j.
Matriz transposta: A transposta de uma matriz An×p é a matriz A0p×n
tal que a0 ij = aji para todo i e j: A0= a11 a21 · · · an1 a12 a22 · · · an2 ... ... ··· ... a1p a2p · · · anp
Definição e propriedades básicas
Matriz simétrica: Dizemos que uma matriz Ap×p é simétrica se
{aij}= {aji} para todo i e j, ou seja, A0= A.
Diagonal de uma matriz: A diagonal de uma matriz quadrada Ap×p
corresponde ao conjunto de elementos {a11, a22, ..., app}.
Matriz diagonal: Dizemos que a matriz quadrada Ap×p é diagonal se
todos os elementos fora da diagonal são iguais a zero:
A= a11 0 · · · 0 0 a22 · · · 0 ... ... ··· ... 0 0 · · · app
Definição e propriedades básicas
Matriz identidade: Dizemos que a matriz quadrada Ip×p é uma matriz
identidade se ela é uma matriz diagonal com todos os elementos da diagonal iguais a 1: I= 1 0 · · · 0 0 1 · · · 0 ... ... ... ... 0 0 · · · 1
Definição e propriedades básicas
Matriz triangular superior: Dizemos que a matriz quadrada Ap×p é
uma matriz triangular superior se todos os elementos abaixo da diagonal são iguais a zero:
A= a11 a12 · · · a1p 0 a22 · · · a2p ... ... ... ... 0 0 · · · app ,
Operações envolvendo matrizes
A soma de duas matrizes An×p e Bn×p, de mesma dimensão, é a
matriz resultante das somas dos elementos nas posições correspondentes: A+ B = a11+ b11 a12+ b12 · · · a1p+ b1p a21+ b21 a22+ b22 · · · a2p+ b2p ... ... ... ... an1+ bn1 an2+ bn2 · · · anp+ bnp
Operações envolvendo matrizes
A diferença de duas matrizes An×p e Bn×p, de mesma dimensão, é a
matriz resultante das diferenças dos elementos nas posições correspondentes: A − B= a11− b11 a12− b12 · · · a1p− b1p a21− b21 a22− b22 · · · a2p− b2p ... ... ... ... an1− bn1 an2− bn2 · · · anp− bnp
Operações envolvendo matrizes
Sejam An×k e Bk×p duas matrizes, tais que o número de linhas da
segunda é igual ao número de colunas da primeira. O produto AB é definido por: AB= Pk l =1a1lbl 1 Pkl =1a1lbl 2 · · · Pkl =1a1lblp Pk l =1a2lbl 1 Pkl =1a2lbl 2 · · · Pkl =1a2lblp ... ... ... ... Pk l =1anlbl 1 Pkl =1anlbl 2 · · · Pkl =1anlblp
Dizemos que a matriz quadrada Q é ortogonal se QQ0= Q0Q = I.
Operações envolvendo matrizes
Sejam An×p e c uma constante. O produto cA resulta no produto de
cada elemento de A por c:
cA= ca11 ca12 · · · ca1p ca21 ca22 · · · ca2p ... ... ... ... can1 can2 · · · canp
Operações envolvendo matrizes
Sejam A, B, C matrizes com dimensões compatíveis para as operações consideradas. Então: (A0)0= A; A + B = B + A; (A + B)0 = A0+ B0; (A − B)0= A0 − B0; (AB)0= B0A0.
Operações envolvendo matrizes
AB 6= BA, exceto em situações bem específicas;
A(B + C )= AB + AC, valendo o mesmo ao substituir a soma pela
diferença;
(A + B)C = AC + BC, valendo o mesmo ao substituir a soma pela
diferença;
(A + B)C 6= CA + CB, exceto em situações bem específicas.
Definição e propriedades básicas
O traço de uma matriz de uma matriz Ap×p, denotado por tr(A),
corresponde à soma dos elementos da diagonal de A:
tr(A) =
p
X
i =1
aii (1)
Sejam A e B matrizes quadradas. Então:
tr(A + B) = tr(A) + tr(B);
tr(AB) = tr(BA);
Combinações lineares e formas quadráticas
Para um conjunto de constantes a1, a2, ..., ap, o vetor
y = a1x1+ a2x2+ ... + apxp é uma combinação linear dos vetores x1, x2, ..., xp.
O conjunto de vetores x1, x2, ..., xp é dito linearmente dependente
se há um conjunto de constantes a1, a2, ..., ap, nem todas nulas, tal
que:
a1x1+ a2x2+ ... + apxp = 0.
Combinações lineares e formas quadráticas
Uma forma quadrática, definida a partir de uma matriz simétrica A
p × p, é definida como: Q(x) = x0Ax =Pp i =1 Pp i =1aikxixk, para x 6= 0 definido em Rp.
Classificamos a matriz A, e a consequente forma quadrática x0Ax,
Matriz inversa
Matriz inversa: Considere uma matriz A. Caso exista uma matriz A−1
tal que
AA−1= A−1A= I, (2)
dizemos que A−1 é a matriz inversa de A.
Quando uma matriz possui inversa dizemos que ela é não-singular. Caso contrário, ela é classificada como singular.
Matriz inversa
A condição fundamental para que uma matriz tenha inversa é que suas colunas sejam linearmente independentes (matriz de rank completo).
O rank de uma matriz An×p, denotado por rank(A), é definido como
o número de linhas (ou colunas) linearmente independentes de A.
Dizemos que a matriz quadrada Ap×p tem rank completo se
rank(A) = p, configurando uma matriz não singular.
Matriz inversa
A inversa de uma matriz diagonal é dada pela matriz diagonal composta pelos inversos dos elementos da matriz original:
A= a11 0 · · · 0 0 a22 · · · 0 ... ... ... ... 0 0 · · · app ; A−1= 1 a11 0 · · · 0 0 1 a22 · · · 0 ... ... ... ... 0 0 · · · 1 app
Matriz inversa
Se A e B são não singulares (p × p), então (AB)−1 = (B)−1
(A)−1;
Para c uma constante real diferente de zero, (cA)−1 = c−1(A)−1;
(A0)−1= (A−1)0;
Se rank(A) = p então A−1 existe;
Se A é ortogonal, então A−1 existe, além do que A−1= A0;
Matriz idempotente
Uma matriz Ap×p é chamada idempotente se:
A= AA
Se A é também simétrica, então A é chamada simétrica
idempotente;
Se A é simétrica idempotente, então I − A também é simétrica idempotente.
Resultados sobre partição de matrizes
Seja uma matrix X particionada tal que:
X = [X1X2]
.
Então, valem os seguintes resultados:
X(X0X)X0X1= X1e X(X0X)X0X2= X2
Derivadas matriciais
Seja A uma matriz de constantes k × k, a um vetor de constantes
k ×1 e y um vetor k × 1 de variáveis. Se z = a0y, então: ∂z ∂y = ∂a0y ∂y = a Se z = y0y, então: ∂z ∂y = ∂y0y ∂y = 2y
Derivadas matriciais
Se z = a0Ay, então: ∂z ∂y = ∂a0Ay ∂y = A 0a Se z = y0Ay, então: ∂z ∂y = ∂y0Ay ∂y = Ay + A 0y Se z = y0Ay e A é simétrica, então: ∂z = 2AyPropriedades de vetores aleatórios
Um vetor aleatório de dimensão p é um vetor em que cada um de seus
p componentes é uma variável aleatória.
Vamos denotar um vetor aleatório y por y = (y1, y2, ..., yp)0.
A esperança de um vetor aleatório y é definida pelo vetor de mesma dimensão em que cada elemento corresponde à esperança matemática da respectiva variável. E(y) = E y1 y2 ... yp = E(y1) E(y2) ... E(yp) = µ1 µ2 ... µp = µ
Propriedades de vetores aleatórios
A matriz de variâncias e covariâncias de um vetor aleatório
Y= (Y1, Y2, ..., Yp)0 é definida pela matriz p × p Cov(Y) dada por:
Cov(Y) = E(Y − µ)(Y − µ)0=
E(Y1− µ1)2 · · · E(Y1− µ1)(Yp− µp)
E(Y1− µ1)(Y2− µ2) · · · E(Y2− µ2)(Yp− µp)
... ... ... E(Y1− µ1)(Yp− µp) · · · E(Yp− µp)2
Propriedades de vetores aleatórios
É usual denotar a matriz de covariâncias por:
Σ = σ11 σ12 · · · σ1p σ12 σ22 · · · σ2p ... ... ... ... σ1p σ2p · · · σpp
Propriedades de vetores aleatórios
De maneira semelhante, a matriz de correlações do vetor aleatório Y fica dada por:
ρ= Cor(Y) = 1 ρ12 · · · ρ1p ρ12 1 · · · ρ2p ... ... ... ... ρ1p ρ2p · · · 1
A matriz de correlações pode ser determinada facilmente a partir da matriz de covariâncias por:
ρ= (V1/2)−1Σ(V1/2)−1,
Propriedades de vetores aleatórios
Seja A uma matriz de constantes k × k, a um vetor de constantes
k ×1 e y um vetor aleatório k × 1 com vetor de médias µ e matriz de
variâncias e covariâncias Σ. Então: 1 E(a0y) = a0µ;
2 E(Ay) = Aµ;
3 Var(a0y) = a0Σa;
4 Var(Ay) = AΣA0; Nota: Se Σ = σ2I então Var(Ay) = σ2AA0.
5 E(y0Ay) = tr(AΣ) + µ0Aµ; Nota: Se Σ = σ2I, então