Álgebra Linear I
Notas de Aula 1
Alex Farah Pereira 2 3
11 de Junho de 2017
1Turma de Matemática.
2Departamento de Análise-IME-UFF 3
Conteúdo
1 Espaços Vetoriais 1
1.1 Corpos . . . 1
1.2 Espaços Vetoriais . . . 2
1.3 O Espaço das Matrizes . . . 4
1.4 Subespaços Vetoriais . . . 12
1.5 Sistemas Lineares . . . 14
2 Base e Dimensão de um Espaço Vetorial 21 2.1 Combinação Linear . . . 21
2.2 Dependência Linear . . . 24
2.3 Base e Dimensão . . . 26
2.4 Espaço-Linha, Espaço-Coluna e Espaço-Nulo . . . 32
2.5 Bases Ordenadas . . . 37
3 Transformações Lineares 45 3.1 Definição . . . 45
3.2 Núcleo e Imagem . . . 48
3.3 Isomorfismos . . . 52
3.4 O Espaço das Transformações Lineares . . . 58
1
Espaços Vetoriais
1.1
Corpos
Um corpo K é um conjunto não-vazio munido de duas operações, + e ., satisfazendo as seguintes propriedades:
i) a + b = b + a, ∀ a, b ∈ K;
ii) a + (b + c) = (a + b) + c, ∀ a, b, c ∈ K;
iii) existe um único elemento 0 ∈ K tal que a + 0 = a, ∀ a ∈ K;
iv) para todo a ∈ K, existe (único) elemento −a ∈ K tal que a + (−a) = 0; v) a.(b.c) = (a.b).c, ∀ a, b, c ∈ K;
vi) a.(b + c) = a.b + a.c e (b + c).a = b.a + c.a, ∀ a, b, c ∈ K; vii) a.b = b.a ∀ a, b ∈ K;
viii) existe um único 1 ∈ K, 1 6= 0 tal que a.1 = a, ∀ a ∈ K;
ix) para todo a ∈ K, a 6= 0, existe (único) elemento a−1 ∈ K tal que
a.a−1= 1.
Exemplo 1.1.1. (N, +, .) e (Z, +, .) não são corpos. Exemplo 1.1.2. (Q, +, .), (R, +, .) e (C, +, .) são corpos.
Exemplo 1.1.3. Em Q[√2] = {a + b√2 ; a, b ∈ Q} definimos as operações
(
(a + b√2) + (c + d√2) = (a + c) + (b + d)√2; (a + b√2).(c + d√2) = (ac + 2bd) + (ad + bc)√2
para todos a, b, c, d ∈ Q. Então (Q[√2], +, .) é um corpo. Mais geralmente, Q[√p] é um corpo para todo número primo p ∈ N.
1.2
Espaços Vetoriais
Seja K um corpo. Dizemos que um conjunto não-vazio V é um espaço
vetorial sobre (o corpo) K quando existem duas operações, chamadas de
soma e multiplicação por escalar, associadas da seguinte maneira + : V × V −→ V . : K × V −→ V
(u, v) 7−→ u + v (α, v) 7−→ α.v satisfazendo as seguintes propriedades:
(SI) u + (v + w) = (u + v) + w, ∀u, v, w ∈ V ; (SII) u + v = v + u, ∀u, v ∈ V ;
(SIII) existe um elemento OV ∈ V tal que v + 0V = v, ∀v, ∈ V ; (SIV) para todo elemento v ∈ V , existe u ∈ V tal que v + u = 0V;
(MI) 1.v = v, ∀v ∈ V ;
(MII) α.(u + v) = α.u + α.v, ∀u, v ∈ V , ∀α ∈ K; (MIII) (α + β).v = α.v + β.v, ∀v ∈ V , ∀α, β ∈ K; (MIV) α(β.v) = (αβ).v = β(α.v), ∀v ∈ V , ∀α, β ∈ K.
Neste caso, os elementos de V são chamados de vetores.
Exemplo 1.2.1. Seja Rn = {(x1, . . . , xn) ; xi ∈ R, i = 1, . . . , n} (n ∈ N fixo) munido das operações
(
(x1, . . . , xn) + (y1, . . . , yn) = (x1+ y1, . . . , xn+ yn); α(x1, . . . , xn) = (αx1, . . . , αxn)
para todos xi, yi ∈ R, i = 1, . . . , n e todo α ∈ R. Então Rn é um espaço vetorial sobre R.
Exemplo 1.2.2. Seja C = {a + bi ; a, b ∈ R} munido das operações (
(a + bi) + (c + di) = (a + c) + (b + d)i;
α(a + bi) = (αa) + (αb)i
para todos a, b, c, d ∈ R e todo α ∈ K. Então C é um espaço vetorial sobre
1.2. ESPAÇOS VETORIAIS 3
Exemplo 1.2.3. Seja Cn = {(z1, . . . , zn) ; zi ∈ C, i = 1, . . . , n} (n ∈ N fixo) munido das operações
(
(z1, . . . , zn) + (w1, . . . , wn) = (z1+ w1, . . . , zn+ wn); α(z1, . . . , zn) = (αz1, . . . , αzn)
para todos zi, wi ∈ C, i = 1, . . . , n e todo α ∈ C. Então Cn é um espaço vetorial sobre C.
Exemplo 1.2.4. Seja Mm×n(K) = {(aij)m×n; aij ∈ K ; i = 1, . . . , m, j =
1, . . . , n} (K corpo fixo) munido das operacões
(
A + B = (aij + bij); αA = (αaij)
para todos A = (aij), B = (bij) ∈ Mm×n(K) e todo α ∈ K. Então Mm×n(K) é um espaço vetorial sobre K.
Exemplo 1.2.5. Seja F ([a, b], R) o conjunto de todas as funções reais
defi-nidas no intervalo [a, b] (a < b) munido das operações
(
(f + g)(x) = f (x) + g(x), ∀x ∈ [a, b]; (αf )(x) = αf (x), ∀x ∈ [a, b]
para todos f, g ∈ F ([a, b], R) e α ∈ R. Então F([a, b], R) é um espaço vetorial sobre R.
Exemplo 1.2.6. Seja P(K) o conjunto dos polinômios sobre o corpo K.
Para p(x) = a0+ a1x + . . . + anxn e q(x) = b0+ b1x + . . . + bmxm (m ≤ n) em P(K) e α ∈ K, definimos as operações
(
p(x) + q(x) = (a0+ b0) + (a1+ b1)x + . . . + (am+ bm)xm+ . . . + anxn; αp(x) = (αa0) + (αa1)x + . . . + (αan)xn.
Então P(K) é um espaço vetorial sobre K.
Exemplo 1.2.7. Seja V = {x ∈ R ; x > 0} munido das operações (
x + y = xy; αx = xα
para todos x, y ∈ V e todo α ∈ R. Então V é um espaço vetorial sobre R.
Exemplo 1.2.8. R2 munido das oeprações
(
(x1, x2) + (y1+ y2) = (x1+ y1, x2+ y2);
α(x1, x2) = (αx1, 0)
para todos x = (x1, x2), y = (y1, y2) ∈ R2 e α ∈ R, não é um espaço vetorial
sobre R já que falha a propriedade (M I). De fato, tome v = (1, 2) para termos 1.v 6= v.
Observação 1.2.1. Num espaço vetorial V sobre K valem as seguintes
afir-mações:
1) O elemento neutro da soma é único, sendo denotado por 0. De fato, se existem dois elementos 00 e 000 satisfazendo (SIII), então pela pro-priedade (SII) segue que
00 = 00+ 000= 000+ 00 = 000.
2) O elemento inverso da soma é único. Nesta caso, para todo v ∈ V , denotamos seu inverso por −v. Com efeito, seja v ∈ V e suponhamos u e w são inverso da soma de v. Usando (SI), (SII) e (SIII) temos que
u = u + 0 = u + (v + w) = (u + v) + w = (v + u) + w = 0 + w = w. 3) 0K.v = 0V, ∀v ∈ V e α.0V = 0V, ∀α ∈ K, onde 0K e 0V denotam os
elementos neutros da soma de K e V , respectivamente. Para provar-mos isto, note que pela propriedade (M III) teprovar-mos
0K.v = (0K+ 0K).v = 0K.v + 0K.v.
Somando −0K.v ∈ V , o elemento inverso de 0K.v (que existe e é único por (SIV )), em ambos os lados e usando as propriedades (SI), (SIII) e (SIV ) obtemos
0V = −0K.v + 0K.v = 0V + 0K.v = 0K.v
e daí 0K.v = 0V. Analogamente, prova-se que α.0V = 0V.
4) (−1).v = −v, ∀v ∈ V (exercício). Isto nor permitir definir a seguinte notação: v − w = v + (−w), ∀v, w ∈ V .
5) Se α ∈ R e v ∈ V são tais que α.v = 0, então α = 0 ou v = 0 (exercício).
6) Se α, β ∈ R são tais que α 6= β, então α.v 6= β.v para todo v ∈ V , v 6= 0 (exercício).
1.3
O Espaço das Matrizes
Vimos que o conjunto Mm×n(R) munido das operações (
A + B = (aij + bij)m×n; αA = (αaij)m×n
1.3. O ESPAÇO DAS MATRIZES 5 para todos A = (aij), B = (bij) ∈ Mm×n(R) e todo α ∈ R, é um espaço
vetorial sobre R. O elemento neutro da soma é dado pela matriz 0 = (0)m×n
e se A = (aij)m×n, então o elemento inverso da soma de A é dado pela matriz −A = (−aij)m×n.
Mm×n(R) é chamado o espaço das matrizes (reais) m × n. Quando m = n, denotamos por Mn(R) ao invés de Mn×n(R). Neste caso, A ∈ Mn(R) é
dita uma matriz quadrada de ordem n. Desta forma Mn(R) é dito o espaço
das matrizes (reais) quadradas de ordem n.
Como Mm×n(R) é um espaço vetorial, isto nos permite a resolver equa-ções do seguinte tipo: determine X ∈ M2×3(R) tal que
1 2(X + A) = 3(X + (B − A)) − C onde A = 1 0 1 2 1 −3 ! , B = 0 0 2 6 −4 2 ! e C = 3 2 0 0 1 0 ! . A definição de espaço vetorial nos fazem pensar que manipulamos a equação matricial dada como uma equação com "números reais". Desta forma
1 2(X + A) = 3(X + (B − A)) − C =⇒ X = 1 5(7A − 6B + 2C) e, portanto, X = 13/5 4/5 −1 −22/5 33/5 −33/5 ! .
Agora, é possível definirmos um produto de matrizes e daí resolvermos equações da forma AX = B, onde A, B, X ∈ Mn(R)? Vejamos que
respon-demos afrimativamente a esta pergunta.
Sejam A = (aij)m×n e B = (bjk)n×p. Para i = 1, . . . , m e k = 1, . . . , p,
denotaremos a i−ésima linha da matriz A por A(i) e a k−ésima coluna da matriz B por B(k). Estabeleceremos a seguinte notação correspondente ao produto de linhas de A com colunas de B
A(i)B(k)= ai1b1k+ ai2b2k+ . . . + ainbnk = n X j=1
aijbjk. (1.1)
O produto de A por B é a matriz AB ∈ Mm×p(R) definido por
AB = A(1)B (1) A(1)B(2) · · · A(1)B(p) A(2)B(1) A(2)B(2) · · · A(2)B(p) .. . ... ... A(m)B(1) A(m)B(2) · · · A(m)B(p) . (1.2)
Note que o produto de matrizes não é um produto definido no conjunto Mm×n(R). Pode-se até definir o produto de A e B onde ambas matrizes são
m × n. Porém, poderá não satisfazer propriedades que estamos interessados.
O produto nos gera a seguinte aplicação
Mm×n(R) × Mn×p(R) −→ Mm×p(R)
(A, B) 7−→ AB chamada multiplicação de matrizes.
Proposição 1.3.1. Valem as seguinte propriedades:
(I) Se A ∈ Mm×n(R), B ∈ Mn×p(R) e C ∈ Mp×q(R), então A(BC) =
(AB)C.
(II) Se A ∈ Mm×n(R) e B, C ∈ Mn×p(R), então A(B + C) = AB + AC. (III) Se A, B ∈ Mm×n(R) e C ∈ Mn×p(R), então (A + B)C = AC + BC. Demonstração. (I) Sejam A = (aij)m×n, B = (bjk)n×p e C = (ckr)p×q. O termo geral de A(BC) é dado por
n X j=1 aij p X k=1 bjkckr ! . (1.3)
Com efeito, temos que BC é a matriz n × q dada por
BC = B(1)C(1) · · · B(1)C(q) .. . ... B(n)C(1) · · · B(n)C(q) , (1.4)
isto é, o termo geral de BC é
B(j)C(r) = bj1c1r+ . . . + bjpcpr = p X k=1
bjkckr. (1.5)
para todo j = 1, . . . , m e r = 1, . . . , q. Logo, A(BC) é a matriz m × q dada por A(BC) = A(1)(BC)(1) · · · A(1)(BC)(q) .. . ... A(m)(BC)(1) · · · A(m)(BC)(q) .
Por 1.4 e 1.5 segue que o termo geral de A(BC) é
A(i)(BC)(r) = A(i)(B(j)C(r)) = n X j=1 aij p X k=1 bjkckr !
1.3. O ESPAÇO DAS MATRIZES 7 para todo i = 1, . . . , m e r = 1, . . . , q, o que prova 1.3. Analogamente, o termo geral de (AB)C é dado por
p X k=1 n X j=1 aijbjk ckr. (1.6)
Das propriedades de adição e multiplicação de números reais segue que 1.3=1.6. Portanto, A(BC) = (AB)C.
(II) e (III) Exercícios!
É importante observar que se A e B são matrizes onde o produto AB está definido, pode acontecer do produto BA não estar definido. Caso BA esteja definido, nem sempre AB = BA, isto é, o produto não é comutativo. Além disso, é possível obtermos AB = 0 mesmo com A 6= 0 e B 6= 0. Mais ainda, vale ressaltar que não vale a regra do cancelamento, isto é, se AB = AC com A 6= 0, não é correto afirmar que B = C.
Exemplo 1.3.1. Se A = 1 2 3 4 0 5 e B = 7 1 2 4 ! , então AB = 11 9 29 19 10 20 .
Note que não é possível calcular BA.
Exemplo 1.3.2. Se A = 1 −5 3 0 1 3 ! e B = 3 1 2 3 1 2 , então AB = −4 −8 5 9 ! .
Note que BA é uma matriz 3 × 3 e, portanto, AB 6= BA.
Exemplo 1.3.3. Se A = 5 1 10 2 ! e B = 3 −2 −15 10 ! , então AB = 0, enquanto que BA = −5 −1 25 5 !
e, portanto, AB 6= BA. Observe que A 6= 0 e B 6= 0 mas AB = 0.
Exemplo 1.3.4. Para A = 0 1 0 2 ! , B = 1 1 3 4 ! e C = 2 5 3 4 ! temos AB = AC = 3 4 6 8 ! . Observe que A 6= 0 e AB = AC mas B 6= C.
Estudaremos agora o produto de matrizes em Mn(R). Além das
propri-edades dadas pela Proposição 1.3.1, no espaço das matrizes quadradas de ordem n existe o elemento neutro (do produto) dado pela matriz
In= 1 0 · · · 0 0 1 · · · 0 .. . ... . .. ... 0 0 · · · 1 .
Isto é, a matriz In ∈ Mn(R) é a única matriz em Mn(R) que satisfaz AIn= InA = A, para toda A ∈ Mn(R). A matriz In é chamada de matriz
identidade (de ordem n).
Uma matriz A ∈ Mn(R) é dita inversível quando existe uma matriz
B ∈ Mn(R) tal que
AB = BA = In.
A matriz B, caso exista, é única (exercício). Assim, para toda A ∈ Mn(R)
inversível, denotaremos a inversa de A por A−1.
Proposição 1.3.2. Sejam A, B ∈ Mn(R) inversíveis e α ∈ R tal que α 6= 0. Então
(I) AB é inversível e (AB)−1= B−1A−1; (II) αA é inversível e (αA)−1 = α1A−1; (III) A−1 é inversível e (A−1)−1 = A.
Demonstração. Exercício.
Observação 1.3.1. Se A ∈ Mn(R) tem uma linha (ou coluna) nula, então A não é inversível. Com efeito, suponhamos que a i−ésima linha de A é nula, isto é, A(i) = (0 · · · 0). Se A fosse inversível, existiria uma matriz
quadrada B de ordem n tal que AB = In. De 1.1 segue que A(i)B(k) = 0
para todo k = 1, . . . , n. Portanto, a (AB)(i) é nula e, lembrando a fórmula do produto em (1.2), segue que AB 6= In.
De um modo natural, definimos potências de matrizes. Seja A ∈ Mn(R).
Para m ∈ N, definimos
A0= In e Am = A · · · A | {z } m− vezes .
Segue da definição que para todos r, s ∈ N temos
1.3. O ESPAÇO DAS MATRIZES 9 Além disso, se A é inversível, então definimos
A−m = (A−1)m = A−1· · · A−1
| {z } m− vezes
,
para todo m ∈ N. Deste modo, Am é inversível e (Am)−1 = (A−1)m para m = 0, 1, 2, · · · . Além disso, a fórmula em (1.7) é valida para todos r, s ∈ Z.
A definição do produto de matrizes (1.2) e a inversa de matrizes nos ajuda a resolver equações do tipo AX = B, onde A, B são matrizes de ordem
n dadas e X é a matriz de ordem n que queremos determinar. Observe
quando A é inversível, então X = A−1B. Logo, nosso objetivo a partir
de agora é encontrar, quando existe, a inversa de uma matriz. Daremos (e provaremos) um método para determinar a inversa de matrizes. Dada
A ∈ Mn(R), entendemos por operações elementares com as linhas de A,
uma qualquer das seguintes alternativas: (1) Permutar duas linhas de A;
(2) Multiplicar uma linha de A por um número não-nulo;
(3) Somar a uma linha de A uma outra linha de A multiplicada por um número.
Se uma matriz B puder ser obtida de A através de um número finito dessas operações, diz-se que B é equivalente a A e escreve-se B ∼ A. Temos que ∼ é uma relação de equivalência, isto é, se A, B, C ∈ Mn(R), então
(i) A ∼ A;
(ii) A ∼ B ⇒ B ∼ A;
(iii) A ∼ B e B ∼ C ⇒ A ∼ C.
Ou seja, a relação de equivalência ∼ é reflexiva, simétrica e transitiva. Uma matriz elementar de ordem n é uma matriz E obtida de Inpor
meio de uma e uma só operação elementar.
Proposição 1.3.3. Sejam E uma matriz elementar de ordem n e A ∈
Mn(R). Se aplicarmos a A, a mesma operação elementar que transformou In em E, então obtemos a matriz EA.
Demonstração. Faremos a prova apenas para a operação elementar (3). Seja E uma matriz elementar. Logo, existem i, j = 1, . . . , n e α ∈ R tais que
E(j)= In(j)+ αIn(i) e E(k)= In(k) para k 6= j. Como (EA)(r)= E(r)A, para r = 1, . . . , n, temos
(EA)(j) = (In(j)+ αIn(i))A = In(j)A + α(In(i)A)
Isto é, (EA)(j)= A(j)+ αA(i). Analogamente, (EA)(k) = A(k), para k 6= j. Portanto, as mesmas operações que transformam In em E irão transformar A em EA.
Os casos das operações elementares (1) e (2) ficam como exercício. Vamos usar a seguinte notação:
- E(li ↔ lj) é a matriz elementar onde permutamos as linhas i e j a
partir da matriz identidade;
- para um número real α 6= 0, a matriz E(αli) é a matriz elementar
obtida da identidade multiplicando a i−ésima linha por α;
- E(li+ αlj) é a matriz elementar obtida da identidade adicionando a i−ésima linha um múltiplo real α da j−ésima linha.
Proposição 1.3.4. Toda matriz elementar de ordem n é inversível.
Demonstração. Basta observar que a inversa de E(li ↔ lj) é ela prórpia, a inversa de E(αli) é E(α1li) e a inversa de E(li+ αlj) é E(li− αlj) (exercício).
Teorema 1.3.1. Uma matriz A ∈ Mn(R) é inversível se, e somente se, In∼ A. Neste caso, a mesma sucessão de operações que transformam A em
In, transforma In em A−1.
Demonstração. Suponhamos que In∼ A, isto é, que In é obtida de A
atra-vés de um número finito de operações elementares. Pela Proposição 1.3.3, existem matrizes elementares E1, . . . , Et tais que
Et· Et−1· . . . · E1· A = In.
Como cada E1, . . . , Eté inversível, pois são matrizes elementares, temos que A = E1−1· E−12 · . . . · Et−1· In
e, portanto, A é inversível, visto ser o produto de matrizes inversíveis. Além disso, como (E−1i )−1= Ei, para todo i = 1, . . . , t e In−1 = In, segue que
A−1 = Et· Et−1· . . . · E1· In
o que prova a útlima afirmação do teorema.
Reciprocamente, note que se B ∼ A, então B = P A, onde P é uma matriz inversível (na verdade, P é o produto de matizes elementares - exer-cício). Portanto, se B ∼ A, então A é inversível se, e somente se, B é
1.3. O ESPAÇO DAS MATRIZES 11 inversível. Agora, fazendo o escalonamento da matriz A por meio de opera-ções elementares, vemos que B ∼ A, onde
b11 b12 · · · b1n 0 b22 · · · b2n .. . ... . .. ... 0 0 · · · bnn .
Como A é inversível e B ∼ A, então B é inversível. Portanto, bii6= 0, para
todo i = 1, . . . , n. Mas B ∼ Ine daí In∼ A.
Exemplo 1.3.5. Verifiquemos se a matriz A = 1 1 0 0 1 1 1 0 2 é inversível.
Pelo Teorema 1.3.1, temos
1 1 0 1 0 0 0 1 1 0 1 0 1 0 2 0 0 1 L −→ 3=L3−L1 1 1 0 1 0 0 0 1 1 0 1 0 0 −1 2 −1 0 1 L −→ 3=L2+L3 1 1 0 1 0 0 0 1 1 0 1 0 0 0 3 −1 1 1 −→ L3=L3/3 1 1 0 1 0 0 0 1 1 0 1 0 0 0 1 −13 13 13 L −→ 2=L2−L3 1 1 0 1 0 0 0 1 0 13 23 −13 0 0 1 −1 3 1 3 1 3 L −→ 1=L1−L2 1 0 0 23 −2 3 1 3 0 1 0 13 23 −13 0 0 1 −1 3 1 3 1 3 .
Portanto, a matriz A é inversível com inversa
A−1= 2 3 − 2 3 1 3 1 3 2 3 − 1 3 −13 13 13 . Exemplo 1.3.6. A matriz B = 1 2 3 2 5 3 1 0 8
é inversível. De fato, pelo
método apresentado, usando as operações elementares obtemos
1 2 3 1 0 0 2 5 3 0 1 0 1 0 8 0 0 1 −→ 1 0 0 −40 16 9 0 1 0 13 −5 −3 0 0 1 5 −2 −1 . Logo, B é inversível e B−1= −40 16 9 13 −5 −3 5 −2 −1 .
Exemplo 1.3.7. A matriz C = 1 2 6 0 1 5 2 3 7
não é inversível. De fato:
1 2 6 1 0 0 0 1 5 0 1 0 2 3 7 0 0 1 L −→ 3=L3−2L1 1 2 6 1 0 0 0 1 5 0 1 0 0 −1 −5 −2 0 1 L −→ 3=L2+L3 1 2 6 1 0 0 0 1 5 0 1 0 0 0 0 −2 1 1 .
Isto mostra que C não é inversível já que In não é equivalente a C.
Exemplo 1.3.8. A matriz D = 1 6 4 2 4 −1 −1 2 5
não é inversível pois In não
é equivalente a D.
1.4
Subespaços Vetoriais
Seja V é um espaço vetorial sobre K. Um subconjunto não vazio W de V é dito um subespaço vetorial de V quando W , munido das mesmas operações de V , é ele próprio um espaço vetorial sobre K. Equivalentemente,
W é um subespaço vetorial de V se, e somente se, W 6= ∅ e dados vetores w, w1, w2∈ W e α ∈ K temos w1+ w2 ∈ W e αw ∈ W .
Primeiramente, observe que se W é um subespaço do espaço vetorial V , então 0 ∈ W . De fato, como W 6= ∅, tome w ∈ W . Como W é um subespaço de V temos então −w = (−1)w ∈ W e daí 0 = −w + w ∈ W.
Proposição 1.4.1. Seja V um espaço vetorial sobre K. Um subconjunto
não-vazio W de V é um subespaço vetorial de W se, e somente se, 0 ∈ W e αw1+ w2 ∈ W para todos w1, w2 ∈ W e todo α ∈ K.
Demonstração. Exercício.
Salve indicação contrária, estaremos sempre considerando as operações usuais dos espaços já estudados na seção 1.2.
Exemplo 1.4.1. Se V é um espaço vetorial sobre K, então {0} e V são
subespaços vetoriais de V chamados subespaços triviais.
Exemplo 1.4.2. O conjunto W = {(x, y, 0) ; x, y ∈ R} é um subespaço
vetorial de R3. Com efeito, é claro que (0, 0, 0) ∈ W . Agora, sejam w1 =
(x1, y1, 0) e w2= (x2, y2, 0) em W e α ∈ R. Então
α.w1+ w2 = α(x1, y1, 0) + (x2, y2, 0) = (αx1+ x2, y1+ y2, 0) ∈ W
1.4. SUBESPAÇOS VETORIAIS 13
Exemplo 1.4.3. O conjunto W = {(x1, . . . , xn) ; a1x1+ . . . + anxn = 0} é um subespaço vetorial de Rn.
Exemplo 1.4.4. O conjunto C([a, b], R) das funções reais contínuas em
[a, b] (a < b) é um subespaço vetorial de F ([a, b], R).
Exemplo 1.4.5. O conjunto Pn(K) dos polinômios de grau menor ou igual a n (n ∈ N) sobre o corpo K é um subespaço vetorial de P(K).
Exemplo 1.4.6. O conjunto W = {X ∈ Mn×1(R) ; AX = 0}, onde A ∈
Mm×n(R) é fixo, é um subespaço vetorial de Mn×1(R). De fato, é claro que 0 ∈ Mn×1(R) visto que A.0 = 0. Agora, se α ∈ R e B, C ∈ W , então pela
distributividade do produto de matrizes temos
A(αB + C) = α(AB) + (AC) = 0. Portanto αB + C ∈ W .
Exemplo 1.4.7. O conjunto W = {(1+x2, x2, . . . , xn) ; xi ∈ R, i = 2, . . . , n}
não é um subespaço vetorial de Rn pois 0 /∈ Rn.
Exemplo 1.4.8. Seja W = {(x, y) ; x ≥ 0, y ≥ 0} não é um subespaço
vetorial de R2. Com efeito, tomando α = −1 e w1 = (1, 1), w2 = (0, 0) em
W temos
α.w1+ w2= (−1, −1) /∈ W.
Proposição 1.4.2. Sejam V um espaço vetorial sobre K e {Wi}i∈I uma família de subespaços vetoriais de V . EntãoT
i∈IWI é um subespaço vetorial de V .
Demonstração. Seja W = T
i∈IWI. Como para todo i ∈ I, cada Wi é
um subespaço vetorial, temos que 0 ∈ Wi e, portanto, 0 ∈ W . Agora, fixados α ∈ K e w1, w2 ∈ W , então w1, w2 ∈ Wi para todo i ∈ I. E usando
novamente o fato de que todos Wisão subespaços, temos que αw1+w2∈ Wi,
para todo i ∈ I. Assim, αw1+ w2∈ W . Isto prova que W é um subespaço vetorial.
Observação 1.4.1. A união de subespaços de um espaço vetorial pode não
ser um subespaço vetorial. Por exemplo, W1 = {(x, 0), ; x ∈ R} e W2 =
{(0, y) ; y ∈ R} são subespaços de R2 mas W
1∪ W2 = {(x, y) ; x = 0 ou y =
0} não é um subespaço de R2 pois
(2, 0) + (0, 3) = (2, 3) /∈ W1∪ W2
Devido a proposição anterior, dado um subconjunto não-vazio X de um espaço vetorial V sobre K, podemos encontrar o "menor"subespaço de V que contém X. Este subespaço é chamado de subespaço gerado por X. Ou seja, chamamos de subespaço gerado por X à interseção de todos os subspaços vetoriais de V que contém X. Notação:
S(X) =\{W ; W subespaço de V e X ⊂ W }.
Convenção: [∅] = {0}.
Proposição 1.4.3. Seja V um espaço vetorial sobre K. Se W1 e W2 são
subespaços de V , então o conjunto
W1+ W2 = {w1+ w2; w1 ∈ W1, w2 ∈ W2}
é um subespaço vetorial de V .
Demonstração. Note que 0 ∈ W1∩W2pois W1 e W2 são subespaços de modo
que 0 = 0 + 0 ∈ W1+ W2. Agora, sejam α ∈ K, v1, w1 ∈ W1 e v2, w2 ∈ W2.
Então v = v1+ v2 e w = w1+ w2 estão em W1+ W2 e assim
αv + w = (αv1+ w1) + (αv2+ w2) ∈ W1+ W2
pois αv1+ w1∈ W1 e αv2+ w2 ∈ W2. Portanto, W1+ W2 é um subespaço de V .
1.5
Sistemas Lineares
Um sistema linear de m equações com n incógnitas (m, n ≥ 1) é um conjunto de m equações lineares, cada uma delas com n incógnitas, conside-radas simultaneamente. Um sistema linear se apresenta do seguinte modo
S : a11x1+ a12x2+ · · · + a1nxn= b1 a21x1+ a22x2+ · · · + a2nxn= b2 · · · · am1x1+ am2x2+ · · · + amnxn= bm
Uma solução do sistema S é uma n−upla (s1, . . . , sn) ∈ Rn, que é solução
de cada uma das equações de S. O conjunto de todas as soluções de um sistema linear é chamado de solução geral e é um subconjunto de Rn.
Dizemos que um sistema linear S é
- incompatível quando não admite nenhuma solução;
- compatível determinado quando admite uma única solução; - compatível indeterminado quando admite mais do que uma
1.5. SISTEMAS LINEARES 15 É possível provar que: todo sistema linear tem ou nenuma solução, ou exa-tamente uma solução, ou uma infinidade de soluções.
Note que todo sistema linear S pode ser representado através de um produto matricial, isto é, S é a equação matricial AX = B onde
A = a11 a12 · · · a1n .. . ... ... am1 am2 · · · amn , X = x1 x2 .. . xn , e B = b1 .. . bm .
A matriz A é chamada matriz dos coeficientes de S. A matriz
aumen-tada do sistema é definida pela matriz
a11 a12 · · · a1n b1 .. . ... ... ... am1 am2 · · · amn bm . (1.8)
Assim, resolver o sistema S é equivalente a resolvermos a equação matricial
AX = B. Quando m = n, se A for inversível, então a equação tem uma
única solução dada por X = A−1B. Agora, se m 6= n, note que a matriz
aumentada do sistema é equivalente a uma matriz escalonada usando as operações elementares, obtendo assim um sistema escalonado S0. Ou seja, um sistema cuja matriz dos coeficientes é da forma
c11 c12 · · · c1n 0 c22 · · · c2n .. . ... ... 0 · · · cpp · · · cpn 0 · · · 0 · · · 0 .. . ... 0 · · · 0 · · · 0
onde cii 6= 0 para todo i = 1, . . . , p (1 ≤ p ≤ m). Sendo este último sis-tema mais fácil de encontrarmos sua solução. Afirmamos que S e S0 tem a mesma solução geral. Em particular, S0 é incompatível se, e somente se, S é incompatível. Com efeito, seja S um sistema linear com matriz aumentada
(1) Aplicando a operação elementar (1): trocando a linha i pela linha j a11 · · · a1n b1 .. . ... ... ai1 · · · ain bi .. . ... ... aj1 · · · ajn bj .. . ... ... am1 · · · amn bm −→ Li↔Lj a11 · · · a1n b1 .. . ... ... aj1 · · · ajn bj .. . ... ... ai1 · · · ain bi .. . ... ... am1 · · · amn bm obtemos o sistema S0 : a11x1+ · · · + a1nxn= b1 · · · · aj1x1+ · · · + ajnxn= bj · · · · ai1x1+ · · · + ainxn= bi · · · · am1x1+ · · · + amnxn= bm
e, claramente, S e S0 têm a mesma solução (quando existe!).
(2) Aplicando a operação elementar (2): multiplicando a linha i por um número α 6= 0 a11 · · · a1n b1 .. . ... ... ai1 · · · ain bi .. . ... ... am1 · · · amn bm −→ Li=αLi a11 · · · a1n b1 .. . ... ... αai1 · · · αain αbi .. . ... ... am1 · · · amn bm obtemos o sistema S0 : a11x1+ · · · + a1nxn= b1 · · · · αai1x1+ · · · + αainxn= αbi · · · · am1x1+ · · · + amnxn= bm .
Agora (s1, . . . , sn) é solução de S0 significa que aj1s1+ . . . + ajnsn= bj, ∀j 6= i
e
1.5. SISTEMAS LINEARES 17 Mas como α 6= 0, temos que
αai1s1+ . . . + αain= αbi ⇔ ai1s1+ . . . + ain = bi
e isto equivale a dizer que (s1, . . . , sn) é solução de S.
(3) Aplicando a operação elementar (3): adicionando à linha j um múltiplo
α da linha i C −→ Lj=αLi+Lj a11 · · · a1n b1 .. . ... ... αai1+ aj1 · · · αain+ ajn αbi+ bj .. . ... ... am1 · · · amn bm obtemos o sistema S0 : a11x1+ · · · + a1nxn= b1 · · · · (αai1+ aj1)x1+ · · · + (αain+ ajn)xn= αbi+ bj · · · · am1x1+ am2x2+ · · · + amnxn= bm .
Fica como exercício provar que (s1, . . . , sn) é solução de S0 se, e
so-mente se, é solução de S.
Ao provarmos nossa afirmação, fica claro que aplicar as operações elemen-tares na matriz aumentada de um sistema é o mesmo que aplicar essas mesmas operações no próprio sistema. Então escalonar a matriz aumentada é o mesmo que escalonar o sistema.
Exemplo 1.5.1. Vamos estudar o sistema
S : x + y + 2z = 9 2x + 4y − 3z = 1 3x + 6y − 5z = 0 .
Escalonando a matriz aumentada deste sistema
1 1 2 9 2 4 −3 1 3 6 −5 0 −→ 1 1 2 9 0 −2 7 17 0 0 −1 −3
obtemos o sistema escalonado
S0: x + y + 2z = 9 −2y + 7z = 17 −z = −3 .
Como S e S0 têm a mesma solução, {1, 2, 3} é a única solução de S.
Exemplo 1.5.2. Procuremos a solução geral do sistema
S : x − y + z = 1 2x − y + z = 4 x − 2y + 2z = 0 .
Usando escalonamento sobre a matriz aumentada deste sistema, encontra-mos a matriz 1 −1 1 1 2 −1 1 4 1 −2 2 0 −→ 1 −1 1 1 0 −1 1 −2 0 0 0 −1
que determina o sistema escalonado
S0 : x − y + z = 1 −y + z = −2 0 = −1 .
Como S0 é incompatível, segue que S é incompatível.
Exemplo 1.5.3. O sistema S : x1+ 3x2− 2x3+ 2x5= 0 2x1+ 6x2− 5x3− 2x4+ 4x5− 3x6 = −1 5x3+ 10x4+ 15x6= 5 2x1+ 6x2+ 8x4+ 4x4+ 4x5+ 18x6 = 6
é compatível indeterminado. De fato, da matriz aumentada do sistema, usamos o escalonamento para obtermos a matriz aumentada
1 3 −2 0 2 0 0 2 6 −5 −2 4 −3 −1 0 0 5 10 0 15 5 2 6 0 8 4 18 6 −→ 1 3 −2 0 2 0 0 0 0 1 2 0 3 1 0 0 0 0 0 1 1/3 0 0 0 0 0 0 0 do sistema escalonado S0 : x1+ 3x2− 2x3+ 2x5 = 0 x3+ 2x4+ 3x6 = 1 x6= 1/3 e daí S = {(−3x2− 4x4− 2x5, x2, −2x4, x5, 1/3) ; x2, x4, x5∈ R}.
Há casos particulares que sistemas lineares são sempre compatíveis. É o caso de sistemas lineares homogêneos que são sistemas em que os termos constantes são todos zero. Eles possuem a seguinte forma:
a11x1+ a12x2+ · · · + a1nxn= 0 a21x1+ a22x2+ · · · + a2nxn= 0 · · · · am1x1+ am2x2+ · · · + amnxn= 0
1.5. SISTEMAS LINEARES 19 Note que a n−upla (0, . . . , 0) é uma solução do sistema homogêneo, chamada
solução trivial; se há outras soluções, estas são chamadas não-triviais.
Portanto, um sistema linear homogêneo é sempre compatível! Observe que o sistema escalonado é também um sistema linear homogêneo. Em particular, um sistema linear homogêneo com mais incógnitas que equações tem infinitas soluções (exercício!). A solução geral de um sistema linear homogêneo é um subespaço vetorial do Rn(vide Exemplo 1.4.6).
2
Base e Dimensão de um
Espaço Vetorial
2.1
Combinação Linear
Seja V um espaço vetorial sobre K. Um vetor v ∈ V é dito uma
com-binação linear de v1, . . . , vn, ∈ V quando existem α1, . . . , αn∈ K tais que v = α1v1+ . . . + αnvn=
n X i=1
αivi.
Exemplo 2.1.1. Em R2, o vetor (3,73) é uma combinação linear dos vetores (2, 1) e (−3, 1) visto que
(3,7
3) = 2(2, 1) + 1
3(−3, 1).
Exemplo 2.1.2. Em R4, o vetor (3, −2, 3, −4) é uma combinação linear dos vetores (1, 0, 1, 0), (0, 1, 0, 2) e (0, 0, 1, 0) pois
(3, −2, 3, −4) = 3(1, 0, 1, 0) − 2(0, 1, 0, 2) + 0(0, 0, 1, 0). Exemplo 2.1.3. Em M2(R), a matriz A = 1 −1 3 0 ! é uma combinação linear das matrizes v1 = 2 0
0 0 ! , v2= 0 −1 1 0 ! e v3= 0 0 1 0 ! , já que A = 1 2v1+ v2+ 2v3.
Exemplo 2.1.4. Em P3(R), o polinômio p(x) = 2x3− 3x + 2 é uma
com-binação linear dos polinômios p1(x) = 1 + x3 e p2(x) = x, de fato
Sejam V um espaço vetorial sobre K e X um subconjunto não-vazio de V . O conjunto de todas as combinações lineares de X é denotado por span(X), isto é,
span(X) = {α1v1+ . . . + αnvn; v1, . . . , vn∈ X , α1, . . . , αn∈ K}.
Quando X = {v1, . . . , vn}, denotamos span(v1, . . . , vn) ao invés de span(X).
Proposição 2.1.1. Sejam V um espaço vetorial sobre K e X um
subcon-junto não-vazio de V . Então span(X) é um subespaço vetorial de V e contém X.
Demonstração. Como X 6= ∅, seja v ∈ X. Então v = 1.v ∈ span(X) de modo que X ⊂ span(X). Além disso, 0 = 0.v ∈ span(X). Agora, dados λ ∈ K e v, w ∈ span(X), existem α1, . . . , αn, β1, . . . , βm em K e v1, . . . , vn, w1, . . . , wm em X tais que v =Pni=1αivi e w =Pmj=1βjwj. Daí
λv + w = λ(α1v1+ . . . + αnvn) + (β1w1+ . . . + βmvm) = n X i=1 (λαi)vi+ m X j=1 βjwj = γ1x1+ . . . γpxp ∈ span(X).
Portanto, span(X) é um subespaço vetorial de V que contém X.
Exemplo 2.1.5. Seja v ∈ R3, v 6= 0. Então [v] = {αv ; α ∈ R} é a reta em
R3 que passa pela origem.
Exemplo 2.1.6. Sejam v1 e v2 vetores em R3 não-nulos e não-colineares.
Então [v1, v2] = {α1v1+ α2v2; α1, α2∈ R} é o plano em R3 gerado por v1 e
v2.
Exemplo 2.1.7. Os vetores e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0),. . . , en=
(0, . . . , 0, 1) geram o espaço Rn. De fato,
span(e1, . . . , en) = {x1e1+ . . . + xnen; x1, . . . , xn∈ R}
= {(x1, . . . , xn) ; x1, . . . , xn∈ R}
= Rn.
Então span(e1, . . . , en) = Rn. Os vetores e1, . . . , en são ditos os vetores canônicos de Rn.
Exemplo 2.1.8. Os polinômios p0(x) = 1 e pj(x) = xj para todo j =
1, . . . , n geram o espaço Pn(K) dos polinômios sobre K de grau ≤ n. De fato,
span(p0, . . . , pn) = {α0p0+ α1p1+ . . . + αnpn; α0, . . . , αn∈ K}
= {α0+ α1x + . . . + αnxn; x1, . . . , xn∈ K}
2.1. COMBINAÇÃO LINEAR 23
Então span(p0, . . . , pn) = Pn(K). Os polinômios p0, . . . , pn são ditos os polinômios canônicos de Pn(K). Mais ainda, se X = {pj; j = 0, 1, . . .}, então span(X) = P(K). Exemplo 2.1.9. As matrizes E11= 1 0 0 0 ! , E12= 0 1 0 0 ! , E21= 0 0 1 0 ! e E22= 0 0 0 1 !
geram o espaço das matrizes das matrizes M2(R). De fato,
span(E11, E12, E21, E22) = {aE11+ bE12+ cE21+ dE22; a, b, c, d ∈ R} = { a b c d ! ; a, b, c, d ∈ R} = M2(R).
Então span(E11, E12, E21, E22) = M2(R). Mais geralmente, as matrizes
Eij = (ars) onde ars = 0 se r 6= i ou s 6= j e ars = 1 caso contrário, para i = 1, . . . , m e j = 1, . . . , n, geram o espaço das matrizes Mm×n(R), isto é, span(E11, . . . , Emn) = Mm×n(R). As matrizes E11, . . . , Emn são ditas as matrizes canônicas de Mm×n(R).
Exemplo 2.1.10. Os vetores v1 = (1, 1, 2), v2 = (1, 0, 1) e v3 = (2, 1, 3)
não geram o espaço R3. Isto é, span(v1, v2, v3) 6= R3. Caso contrário, para
todo b = (b1, b2, b3) ∈ R3, existiriam reais α1, α2 e α3 tais que
α1v1+ α2v2+ α3v3 = b.
Isto equivale a dizer que o sistema
α1+ α2+ 2α3 = b1 α1+ α3 = b2 2α1+ α2+ 3α3 = b3
é compatível para quaisquer b1, b2, b3 reais. Mas pelo escalonamento da
ma-triz aumentada do sistema temos
1 1 2 b1 1 0 1 b2 2 1 3 b3 −→ 1 1 2 b1 0 1 1 −b2+ b3 0 0 0 b1+ b2− b3
e se escolhemos b1, b2, b3 tais que b1+ b2− b3 6= 0, obtemos que o sistema é
incompatível. Note que v3= v1+ v2, de modo que
span(v1, v2, v3) = span(v1, v2) = {(x, y, x + y) ; x, y, ∈ R}.
Proposição 2.1.2. Sejam V um espaço vetorial sobre K e X um
Demonstração. Lembramos que S(X) = T{W ; W subespaço de V e X ⊂
W }. Como span(X) é um subespaço vetorial de V que contém X, temos
que S(X) ⊂ span(X). Reciprocamente, dado v ∈ span(X), então v =
Pn
i=1αivi para α1, . . . , αn ∈ K e v1, . . . , vn ∈ X. Mas X ⊂ S(X) e daí v1, . . . , vn ∈ S(X). Do fato de S(X) ser um subespaço vetorial, segue que v = Pn
i=1αivi ∈ S(X). Portanto, span(X) ⊂ S(X). Assim, S(X) =
span(X).
Proposição 2.1.3. Sejam V um subespaço vetorial sobre K e X1, X2
sub-conjuntos não-vazios de V . Valem as seguintes afirmações: (I) S(X1) = S(S(X1)).
(II) Se X1⊂ X2, então S(X1) ⊂ S(X2).
(III) S(X1∪ X2) = S(X1) + S(X2).
Demonstração. Exercício!
2.2
Dependência Linear
Seja V um espaço vetorial sober K. Um subconjunto não-vazio X de V é dito linearmente dependente (LD) quando existem vetores distintos
v1, . . . , vn e escalares não todos nulos α1, . . . , αnK tais que
α1v1+ . . . + αnvn= 0. (2.1)
Se X não é linearmente dependente, dizemos que X é linearmente
inde-pendente (LI). Equivalentemente, para quaisquer vetores w1, . . . , wm ∈ X,
a equação em K dada por
β1w1+ . . . + βmwm= 0,
tem como única solução β1 = . . . = βm = 0. Quando X é finito, digamos
X = {u1, . . . , up}, dizer que o conjunto X é LD (ou LI) é dizer que os vetores u1, . . . , up são LD (ou LI).
Os vetores canônicos dos exemplos 2.1.7, 2.1.8 e 2.1.9 são linearmente independentes (verifique!).
Exemplo 2.2.1. Os vetores v1 = (1, 1, 0), v2 = (1, 4, 5) e v3 = (3, 6, 5)
em R3 são LD. Para isso, devemos achar a solução geral da equação (2.1).
Então xv1+ yv2+ zv3 = 0 ⇒ x + y + 3z = 0 x + 4y + 6z = 0 5y + 5z = 0
que tem como solução S = {(−2z, −z, z) ; z ∈ R}. Em particular,
2.2. DEPENDÊNCIA LINEAR 25
Exemplo 2.2.2. Vejamos que os vetores v1 = (1, 2, 3), v2 = (1, 4, 9) e
v3= (1, 8, 27) em R3 são LI. Reescrevendo a equação (2.1), obtemos
xv1+ yv2+ zv3 = 0 ⇒ x + y + z = 0 2x + 4y + 8z = 0 3x + 9y + 27z = 0
que tem como solução geral {(0, 0, 0)}.
Exemplo 2.2.3. O conjunto {ex, e2x} é LI no espaço C([a, b], R) (a < b).
Com efeito, da equação (2.1) temos
αex+ βe2x= 0 ∀x ∈ [a, b].
Em particular, para x = a e x = b, obtemos o seguinte sistema linear homogêneo
(
αea+ βe2a= 0
αeb+ βe2b = 0
Mostra-se que este sistema linear tem como única solução α = β = 0, donde segue que o conjunto é LI.
Observação 2.2.1. Seja V um espaço vetorial sobre K.
1) Todo subconjunto de V contendo o vetor nulo é LD. 2) Se v ∈ V é tal que v 6= 0, então X = {v} é LI.
3) Se X ⊂ V é LD, então um de seus vetores é combinação linear de outros vetores em X.
De fato, se X ⊂ V é LD, existem v1, . . . , vn ∈ X e α1, . . . , αn ∈ K não todos nulos tais que α1v1+ . . . + αnvn = 0. Podemos supor, sem perda de generalidade, que α1 6= 0. Como K é um corpo, existe α1−1 ∈ K tal que
α−11 α1= 1. Daí
α1v1+ . . . + αnvn= 0 ⇒ v1= −α1−1α2v2+ . . . α−11 αnvn, isto é, v1∈ span(v2, . . . , vn).
4) Todo subconjunto de V contendo um subconjunto LD é LD. 5) Todo subconjunto de V contido num subconjunto LI é LI. 6) Se X = {v1, . . . , vn} ⊂ V e vj ∈ span(X \ {vj}), então
span(X) = span(X \ {vj}).
Com efeito, é claro que span(X \ {vj}) ⊂ span(X). Por outro lado, se v ∈ span(X), então existem α1, . . . , αn em K tais que
Por hipótese, vj ∈ span(X \ {vj}) de modo que existem β1, . . . , βn∈ K tais que vj = β1v1+ . . . + βj−1vj−1+ βj+1vj+1+ . . . + βnvn. (2.3) Substituindo (2.3) em (2.2), obtemos v = j−1 X k=1 (αk+ αjβk)vk+ n X k=j+1 (αk+ αjβk)vk ∈ span(X \ {vj}).
Logo span(X) ⊂ span(X \ {vj}). Portanto span(X) = span(X \ {vj}).
2.3
Base e Dimensão
Sejam V um espaço vetorial sobre K. Um subconjunto não-vazio B de
V é dito uma base de V quando satisfaz as seguintes condições
i) B é linearmente independente; ii) B gera V , isto é, span(B) = V .
Isto significa que todo vetor de V pode ser escrito de modo único como uma combinação linear de vetores em B.
Exemplo 2.3.1. O conjunto dos vetores canônicos B = {e1, . . . , en} do exemplo 2.1.7 é uma base de Rn denominado a base canônica de Rn. Mais ainda, considerando Cn espaço vetorial sobre C, temos que B é também uma base de Cn.
Exemplo 2.3.2. O conjunto {1, i} é uma base do espaço vetorial C sobre
R. Por outro lado, {1} é uma base de C sobre C.
Exemplo 2.3.3. O conjunto dos polinômios canônicos B = {p0, . . . , pn} do exemplo 2.1.8 é uma base de Pn(K) denominado a base canônica de Pn(K). Mais geralmente, {pj; j = 0, 1, . . .} é uma base de P(K).
Exemplo 2.3.4. O conjunto das matrizes canônicas B = {E11, . . . , Emn} do exemplo 2.1.9 é uma base de Mm×n(R) denominado a base canônica de
Mm×n(R).
Exemplo 2.3.5. Seja A ∈ Mn(R) inversível. Então o conjunto B formado pelas colunas da matriz A, i.e., B = {A(1), . . . , A(n)}, é uma base para o
espaço vetorial das matrizes colunas Mn×1(R).
De fato, B é LI pois se α1, . . . , αn∈ R são tais que α1A(1)+ . . . + αnA(n)= 0,
2.3. BASE E DIMENSÃO 27 então AX = 0 onde X = α1 .. . αn
. Como A é inverísvel, segue que X = 0,
donde α1 = . . . = αn = 0. Agora, se Y ∈ Mn×1(R), seja A−1Y = x1 .. . xn .
Defina X = A−1Y . Logo Y = AX e daí Y = x1A(1)+ . . . + xnA(n). Ou
seja, Y ∈ span(B). Isto é, span(B) = Mn×1(R).
É possível provar que todo espaço vetorial possui uma base. Não faremos isso aqui nessas notas pois para a demonstração faz-se uso do chamado
Axioma da Escolha, ao qual não veremos neste curso! Além disso, o próximo
exemplo nos mostra a existência de mais de uma base para o mesmo espaço vetorial.
Exemplo 2.3.6. Vejamos que o conjunto B = {(1, 2, 1), (2, 9, 0), (3, 3, 4)}
é uma base de R3. Primeiramente, vejamos que span(B) = R3. Isto é, dado (b1, b2, b3) ∈ R3, devemos garantir que existem x, y, z ∈ R tais que
x(1, 2, 1) + y(2, 9, 0) + z(3, 3, 4) = (b1, b2, b3). Isto equivale a dizer que o
sistema linear x + 2y + 3z = b1 2x + 9y + 3z = b2 x + 4z = b3 (2.4)
é compatível. Fazendo as contas, vemos que este sistema é compatível e de-terminado e, portanto, o conjunto B gera o espaço R3. Para provar que esses vetores são LI, achar a solução da equação (2.1) é o mesmo que encontrar as soluções do sistema (2.4) no caso em que b1 = b2 = b3 = 0 (sistema linear
homogêneo). Como vimos, este sistema tem solução única (não importando a escolha de b1, b2 e b3), de modo que x = y = z = 0 e isto mostra que B é LI. Assim, B é uma base de R3.
Nosso objetivo agora é provar que todas as bases de um espaço vetorial gerado por um número finito de vetores têm o mesmo número de elementos. Isso é consequência do seguinte
Teorema 2.3.1. Seja V um espaço vetorial sobre K gerado por um conjunto
finito de vetores v1, . . . , vm em V . Então todo subconjunto LI de V é finito e contém no máximo m elementos.
Demonstração. Basta provar que todo subconjunto de V com mais de m
elementos é LD. Seja W = {u1, . . . , un} ⊂ V com n > m. Suponhamos que α1u1+ . . . + αnun= 0 (2.5)
onde α1, . . . , αn∈ K. Como V = span(v1, . . . , vm), existem βi1, . . . , βin∈ K, i = 1, . . . , m tais que
uj = β1jv1+ . . . + βm1vm, (2.6)
para todo j = 1, . . . , n. Substituindo 2.6 em 2.5 segue que
(α1β11+ . . . + αnβ1m)v1+ . . . + (α1βm1+ . . . + αnβmn)vm = 0.
É claro que a igualdade anterior se verifica quando cada um dos parênteses é igual a zero. Ou seja, quando
α1β11+ . . . + αnβ1n = 0 · · · · α1βm1+ . . . + αnβmn= 0 .
Este sistema linear homogêneo possui infinitas soluções pois m < n1. Logo existem α1, . . . , αn ∈ K não todos nulos que satisfazem 2.5. Portanto,
{u1, . . . , un} é LD.
Um espaço vetorial sobre K tem dimensão finita quando possui uma base finita. Um espaço vetorial sobre K que não tem dimensão finita (ou seja, que nenhuma base tem um número finito de elementos) são chamados de dimensão infinita. Neste curso não iremos trabalhar com espaços de di-mensão infinta2. Um exemplo clássico é o espaço dos polinômios P(K) sobre um corpo K. É possível mostrar que nenhum conjunto finito de elementos em P(K) é uma base de P(R).
Corolário 2.3.1. Se V é um espaço vetorial sobre K de dimensão finita,
então quaisquer duas bases de V tem o mesmo número de elementos. Demonstração. Sejam B1 e B2 duas bases de V com m e n elementos,
res-pectivamente. Aplicando o teorema anterior, sabendo que V = span(B1) e B2 é LI, temos que n ≤ m. Por outro lado, V = span(B2) e B1 é LI, de modo que m ≤ n. Portanto, m = n.
Seja V um espaço vetorial sobre K de dimensão finita. Definimos a
dimensão de V como sendo o número de elementos de qualquer base de V .
Notação: dimKV ou dim V (quando não houver dúvida quanto ao corpo
K). Por definição, dim{0} = 0.
Portanto, temos que dim Rn= n, dimCCn= n, dimRC = 2, dimCC = 1, dim Pn(K) = n + 1 e dim Mm×n(R) = mn.
A partir de agora, usaremos apenas a palavra espaço vetorial ao invés de espaço vetorial sobre K. O corolário a seguir é consequência direta do Teorema anteior e da definicão de dimensão.
1
Toda a teoria de matrizes e sistema linear feita para números reais, pode ser feita para qualquer corpo.
2
2.3. BASE E DIMENSÃO 29
Corolário 2.3.2. Seja V um espaço vetorial tal que dim V = n. Então:
(I) todo subconjunto com mais de n elementos é LD.
(II) nenhum subconjunto com menos de n elementos pode gerar V .
Lembrando que todo subespaço é um espaço vetorial, podemos também procurar por uma base e, consequentemente, a dimensão de qualquer su-bepaço. O que iremos provar agora é que a dimensão de um subespaço é sempre menor ou igual a dimensão do espaço vetorial. Para isso precisamos do seguinte
Lema 2.3.1. Sejam V um espaço vetorial e X um subconjunto LI de V . Se
v /∈ span(X), então X ∪ {v} é LI.
Demonstração. Sejam x1, . . . , xn∈ X e α1, . . . , αn, β ∈ K tais que α1x1+ . . . + αnxn+ βv = 0.
Se β 6= 0, então existe β−1 ∈ K tal que β−1β = 1. Da igualdade anterior
temos
v = (−β−1α1)x1+ . . . + (−β−1αn)xn
ou seja, v ∈ span(X), o que contraria a hipótese. Portanto, β = 0. Assim,
α1x1 + . . . + αnxn = 0 e como X é LI, temos que α1 = . . . = αn = 0.
Concluimos então que X ∪ {v} é LI.
Teorema 2.3.2. Seja V um espaço vetorial de dimensão finita. Se W é um
subespaço vetorial de V , então todo subconjunto LI de W é finito e é parte de uma base de W .
Demonstração. Seja dim V = n. Suponhamos que X0 é um subconjunto LI
de W . Como todo subconjunto LI de W contendo X0 é um subconjunto LI de V e dim V = n, então X0 não contém mais do que n elementos.
Agora estendemos X0 a uma base de W .
Se W = span(X0), então X0 é uma base de W . Caso contrário, existe
w1∈ W tal que w1∈ span(X/ 0). Pelo lema anterior, X1 = X0∪ {w1} é LI.
Se W = span(X1), então X1 é uma base de W . Caso contrário, existe
w2 ∈ W tal que w2 ∈ span(X/ 1). Pelo lema anterior, X2 = X1 ∪ {w2} =
X0S{w1, w2} é LI.
Continuando com este processo (não mais do que n passos), construímos um conjunto X0∪ {w1, . . . , wm} que é uma base de W .
Corolário 2.3.3. Se W é um subespaço vetorial próprio de um espaço
Demonstração. Se W = {0}, então dim W = 0 < dim V . Agora, supondo
que existe w ∈ W tal que w 6= 0, pelo teorema anterior, existe uma base de
W contendo w com até dim V elementos. Portanto, W tem dimensão finita
e dim W ≤ dim V . Como W é um subespaço próprio, existe v ∈ V tal que
v /∈ W . Sendo B uma base de W , temos que B ∪ {v} é um subconjunto LI de V . Portanto, dim W < dim V .
Corolário 2.3.4. Em um espaço vetorial V de dimensão finita, todo
sub-conjunto não-vazio LI é parte de uma base de V .
Corolário 2.3.5. Seja A ∈ Mn(R). Se os vetores A(1), . . . , A(n) (linhas de A), formam um subconjunto LI em Rn, então A é inversível.
Demonstração. Sejam vi = A(i), para todo i = 1, . . . , n, os vetores-linha de A. Então W = span(v1, . . . , vn) ⊂ Rn. Como {v1, . . . , vn} é LI por hipótese,
temos que dim W = n. Mas dim Rn= n, donde segue que W = Rn. Logo {v1, . . . , vn} é uma base de Rn. Daí existem αij ∈ R, i, j = 1, . . . , n, tais que
αi1v1+ . . . + αinvn= ei
para todo i = 1, . . . , n onde e1, . . . , en são os vetores canônicos de Rn.
To-mando B = α11 · · · α1n .. . ... αn1 · · · αnn . segue que BA = In.
Teorema 2.3.3. Seja V um espaço vetorial. Se W1 e W2 são subespaços
de dimensão finita de V , então W1+ W2 tem dimensão finita e
dim W1+ dim W2 = dim(W1∩ W2) + dim(W1+ W2).
Demonstração. Suponhamos que dim W1 = n e dim W2 = m. Se n = 0 ou
m = 0, então W1+ W2 = W2 ou W1+ W2= W1 e W1∩ W2= {0}. Assim,
dim W1+ dim W2 = dim(W1∩ W2) + dim(W1+ W2).
Suponhamos então n, m ≥ 1. Sejam B1 = {v1, . . . , vn} e B2 = {u1, . . . , um}
bases de W1 e W2, respectivamente. Vamos separar a prova em dois casos.
1o caso: W1∩ W2= {0}.
Vejamos que o conjunto B1∪ B2 é uma base de W1∪ W2. Com efeito:
- B1∪ B2 é LI.
Sejam α1, . . . , αn, β1, . . . , βm ∈ K tais que
2.3. BASE E DIMENSÃO 31 Daí,
α1v1+ . . . + αnvn= −β1u1− . . . − βmum ∈ W1∩ W2.
Como W1∩ W2 = {0}, segue que
α1v1+ . . . + αnvn= 0 e β1u1+ . . . + βmum= 0
donde temos α1= . . . = αn= β1= . . . = βm= 0. - span(B1∪ B2) = W1+ W2.
Se w ∈ W1+ W2, então w = w1+ w2 onde w1 ∈ W1 e w2∈ W2. Assim,
w = w1+ w2∈ span(B1) + span(B2) = span(B1∪ B2).
Portanto, B1∪ B2 é uma base de W1+ W2 donde dim(W1+ W2) = n + m e daí
dim W1+ dim W2= n + m = dim(W1∩ W2) + dim(W1+ W2).
2o caso: W1∩ W2 6= {0}.
Neste caso, W1∩ W2 possui dimensão finita j, onde 1 ≤ j ≤ n, m. Seja
{w1, . . . , wj} uma base de W1 ∩ W2. Então existem ˜wj+1, . . . , ˜wn ∈ W1 e
w0j+1, . . . , wm0 ∈ W2 tais que B1 = {w1, . . . , wj, ˜wj+1, . . . , ˜wn} é uma base de W1 e B2 = {w1, . . . , wj, w0j+1, . . . , w0m} é uma base de W2. Vamos mostrar
que o conjunto B = {w1, . . . , wj, ˜wj+1, . . . , ˜wn, w0j+1, . . . , w0m} é uma base de W1+ W2. Com efeito:
- B1∪ B2 é LI.
Sejam α1, . . . , αj, β1, . . . , βn−j, γ1, . . . , γm−j ∈ K tais que
α1w1+. . .+αjwj+β1w˜j+1+. . .+βn−jw˜n+γ1w0j+1+. . .+γm−jwm0 = 0.
Daí,
α1w1+. . .+αjwj+β1w˜j+1+. . .+βn−jw˜n= −(γ1wj+10 +. . .+γm−jw0m)
e, portanto, γ1w0j+1 + . . . + γm−jwm0 ∈ W1 ∩ W2. Assim, existem
δ1, . . . , δj ∈ K tais que
γ1w0j+1+ . . . + γm−jwm0 = δ1w1+ . . . + δjwj,
isto é
−δ1w1+ . . . − δjwj+ γ1wj+10 + . . . + γm−jwm0 = 0.
Daí segue que δ1 = . . . = δj = γ1 = . . . = γm−j = 0. Assim α1w1+ . . . + αjwj + β1w˜j+1+ . . . + βn−jw˜n= 0
- span(B1∪ B2) = W1+ W2.
Se w ∈ W1+ W2, então w = w1+ w2 onde w1∈ W1 e w2 ∈ W2. Assim,
w = w1+ w2 ∈ span(B1) + span(B2) = span(B1∪ B2).
Portanto, B1∪ B2 é uma base de W1+ W2 donde dim(W1+ W2) = n + m − j
e daí
dim(W1+ W2) = n + m − j = dim W1+ dim W2− dim(W1∩ W2).
2.4
Espaço-Linha, Espaço-Coluna e Espaço-Nulo
Seja A ∈ Mm×n(R). Os vetores A(1), . . . , A(m) em Rn formados pelas linhas de A são chamados os vetores-linha de A; e os vetores A(1), . . . , A(n)
em Rm formados pelas colunas de A são chamados os vetores-coluna de
A.
A esses vetores associamos três espaços vetoriais: se A é uma matriz
m × n, então o subespaço de Rngerado pelos vetores-linha de A é chamado
espaço-linha de A, sendo denotado por EL(A). O subespaço de Rmgerado pelos vetores-coluna de A é chamado espaço-coluna de A, sendo denotado por EC(A). O espaço-solução do sistema linear homogêneo de equação
AX = 0, que é um subespaço de Rn, é chamado o espaço-nulo de A e será denotado por EN (A). Ou seja,
. EL(A) = espaço-linha de A = span(A(1), . . . , A(m)) ⊂ Rn; . EC(A) = espaço-coluna de A = span(A(1), . . . , A(n)) ⊂ Rm;
. EN (A) = espaço-nulo de A = {X ; AX = 0} ⊂ Rn.
Proposição 2.4.1. Sejam A ∈ Mm×n(R), X ∈ Mn×1(R) e B ∈ Mm×1(R). O sistema AX = B é compatível se, e somente se, B ∈ EC(A).
Demonstração. Seja X = (xj) ∈ Mn×1(R). É fácil ver que AX = x1A(1)+ . . . + xnA(n).
Daí, AX = B se, e somente se, x1A(1) + . . . + xnA(n) = B. Portanto,
AX = B é compatível se, e somente se, B ∈ EC(A).
Teorema 2.4.1. Sejam A ∈ Mm×n(R), X ∈ Mn×1(R) e B ∈ Mm×1(R). Se X0 denota uma solução particular do sistema linear compatível AX = B e se {v1, . . . , vk} é uma base do espaço-nulo de A, então cada solução de AX = B pode ser escrita na forma
X = X0+ α1v1+ . . . + αkvk (2.7) e, reciprocamente, para qualquer escolha de escalares α1, . . . , αk, o vetor X da fórmula 2.7 é uma solução de AX = B.
2.4. ESPAÇO-LINHA, ESPAÇO-COLUNA E ESPAÇO-NULO 33
Demonstração. Sejam X0 uma solução particular de AX = B e X uma
solução arbitrária. Então AX0 = B e AX = B. Daí
A(X − X0) = AX − AX0 = 0
o que mostra que X − X0 é uma solução de AX = 0. Como {v1, . . . , vk} é
uma base do espaço-nulo de A, então existem α1, . . . , αk ∈ R tais que X − X0 = α1v1+ . . . + αkvk
isto é,
X = X0+ α1v1+ . . . + αkvk.
Reciprocamente, um simples cálculo mostra que a fórmula em 2.7 é uma solução de AX = B.
A fórmula 2.7 afirma que a solução geral de AX = B é a soma de uma solução particular qualquer de AX = B com a solução geral de AX = 0. Mais ainda, o conjunto solução de AX = B é a translação do subespaço
EN (A).
Por exemplo, considerando as matrizes
A = 1 3 −2 0 2 0 2 6 −5 −2 4 −3 0 0 5 10 0 15 2 6 0 8 4 18 B = 0 −1 5 6
o sistema AX = B tem como solução geral
S = {(−3r − 4s − 2t, r, −2s, s, t, 1/3) ; r, s, t ∈ R}.
Tomando uma solução particular Xp = (0, 0, 0, 0, 0, 1/3) temos (em forma
matricial) X = Xp+ r −3 1 0 0 0 0 + s −4 0 −2 1 0 0 + t −2 0 0 0 1 0 | {z } (∗)
onde (∗) é solução geral do sistema linear homogêneo AX = 0 (faça os cálculos!). Os vetores v1 = (−3, 1, 0, 0, 0, 0), v2 = (−4, 0, −2, 1, 0, 0) e v3 = (−2, 0, 0, 0, 1, 0) formam uma base de EN (A) e, portanto, toda solução de
AX = B é da forma