Notas de Aula
´
Algebra Linear I
Rodney Josu´
e Biezuner
1Departamento de Matem´atica
Instituto de Ciˆencias Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)
Notas de aula da disciplina ´Algebra Linear I
dos cursos de gradua¸c˜ao em Matem´atica e Matem´atica Computacional, ministrado durante o segundo semestre de 2008.
20 de novembro de 2008
Sum´
ario
1 Espa¸cos Vetoriais 3
1.1 Defini¸c˜ao . . . 3
1.2 Exemplos . . . 6
1.3 Bases e Dimens˜ao . . . 6
1.3.1 Conjuntos Linearmente Dependentes e Independentes . . . 6
1.3.2 Conjuntos Geradores e Bases . . . 7
1.3.3 Coordenadas de Vetores em Rela¸c˜ao a uma Base . . . 9
1.4 Subespa¸cos Vetoriais . . . 9
1.5 Somas de Subespa¸cos Vetoriais . . . 11
2 Matrizes 14 2.1 Defini¸c˜ao . . . 14
2.2 Opera¸c˜oes com Matrizes . . . 14
2.3 Mudan¸ca de Base . . . 20
2.4 Matrizes Especiais . . . 22
2.4.1 Matrizes Diagonais . . . 22
2.4.2 Matrizes Triangulares . . . 22
2.4.3 Matrizes Sim´etricas e Anti-sim´etricas . . . 23
2.4.4 Matrizes Nilpotentes . . . 24
3 Transforma¸c˜oes Lineares 25 3.1 Defini¸c˜ao . . . 25
3.2 Representa¸c˜oes de Transforma¸c˜oes Lineares atrav´es de Matrizes . . . 27
3.3 Exemplos de Operadores Lineares . . . 28
3.3.1 Operadores Lineares no Plano R2 . . . . 28
3.3.2 Operadores Lineares no Espa¸co R3 . . . . 32
3.3.3 Operadores Lineares em Espa¸cos de Dimens˜ao Infinita . . . 32
3.3.4 Funcionais Lineares . . . 32
3.4 Composi¸c˜ao de Transforma¸c˜oes Lineares . . . 32
3.5 Isomorfismos . . . 34
3.6 Teorema do N´ucleo e da Imagem . . . 37
3.7 Teorema do Posto . . . 40
3.8 Mudan¸ca de Base e Semelhan¸ca de Matrizes . . . 41
4 Espa¸cos com Produto Interno 43 4.1 Produto Interno . . . 43
4.2 Norma . . . 45
4.3 Bases Ortonormais e Proje¸c˜oes Ortogonais . . . 49
4.4 Operador Adjunto . . . 52
4.5 Operadores Unit´arios e Isometrias . . . 56 1
5 Determinantes 59
5.1 Defini¸c˜ao . . . 59
5.2 Existˆencia . . . 60
5.3 Unicidade . . . 61
5.3.1 Permuta¸c˜oes . . . 61
5.3.2 Demonstra¸c˜ao da Unicidade da Fun¸c˜ao Determinante . . . 63
5.3.3 F´ormula do Determinante atrav´es de Permuta¸c˜oes . . . 65
5.4 Propriedades . . . 66
5.5 Regra de Cramer . . . 68
6 Diagonaliza¸c˜ao de Operadores 70 6.1 Polinˆomios . . . 70
6.2 Autovalores, Autovetores e Autoespa¸cos . . . 74
6.3 Operadores Diagonaliz´aveis . . . 76
6.4 Ideais de Polinˆomios . . . 79
6.5 Polinˆomio M´ınimo e o Teorema de Cayley-Hamilton . . . 80
6.6 Polinˆomio M´ınimo e Operadores Triangulariz´aveis e Diagonaliz´aveis . . . 83
Cap´ıtulo 1
Espa¸cos Vetoriais
1.1
Defini¸c˜
ao
Intuitivamente, um espa¸co vetorial ´e um conjunto de elementos, que chamamos vetores, com os quais podemos efetuar combina¸c˜oes lineares, isto ´e, somas de elementos e multiplica¸c˜ao de elementos por n´umeros, que chamamos escalares.
Matematicamente falando, os escalares s˜ao elementos de um conjunto munido de uma estrutura alg´ebrica chamada corpo. Grosseiramente, um corpo nada mais ´e que um conjunto de elementos que podem ser somados e multiplicados, a ordem em que estas opera¸c˜oes s˜ao realizadas n˜ao tendo importˆancia para o resultado, onde todo elemento possui um inverso aditivo, existe um elemento neutro na adi¸c˜ao chamado zero (0), existe um elemento neutro na multiplica¸c˜ao chamado identidade (1), todo elemento possui um inverso multiplicativo com exce¸c˜ao do zero e existe uma rela¸c˜ao entre as duas opera¸c˜oes. Exemplos de corpos s˜ao o conjunto dos n´umeros reais R e o conjunto dos n´umeros complexos C. Neste curso, ser˜ao os ´unicos corpos que consideraremos.
1.1 Defini¸c˜ao. Um corpo F ´e um conjunto munido de duas opera¸c˜oes bin´arias F × F −→ F, adi¸c˜ao e
multiplica¸c˜ao que satisfazem as seguintes propriedades:
Adi¸c˜ao:
1. Comutatividade: para todos α, β ∈ F
α + β = β + α.
2. Associatividade: para todos α, β, γ ∈ F
α + (β + γ) = (α + β) + γ.
3. Existˆencia de Elemento Neutro: existe um elemento 0 ∈ F tal que para todo α ∈ F temos
α + 0 = 0 + α = α.
4. Existˆencia de Inverso: para todo α ∈ F existe −α ∈ F tal que
α + (−α) = 0.
Multiplica¸c˜ao:
1. Comutatividade: para todos α, β ∈ F
αβ = βα.
2. Associatividade: para todos α, β, γ ∈ F
α (βγ) = (αβ) γ.
3. Existˆencia de Elemento Neutro: existe um elemento 1 ∈ F tal que para todo α ∈ F temos
α1 = 1α = α.
4. Existˆencia de Inverso: para todo α ∈ F existe α−1 ∈ F tal que αα−1= 1.
Distributividade: 1. Para todos α, β, γ ∈ F
α (β + γ) = αβ + αγ.
Como mencionado acima, sempre que nos referirmos ao corpo F, fica subentendido que F pode se referir tanto ao corpo dos reais R, quanto ao corpo dos complexos C.
1.2 Defini¸c˜ao. Um espa¸co vetorial sobre um corpo de escalares F ´e um conjunto V munido de duas opera¸c˜oes, adi¸c˜ao de vetores V × V −→ V e multiplica¸c˜ao por escalar F × V −→ V que satisfazem as seguintes propriedades:
Adi¸c˜ao:
1. Comutatividade: para todos v, w ∈ V
v + w = w + v.
2. Associatividade: para todos v, w, u ∈ V
v + (w + u) = (v + w) + u.
3. Existˆencia de Elemento Neutro: existe um elemento 0 ∈ V tal que para todo v ∈ V temos
v + 0 = 0 + v = v.
4. Existˆencia de Inverso: para todo v ∈ V existe −v ∈ V tal que
v + (−v) = (−v) + v = 0.
Multiplica¸c˜ao por Escalar:
1. Existˆencia de Elemento Neutro: para todo v ∈ V vale 1v = v.
2. Associatividade: para todos α, β ∈ F e para todo v ∈ V vale
α (βv) = (αβ) v.
Distributividade:
1. Distributividade em rela¸c˜ao `a soma: para todos v, w ∈ V e para todo α ∈ F
Rodney Josu´e Biezuner 5 2. Distributividade em rela¸c˜ao `a multiplica¸c˜ao por escalar : para todo v ∈ V e para todos α, β ∈ F
(α + β) v = αv + βv.
Quando F = R, o espa¸co vetorial ´e chamado um espa¸co vetorial real, enquanto que se F = C, o espa¸co vetorial ´e chamado um espa¸co vetorial complexo.
Das propriedades (ou axiomas) que definem um espa¸co vetorial, seguem algumas conseq¨uˆencias simples: 1.3 Proposi¸c˜ao. As seguintes afirmativas s˜ao v´alidas:
(i) α0 = 0. Prova: Temos α0 = α (0 + 0) = α0 + α0, logo α0 + (−α0) = α0 + α0 + (−α0) , donde 0 = α0. (ii) 0v = 0. Prova: Temos 0v = (0 + 0) v = 0v + 0v, logo 0v + (−0v) = 0v + 0v + (−0v) , donde 0 = 0v. (iii) Se α 6= 0 e v 6= 0, ent˜ao αv 6= 0.
Prova: Suponha que exista α ∈ F, α 6= 0, tal que αv = 0 para algum v ∈ V , v 6= 0. Ent˜ao
α−1(αv) = α−10 = 0 logo ¡ α−1α¢v = 0, donde 1v = 0, ou seja, v = 0, contradi¸c˜ao.
(i), (ii) e (iii) juntas implicam que αv = 0 se e somente se α = 0 ou v = 0. (iv) (−1) v = −v. Prova: Temos 0 = 0v = [1 + (−1)] v = 1v + (−1) v = v + (−1) v, logo −v + 0 = −v + v + (−1) v, donde −v = (−1) v.
(v) Unicidade do vetor nulo. Prova:
1.2
Exemplos
1.4 Exemplo. Rn sob as opera¸c˜oes usuais ´e um espa¸co vetorial real, enquanto que Cn sob as opera¸c˜oes
usuais ´e um espa¸co vetorial complexo. Ou seja, quando definimos a soma de n-uplas de n´umeros reais ou n´umeros complexos por
(x1, . . . , xn) + (y1, . . . , yn) := (x1+ y1, . . . , xn+ yn)
e a multiplica¸c˜ao por escalares por
α (x1, . . . , xn) := (αx1, . . . , αxn) .
1.5 Exemplo. O conjunto Mm×n(R) das matrizes reais m × n sob as opera¸c˜oes usuais ´e um espa¸co vetorial
real. O conjunto Mm×n(C) das matrizes complexas m × n sob as opera¸c˜oes usuais ´e um espa¸co vetorial
complexo.
1.6 Exemplo. O conjunto Pn(R) dos polinˆomios (com coeficientes) reais de grau menor que ou igual a n sob as opera¸c˜oes usuais ´e um espa¸co vetorial real. O conjunto P (R) de todos os polinˆomios reais
tamb´em ´e um espa¸co vetorial real. O conjunto Pn(C) dos polinˆomios (com coeficientes) complexos de
grau menor que ou igual a n sob as opera¸c˜oes usuais ´e um espa¸co vetorial complexo. O conjunto P (C) de todos os polinˆomios complexos tamb´em ´e um espa¸co vetorial complexo.
1.7 Exemplo. O conjunto FR das fun¸c˜oes reais ´e um espa¸co vetorial real. O conjunto FC ´e um espa¸co
vetorial complexo.
1.8 Exemplo. O conjunto C0([0, 1]) das fun¸c˜oes reais cont´ınuas definidas no intervalo [0, 1], o conjunto
Ck([0, 1]) das fun¸c˜oes reais com k derivadas cont´ınuas definidas no intervalo [0, 1], e o conjunto C∞([0, 1]) das fun¸c˜oes reais infinitamente diferenci´aveis definidas no intervalo [0, 1] s˜ao espa¸cos
ve-toriais reais.
1.3
Bases e Dimens˜
ao
1.3.1
Conjuntos Linearmente Dependentes e Independentes
1.9 Defini¸c˜ao. Seja S ⊂ V um subconjunto qualquer de um espa¸co vetorial V sobre o corpo F. Uma combina¸c˜ao linear de elementos de S ´e uma soma finita
α1v1+ . . . + αkvk
com α1, . . . , αk∈ F e v1, . . . , vk∈ S.
1.10 Defini¸c˜ao. Dizemos que um conjunto S ⊂ V ´e linearmente dependente se existir um n´umero finito de elementos v1, . . . , vk ∈ S e escalares α1, . . . , αk ∈ F n˜ao todos nulos tais que
α1v1+ . . . + αkvk = 0.
Caso contr´ario, dizemos que S ´e linearmente independente.
Em outras palavras, S ´e linearmente dependente se o vetor nulo pode ser escrito como uma combina¸c˜ao linear n˜ao-trivial de elementos de S. Da defini¸c˜ao segue que um subconjunto linearmente independente n˜ao pode conter o vetor nulo.
1.11 Lema. Um subconjunto S ⊂ V ´e linearmente dependente se e somente se algum elemento de S puder
Rodney Josu´e Biezuner 7 Prova. Se S ´e linearmente dependente, ent˜ao existem vetores v1, . . . , vk ∈ S e escalares α1, . . . , αk n˜ao
todos nulos tais que
α1v1+ . . . + αkvk= 0.
Suponha αi 6= 0. Ent˜ao podemos escrever vi=α1 αiv1+ . . . + αi−1 αi vi−1+ αi+1 αi vi+1+ . . . + αk αivk,
isto ´e, vi ´e combina¸c˜ao linear de outros elementos de S.
Reciprocamente, se v0, v1, . . . , vk ∈ S e α1, . . . , αk ∈ F s˜ao tais que
v0= α1v1+ . . . + αkvk,
ent˜ao
v0− α1v1− . . . − αkvk= 0
´e uma combina¸c˜ao linear n˜ao-trivial de elementos de S. ¥
1.3.2
Conjuntos Geradores e Bases
1.12 Defini¸c˜ao. Dizemos que um conjunto S ⊂ V gera o espa¸co V se para todo v ∈ X existirem v1, . . . , vk∈
S e escalares α1, . . . , αk∈ F tais que
v = α1v1+ . . . + αkvk.
1.13 Defini¸c˜ao. Dizemos que um conjunto B ⊂ V ´e uma base para o espa¸co V se:
• B gera V.
• B ´e linearmente independente.
1.14 Defini¸c˜ao. Dizemos que V ´e um espa¸co vetorial de dimens˜ao finita se V possui uma base com um n´umero finito de elementos ou se V = {0}.
O n´umero de elementos nas bases de um espa¸co vetorial ´e um invariante do espa¸co vetorial:
1.15 Teorema. Todas as bases de um espa¸co vetorial de dimens˜ao finita possuem o mesmo n´umero de
elementos.
Prova. A demonstra¸c˜ao deste resultado segue do seguinte lema:
1.16 Lema. Suponha que S = {v1, . . . , vk} gera o espa¸co vetorial V e que S0= {w1, . . . , wl} ´e um
subcon-junto linearmente independente de V . Ent˜ao
l 6 k.
Prova. Suponha por absurdo que l > k. Como S gera V e S0 ´e linearmente independente (em particular,
n˜ao cont´em o vetor nulo) temos
w1= α1v1+ . . . + αkvk
para alguns escalares α1, . . . , αkn˜ao todos nulos. Podemos supor α16= 0, reordenando os ´ındices se necess´ario.
Afirmamos que podemos ent˜ao substituir v1por w1, isto ´e, que o conjunto S1= {w1, v2, . . . , vk} gera V . De
fato, podemos escrever
v1= 1 α1 w1− α2 α1 v2− . . . − αk α1 vk,
de modo que se v = β1v1+ β2v2+ . . . + βkvk, ent˜ao v = β1 α1 w1+ µ β2− β1α2 α1 ¶ v2+ . . . + µ βk− β1αk α1 ¶ vk.
Agora, como S1gera V e S0 ´e linearmente independente, temos
w2= α1w1+ α2v2+ . . . + αkvk
para alguns escalares α1, . . . , αk, com α2, . . . , αk n˜ao todos nulos (caso contr´ario, w2 seria um m´ultiplo
escalar de w1). Supondo α2 6= 0, reordenando os ´ındices se necess´ario, usamos o mesmo argumento acima
para concluir que podemos substituir v2 por w2, de modo que o conjunto S2 = {w1, w2, v3, . . . , vk} gera
V . Repetindo este procedimento sucessivamente, conclu´ımos que podemos substituir todos os vi’s por um n´umero equivalente de wi’s (j´a que, por hip´otese de absurdo, l > k), e obter que o subconjunto pr´oprio
Sk = {w1, . . . , wk}
de S0 gera V . Mas ent˜ao, por defini¸c˜ao de conjunto gerador, existem escalares α
1, . . . , αk tais que
wk+1= α1w1+ . . . + αkwk
contrariando o fato que S0 ´e linearmente independente. ¥
Sejam B1 = {v1, . . . , vk} e B2 = {w1, . . . , wl} duas bases do espa¸co vetorial de dimens˜ao finita V .
Aplicando o Lema 1.16 ao conjunto gerador B1e ao conjunto linearmente independente B2conclu´ımos que
l 6 k; aplicando o Lema 1.16 ao conjunto gerador B2e ao conjunto linearmente independente B1 conclu´ımos
que k 6 l. Portanto, k = l. ¥
1.17 Defini¸c˜ao. O n´umero de elementos de uma base qualquer de um espa¸co vetorial de dimens˜ao finita V ´e chamada a dimens˜ao do espa¸co e denotada dim V . Se V = {0}, ent˜ao definimos dim V = 0. 1.18 Teorema. Todo espa¸co vetorial n˜ao-nulo gerado por um subconjunto finito possui uma base finita. Prova. Suponha que S seja um subconjunto finito que gera o subespa¸co vetorial n˜ao-nulo V . Se S for linearmente independente, ent˜ao S ´e a base procurada e n˜ao precisamos fazer nada. Caso contr´ario, se S ´e linearmente dependente, podemos retirar um elemento de S e o conjunto resultante ainda gerar´a V (retire um elemento que seja combina¸c˜ao linear dos demais). Se o conjunto restante for linearmente independente, ent˜ao ele ser´a uma base finita para V . Caso contr´ario, repetimos o procedimento, at´e obter um conjunto linearmente independente. ¥
1.19 Lema. Se dim V = n, ent˜ao todo subconjunto de V com mais de n vetores ´e linearmente dependente. Prova. Segue imediatamente do Lema 1.16. ¥
1.20 Lema. Seja S um subconjunto linearmente independente de um espa¸co vetorial V . Suponha que w ´e
um vetor de V que n˜ao ´e gerado por S. Ent˜ao S ∪ {w} ´e linearmente independente.
Prova. Suponha que v1, . . . , vk∈ S e existem escalares α1, . . . , αk, β tais que α1v1+ . . . + αkvk+ βw = 0.
Ent˜ao β = 0, caso contr´ario
w = α1
β v1+ . . . + αk
β vk,
o que implicaria que w ´e gerado por V , contrariando a hip´otese. Mas ent˜ao
α1v1+ . . . + αkvk= 0,
Rodney Josu´e Biezuner 9 1.21 Teorema. Todo subconjunto linearmente independente de um espa¸co vetorial de dimens˜ao finita pode
ser completado at´e uma base do espa¸co.
Prova. Suponha que S = {v1, . . . , vk} seja um subconjunto linearmente independente de V . Se S n˜ao
´e uma base para V , ou seja, se k < n := dim V , ent˜ao existe um vetor vk+1 ∈ V tal que vk+1 n˜ao ´e
uma combina¸c˜ao linear de elementos de S. Segue do Lema 1.20 que o conjunto S1 = {v1, . . . , vk, vk+1} ´e
linearmente independente. Se k + 1 < n, repetimos o processo. Continuamos este argumento, repetindo o processo n − k vezes at´e encontrar um subconjunto Sn−k = {v1, . . . , vk, vk+1, . . . , vn} que ´e uma base para
V . ¥
1.3.3
Coordenadas de Vetores em Rela¸c˜
ao a uma Base
1.22 Proposi¸c˜ao. Seja V um espa¸co vetorial de dimens˜ao finita e B = {v1, . . . , vn} uma base para V .
Ent˜ao todo vetor em V se escreve de maneira ´unica como uma combina¸c˜ao linear de vetores de B.
Prova. Suponha que v ∈ V pode ser representado por duas combina¸c˜oes lineares de vetores de B:
v = α1v1+ . . . + αnvn, v = α0 1v1+ . . . + α0nvn. Ent˜ao (α1− α01) v1+ . . . + (αn− α0n) vn= 0, donde α1= α01, . . . , αn = α0n. ¥
1.23 Defini¸c˜ao. Seja V um espa¸co vetorial de dimens˜ao finita e B = {v1, . . . , vn} uma base ordenada para
V . Dado v ∈ V , se
v = α1v1+ . . . + αnvn,
a n-upla (α1, . . . , αn) ´e chamada as coordenadas de v com rela¸c˜ao `a base B, e denotada por
[v]B= (α1, . . . , αn) .
As coordenadas de um vetor dependem da base escolhida. No pr´oximo cap´ıtulo, veremos como as coordenadas de um vetor em rela¸c˜ao a uma base mudam quando mudamos de base.
1.4
Subespa¸cos Vetoriais
1.24 Defini¸c˜ao. Seja V um espa¸co vetorial sobre um corpo F. Um subespa¸co de V ´e um subconjunto
W ⊂ V que ´e ele pr´oprio um espa¸co vetorial sobre F com as opera¸c˜oes de soma e multiplica¸c˜ao escalar
induzidas de V .
1.25 Proposi¸c˜ao. Um subconjunto n˜ao-vazio W ⊂ V ´e um subespa¸co de V se e somente se ele ´e fechado
com rela¸c˜ao `as opera¸c˜oes de soma e multiplica¸c˜ao por escalar. Em outras palavras, W ⊂ V ´e um subespa¸co de V se e somente se αv + βw ∈ W para todos v, w ∈ V e para todos α, β ∈ F.
Prova. Suponha que W ⊂ V , W 6= ∅, ´e fechado com rela¸c˜ao `as opera¸c˜oes de soma e multiplica¸c˜ao por escalar. Como as opera¸c˜oes de soma e multiplica¸c˜ao por escalar definidas em W s˜ao herdadas das opera¸c˜oes definidas em V , comutatividade, associatividade e distributividade s˜ao imediatamente v´alidas e 1v = v para todo v ∈ W . Basta apenas verificar as duas propriedades seguintes:
• 0 ∈ W : pois se v ∈ W ´e qualquer vetor (lembre-se que W 6= ∅), ent˜ao 0 = 0v ∈ W . • Se v ∈ W , ent˜ao −v ∈ W : pois −v = (−1) v ∈ W.
A rec´ıproca ´e ´obvia, pois V ´e um espa¸co vetorial sobre F e W ⊂ V ´e um espa¸co vetorial sobre F com as opera¸c˜oes de soma e multiplica¸c˜ao escalar induzidas do pr´oprio V . ¥
1.26 Teorema. A interse¸c˜ao de qualquer fam´ılia de subespa¸cos de um espa¸co vetorial V ´e um subespa¸co
de V .
Prova. Seja {Wλ}λ∈Λ uma cole¸c˜ao de subespa¸cos de V e W = T
λ∈Λ
Wλ sua interse¸c˜ao. Como cada Wλ
cont´em o vetor nulo, segue que W tamb´em cont´em o vetor nulo e podemos usar a Proposi¸c˜ao 1.25 para provar que W ´e um subespa¸co. Dados quaisquer v, w ∈ W , temos que v, w ∈ Wλ para cada ´ındice λ ∈ Λ
(por defini¸c˜ao de interse¸c˜ao de conjuntos), logo αv + βw ∈ Wλ para todos α, β ∈ F (pela Proposi¸c˜ao 1.25,
pois cada Wλ´e um subespa¸co de V ), portanto αv + βw ∈ W para todos α, β ∈ F (novamente, pela defini¸c˜ao
de interse¸c˜ao de conjuntos). Segue da Proposi¸c˜ao 1.25 que W ´e um subespa¸co. ¥
Segue do Teorema 1.26 que, dado um subconjunto de um espa¸co vetorial, existe um menor subespa¸co que o cont´em:
1.27 Defini¸c˜ao. Seja V um espa¸co vetorial sobre um corpo F e S um subconjunto de V . O subespa¸co gerado por S ´e a interse¸c˜ao de todos os subespa¸cos de V que cont´em S. Denotaremos o subespa¸co gerado por S por hSi.
1.28 Proposi¸c˜ao. O subespa¸co gerado por um subconjunto n˜ao-vazio S de um espa¸co vetorial V ´e o
con-junto de todas as combina¸c˜oes lineares de elementos de S.
Prova. Denote por W o subespa¸co gerado por S e por W0 o conjunto de todas as combina¸c˜oes lineares
de elementos de S. Pela Proposi¸c˜ao 1.25, como S ⊂ W , segue que W0 ⊂ W . Por outro lado, tamb´em pela
Proposi¸c˜ao 1.25 o conjunto W0´e um subespa¸co de V , logo W ⊂ W0 por defini¸c˜ao (pois W0 ´e um subespa¸co
de V que cont´em S). Assim W0= W . ¥
1.29 Lema. Seja W um subespa¸co de um espa¸co vetorial de dimens˜ao finita V . Ent˜ao todo subconjunto
linearmente independente de W ´e finito e pode ser completado at´e uma base de W .
Prova. Seja S um subconjunto linearmente independente de W com k elementos e suponha que dim V = n. Como S ´e tamb´em um conjunto linearmente independente de V , segue do Lema 1.16 que S ´e finito; mais ainda, que k 6 n. Para completar S at´e uma base de W seguimos um procedimento semelhante ao usado no Teorema 1.21: se S n˜ao gera W , obtemos um vetor w1 ∈ W tal que W n˜ao ´e gerado por S. Segue do
Lema 1.20 que S1 = S ∪ {w1} ´e linearmente independente. Se S1 gera W , ent˜ao ele ´e uma base para W .
Caso contr´ario, existe um vetor w2 ∈ W que n˜ao ´e gerado por S1. Novamente pelo Lema 1.20, o conjunto
S2 = S1 ∪ {w2} = S ∪ {w1, w2} ´e linearmente independente. Continuando desta forma, eventualmente
encontraremos um conjunto Sl= S ∪ {w1, . . . , wl}, com l 6 n − k, que deve ser uma base para W . De fato,
suponha por absurdo que Sl possui n elementos e n˜ao gera W . Ent˜ao existe um vetor w ∈ W que n˜ao ´e
gerado por Sl, o que implica pelo Lema 1.20 que Sl∪ {w} ´e um conjunto linearmente independente em W ,
e portanto tamb´em em V , com n + 1 elementos, o que ´e uma contradi¸c˜ao. ¥
1.30 Teorema. Se W ´e um subespa¸co pr´oprio de um espa¸co vetorial de dimens˜ao finita V , ent˜ao W tamb´em
tem dimens˜ao finita e dim W < dim V .
Prova. O resultado ´e ´obvio se W ´e o subespa¸co nulo. Se W n˜ao ´e o subespa¸co nulo, seja v ∈ W , v 6= 0. Pelo Lema 1.29, existe uma base de W contendo v. Como esta base de W ´e em particular um subconjunto linearmente independente de V , ela n˜ao pode conter mais que dim V elementos. Portanto, dim W 6 dim V . Por outro lado, como W ´e um subespa¸co pr´oprio de V , existe um vetor w ∈ V tal que w /∈ W . Adicionando w a qualquer base de W , obtemos pelo Lema 1.20 um conjunto linearmente independente de V . Isso implica
Rodney Josu´e Biezuner 11
1.5
Somas de Subespa¸cos Vetoriais
1.31 Defini¸c˜ao. Sejam S1, . . . , Sk subconjuntos de um espa¸co vetorial V . Definimos a soma dos
subcon-juntos S1, . . . , Sk como sendo o conjunto
k
X
i=1
Si= S1+ . . . + Sk= {v1+ . . . + vk: vi∈ Si para i = 1, . . . k} .
1.32 Proposi¸c˜ao. Se W1, . . . , Wks˜ao subespa¸cos de um espa¸co vetorial V , ent˜ao a sua soma W1+. . .+Wk tamb´em ´e um subespa¸co vetorial de V e cont´em cada um dos subespa¸cos Wi, i = 1, . . . k.
Prova. Pois se
v = w1+ . . . + wk,
w = w10 + . . . + w0k,
s˜ao dois vetores quaisquer de W1+ . . . + Wk com wi, wi0 ∈ Wi para cada i e α, β s˜ao escalares quaisquer,
segue que
αv + βw = (αw1+ βw10) + . . . + (αwk+ βw0k) ∈ W1+ . . . + Wk.
A ´ultima afirma¸c˜ao do enunciado ´e ´obvia, pois o vetor nulo esta em cada um dos subespa¸cos. ¥
1.33 Teorema. Se W1, W2s˜ao dois subespa¸cos de dimens˜ao finita de um espa¸co vetorial V , ent˜ao W1+W2
tamb´em tem dimens˜ao finita e
dim (W1+ W2) = dim W1+ dim W2− dim (W1∩ W2)
Prova. Pelo Teorema 1.30, W1∩ W2 tem uma base finita
{v1, . . . , vn} .
Pelo Teorema 1.21, esta ´e parte de uma base
B1= {v1, . . . , vn, w1, . . . , wk}
para W1 e parte de uma base
B2= {v1, . . . , vn, u1, . . . , ul}
para W2. O subespa¸co W1+ W2´e gerado pelo conjunto
B = {v1, . . . , vn, w1, . . . , wk, u1, . . . , ul} .
Basta provar que B ´e L.I. para terminar a demonstra¸c˜ao, pois ent˜ao B ser´a uma base para W1+ W2 e
portanto
dim W1+ dim W2= (n + k) + (n + l) = (n + k + l) + n
= dim (W1+ W2) + dim (W1∩ W2) .
De fato, suponha que
n X i=1 αivi+ k X i=1 βiwi+ l X i=1 γiui= 0. Escrevendo u := l X i=1 γiui= − n X i=1 αivi− k X i=1 βiwi,
vemos que u ∈ W1tamb´em (certamente u ∈ W2). Em particular, existem escalares δ1, . . . , δn tais que u = n X i=1 δivi.
Logo, subtraindo as duas express˜oes para u, obtemos
n X i=1 δivi− l X i=1 γiui= 0,
e como {v1, . . . , vn, u1, . . . , ul} ´e L.I., conclu´ımos que
δ1= . . . = δn= γ1= . . . = γl= 0. Mas ent˜ao n X i=1 αivi+ k X i=1 βiwi = 0 e como {v1, . . . , vn, w1, . . . , wk} ´e L.I., segue que
α1= . . . = αn= β1= . . . = βk= 0.
¥
1.34 Defini¸c˜ao. Sejam W1, W2 dois subespa¸cos de um espa¸co vetorial V . Dizemos que o subespa¸co W =
W1+ W2´e a soma direta dos subespa¸cos W1 e W2se W1∩ W2= {0}. Neste caso, denotamos
W = W1⊕ W2.
1.35 Proposi¸c˜ao. Se W = W1⊕ W2, ent˜ao
dim W = dim W1+ dim W2.
Prova. Segue imediatamente do Teorema 1.33 quando se observa que W1∩ W2= {0}. ¥
1.36 Proposi¸c˜ao. W = W1⊕ W2 se e somente se todo elemento w ∈ W se escrever de maneira ´unica
como uma soma w = w1+ w2, w1∈ W1 e w2 ∈ W2 (em outras palavras, W1 e W2 s˜ao linearmente
independentes).
Prova. Assuma que W1∩ W2= {0}. Seja w ∈ W e suponha que
w = w1+ w2 w = w0 1+ w20 w1, w01∈ W1 e w2, w02∈ W2. Ent˜ao (w1− w01) + (w2− w02) = 0, donde (w1− w10) = − (w2− w02) .
Mas ent˜ao, (w1− w01) ∈ W1∩ W2e (w2− w20) ∈ W1∩ W2, logo w1− w01= 0 e w2− w02= 0, ou seja, w1= w10
e w2= w02.
Reciprocamente, assuma que todo elemento w ∈ W se escreve de maneira ´unica como uma soma w =
Rodney Josu´e Biezuner 13 0 = v + (−v) ´e um vetor de W que se escreve pelo menos de duas maneiras como a soma de vetores de W1
e W2:
0 = v + (−v) , 0 = 0 + 0. ¥
1.37 Teorema. Seja V um espa¸co vetorial de dimens˜ao finita. Ent˜ao todo subespa¸co W ⊂ V possui um
complemento em V , isto ´e, existe um subespa¸co Z ⊂ V tal que V = W ⊕ Z.
Prova. Se W = {0} ou W = V , tome Z = V ou Z = {0}. Caso contr´ario, seja {v1, . . . , vk} uma base para
W . Complete esta base at´e uma base para V : {v1, . . . , vk, w1, . . . , wl}. Ent˜ao tomamos como Z o subespa¸co
gerado pelos vetores w1, . . . , wl. De fato, se W ∩ Z 6= {0}, tomando um vetor n˜ao-nulo u ∈ W ∩ Z, ter´ıamos
escalares n˜ao todos nulos α1, . . . , αk, β1, . . . , βltais que
u = k X i=1 αivi, u = l X i=1 βiwi, donde k X i=1 αivi− l X i=1 βiwi = 0
seria uma combina¸c˜ao linear n˜ao trivial produzindo o vetor nulo, contradizendo o fato que {v1, . . . , vk, w1, . . . , wl}
Cap´ıtulo 2
Matrizes
2.1
Defini¸c˜
ao
2.1 Defini¸c˜ao. Uma matriz m × n A sobre o corpo F ´e uma fun¸c˜ao A : [1, m] × [1, n] −→ F.
O conjunto das matrizes m × n sobre F ser´a denotado por Mm×n(F) e por Mn(F) se n = m. Se F = R
dizemos que a matriz ´e real, e se F = C dizemos que a matriz ´e complexa.
A imagem A (i, j) ´e chamado uma entrada ou elemento da matriz e denotada por Aij ou aij. A matriz A tamb´em ´e denotada freq¨uentemente por A = (aij) e o sub´ındice m × n pode ser usado para denotar
o que chamamos o tamanho da matriz.
Representamos A como uma tabela de m × n escalares de F dispostos em m linhas e n colunas:
A = a11 a12 . . . a1n a21 a22 . . . a2n .. . ... . .. ...
am1 am2 . . . amn
. A i-´esima linha de A ´e a matriz 1 × n
£
ai1 ai2 . . . ain ¤,
onde 1 6 i 6 m, enquanto que a j-´esima coluna de A ´e a matriz m × 1 a1j a2j .. . amj ,
onde 1 6 j 6 n. Uma matriz n × n ´e chamada uma matriz quadrada de tamanho n.
2.2
Opera¸c˜
oes com Matrizes
Se¸c˜oes 3.1-3.2 do livro-texto
Sobre o conjunto Mm×n(F) das matrizes m × n definimos as opera¸c˜oes a seguir.
2.2 Defini¸c˜ao. A soma de matrizes ´e a opera¸c˜ao bin´aria Mm×n(F)×Mm×n(F) −→ Mm×n(F), (A, B) 7→ A + B definida por
(A + B)ij = Aij+ Bij.
Rodney Josu´e Biezuner 15 2.3 Proposi¸c˜ao. A soma de matrizes satisfaz as seguintes propriedades:
(i) Comutatividade: para todas A, B ∈ Mm×n(F) temos A + B = B + A.
Prova:
(A + B)ij= Aij+ Bij = Bij+ Aij = (B + A)ij.
¥
(ii) Associatividade: para todos A, B, C ∈ Mm×n(F) temos
A + (B + C) = (A + B) + C. Prova: [A + (B + C)]ij = Aij+ (B + C)ij = Aij+ (Bij+ Cij) = (Aij+ Bij) + Cij = (A + B)ij+ Cij = [(A + B) + C]ij. ¥
(iii) Existˆencia de Elemento Neutro: a matriz nula 0 ∈ Mm×n(F) definida por 0ij = 0 satisfaz A + 0 = 0 + A = A
para toda A ∈ Mm×n(F). Prova:
(A + 0)ij= Aij+ 0ij= Aij+ 0 = Aij
e a outra express˜ao segue por comutatividade. ¥
(iv) Existˆencia de Inverso: para toda A ∈ Mm×n(F) existe −A ∈ Mm×n(F) tal que A + (−A) = (−A) + A = 0. Prova: Defina (−A)ij = − (Aij) . Ent˜ao [A + (−A)]ij= h Aij+ (−A)ij i = [Aij+ (− (Aij))] = 0 = 0ij. ¥
2.4 Defini¸c˜ao. A multiplica¸c˜ao de uma matriz por um escalar ´e a opera¸c˜ao bin´aria F×Mm×n(F) −→
Mm×n(F), (α, A) 7→ αA definida por
(αA)ij = αAij.
(i) Existˆencia de Elemento Neutro: para todo A ∈ Mm×n(F) temos
1A = A. Prova:
(1A)ij= 1Aij= Aij.
¥
(ii) Associatividade: para todos α, β ∈ F e para toda A ∈ Mm×n(F) temos α (βA) = (αβ) A.
Prova:
[α (βA)]ij = α (βA)ij= α (βAij) = (αβ) Aij.
¥
2.6 Proposi¸c˜ao. A soma de matrizes e a multiplica¸c˜ao de uma matriz por um escalar satisfazem as seguintes
propriedades:
(i) Distributividade em rela¸c˜ao `a soma: para todas A, B ∈ Mm×n(F) e para todo α ∈ F temos α (A + B) = αA + αB.
Prova:
[α (A + B)]ij= α (A + B)ij = αAij+ αBij = (αA)ij+ (αB)ij = [αA + αB]ij.
¥
(ii) Distributividade em rela¸c˜ao `a multiplica¸c˜ao por escalar: para toda A ∈ Mm×n(F) e para todos α, β ∈ F temos
(α + β) A = αA + βA. Prova:
[(α + β) A]ij= (α + β) Aij = αAij+ βAij = (αA)ij+ (βA)ij= (αA + βA)ij.
¥
As Proposi¸c˜oes 2.3, 2.5 e 2.6 juntas provam que as opera¸c˜oes de soma de matrizes e multiplica¸c˜ao de uma matriz por um escalar transformam o conjunto Mm×n(F) em um espa¸co vetorial sobre o corpo F.
2.7 Defini¸c˜ao. O produto de matrizes ´e a opera¸c˜ao bin´aria Mm×p(F) × Mp×n(F) −→ Mm×n(F),
(A, B) 7→ AB definida por
(AB)ij =
p
X
k=1
AikBkj.
A motiva¸c˜ao para definir o produto de matrizes desta forma ´e dada pela sua utilidade na resolu¸c˜ao de sistemas de equa¸c˜oes lineares.
Rodney Josu´e Biezuner 17 (i) Associatividade: para todas A ∈ Mm×p(F) , B ∈ Mp×q(F) , C ∈ Mq×n(F) temos
A (BC) = (AB) C. Prova: [A (BC)]ij = p X k=1 Aik(BC)kj= p X k=1 Aik à n X l=1 BklClj ! = p X k=1 n X l=1 AikBklClj = n X l=1 p X k=1 AikBklClj= n X l=1 à p X k=1 AikBkl ! Clj= n X l=1 (AB)ilClj = [(AB) C]ij. ¥
(ii) Existˆencia de Elemento Neutro: a matriz identidade In ∈ Mn(F) definida por
(In)ij = δij= ½ 1 se i = j, 0 se i 6= j, isto ´e, In = 1 0 . . . 0 0 1 . . . 0 .. . ... . .. ... 0 0 . . . 1 , satisfaz AIn= ImA = A para toda A ∈ Mm×n(F). Prova: (AIn)ij = n X k=1 Aikδkj= Aij, (ImA)ij = m X k=1 δikAkj= Aij. ¥
(iii) Distributividade em rela¸c˜ao `a soma de matrizes: para todas A ∈ Mm×p(F) , B, C ∈ Mp×n(F) temos
A (B + C) = AB + AC.
Prova: Exerc´ıcio. ¥
Quando for claro do contexto o valor de n, escreveremos simplesmente I para denotar a matriz identidade. Diferentemente da opera¸c˜ao de adi¸c˜ao, a opera¸c˜ao de produto de matrizes n˜ao possui uma inversa para cada matriz. N˜ao apenas a matriz nula n˜ao possui um inverso multiplicativo (o que tamb´em ocorre em um corpo), como existe um n´umero de matrizes que n˜ao possuem inversas:
2.9 Exemplo. Seja A = · 1 1 1 1 ¸ .
Suponha que B = · x y z w ¸ satisfa¸ca AB = · 1 1 1 1 ¸ · x y z w ¸ = · 1 0 0 1 ¸ = I. Ent˜ao x + z = 1 y + w = 0 x + z = 0 y + w = 1
e este sistema n˜ao possui solu¸c˜ao. O mesmo argumento mostra que qualquer matriz da forma ·
α α α α
¸
qualquer que seja o escalar α ∈ F n˜ao possui inverso multiplicativo. ¤ 2.10 Defini¸c˜ao. Seja A ∈ Mn(F). Se existir uma matriz A−1∈ Mn(F) tal que
AA−1= A−1A = I
dizemos que A ´e invert´ıvel e chamamos A−1 de a inversa de A.
Observe que a inversa de uma matriz ´e ´unica, pois se B e C s˜ao duas matrizes tais que
AB = BA = I, AC = CA = I,
ent˜ao
B = BI = B (AC) = (BA) C = IC = C.
2.11 Proposi¸c˜ao. Se A e B s˜ao matrizes invert´ıveis, ent˜ao AB tamb´em ´e e (AB)−1 = B−1A−1. Prova: (AB)¡B−1A−1¢= A¡BB−1¢A−1= AIA−1= AA−1= I, ¡ B−1A−1¢(AB) = B−1¡A−1A¢B = B−1IB = B−1B = I. ¥
2.12 Exerc´ıcio. Se A e B s˜ao duas matrizes tais que o produto AB ´e invert´ıvel, ´e verdade que A e B tamb´em s˜ao invert´ıveis?
2.13 Teorema. Se AB = I ent˜ao BA = I.
Prova: Se AB = I, ent˜ao a ´unica solu¸c˜ao do sistema BX = 0 ´e a solu¸c˜ao trivial, pois X = IX =
ABX = A0 = 0. Em particular, isso implica que a matriz B ´e equivalente por linhas `a matriz identidade I,
Rodney Josu´e Biezuner 19 `a matriz identidade significa que existem matrizes elementares E1, . . . , Ek (correspondentes `as opera¸c˜oes
elementares sobre as linhas da matriz B) tais que
Ek. . . E1B = I.
Como as matrizes elementares s˜ao invert´ıveis (porque a inversa de uma opera¸c˜ao elementar ´e tamb´em uma opera¸c˜ao elementar), segue que
B = E1−1. . . Ek−1.
Portanto, B ´e o produto de matrizes invert´ıveis, logo ´e invert´ıvel. Seja C tal que BC = I. Para terminar a demonstra¸c˜ao deste teorema, resta apenas provar que C = A. E, de fato, multiplicando a equa¸c˜ao
AB = I
`a direita por C, segue que
(AB) C = IC donde
A (BC) = C ⇒ AI = C ⇒ A = C.
¥
O produto de matrizes n˜ao ´e comutativo: 2.14 Exemplo. Sejam A = · 1 0 0 0 ¸ e B = · 0 1 0 0 ¸ . Ent˜ao AB = · 1 0 0 0 ¸ · 0 1 0 0 ¸ = · 0 1 0 0 ¸ , BA = · 0 1 0 0 ¸ · 1 0 0 0 ¸ = · 0 0 0 0 ¸ . ¤
O fato de existirem matrizes que n˜ao possuem inversas e do produto de matrizes n˜ao ser comutativo faz com que muitas propriedades satisfeitas pelos n´umeros reais e complexos n˜ao serem satisfeitas pelas matrizes. 2.15 Exerc´ıcio. Determine se as afirmativas a seguir s˜ao falsas ou verdadeiras. Se a afirmativa for
verda-deira, prove; se a afirmativa for falsa, dˆe um contraexemplo e determine se existe alguma situa¸c˜ao onde a afirmativa ´e v´alida:
1. (Lei do Cancelamento) Se AB = AC, ent˜ao B = C.
2. Se A, B s˜ao matrizes quadradas, ent˜ao (A + B)2= A2+ 2AB + B2.
3. Se A, B s˜ao matrizes quadradas, ent˜ao (A − B)2= A2− B2.
4. Se AB = 0, ent˜ao A = 0 ou B = 0. 5. Se AB = 0, ent˜ao BA = 0.
6. Se A2= 0, ent˜ao A = 0.
¤
2.16 Defini¸c˜ao. A transposta de uma matriz m × n A ∈ Mm×n(F) ´e a matriz n × m AT ∈ Mn×m(F)
definida por ¡
AT¢
2.17 Proposi¸c˜ao. A transposta de matrizes satisfaz as seguintes propriedades: (i) ¡AT¢T = A.
(ii) (A + B)T = AT + BT.
(iii) (αA)T = αAT.
(iv) (AB)T = BTAT. (v) ¡A−1¢T =¡AT¢−1. Prova de (iv): h (AB)T i ij = (AB)ji= p X k=1 AjkBki= p X k=1 £ AT¤kj£BT¤ik= p X k=1 £ BT¤ik£AT¤kj=£BTAT¤ij
Prova de (v): Por (iv), segue que
I = IT =¡AA−1¢T =¡A−1¢TAT.
¥
2.3
Mudan¸ca de Base
Se¸c˜ao 7.11 do livro-texto
Sejam B = {v1, . . . , vn} e B0= {w1, . . . , wn} duas bases para o espa¸co vetorial V . Suponha que um vetor
v ∈ V se escreve na forma v = x1v1+ . . . + xnvn = n X i=1 xivi
como combina¸c˜ao linear dos vetores da base B, ou seja,
v = (x1, . . . , xn)
s˜ao as coordenadas de v em rela¸c˜ao `a base B, isto ´e,
[v]B= x1 .. . xn ,
convencionando representar as coordenadas de vetores em rela¸c˜ao a uma base como matrizes-coluna. Como obter as coordenadas de v em rela¸c˜ao `a base B0?
Sabemos que existem escalares pji∈ F tais que vi= n X j=1 pjiwj para i = 1, . . . , n. Ent˜ao v = n X i=1 xivi = n X i=1 xi n X j=1 pjiwj = n X i=1 n X j=1 xipjiwj= n X j=1 Ã n X i=1 xipji ! wj = n X j=1 Ã n X i=1 pjixi ! wj.
Rodney Josu´e Biezuner 21 Assim, yj= n X i=1 pjixi. Portanto, se P = (pij) = p11 p12 . . . p1n p21 p22 . . . p2n .. . ... . .. ... pm1 pm2 . . . pmn , segue que y1 .. . yn = p11 p12 . . . p1n p21 p22 . . . p2n .. . ... . .. ... pm1 pm2 . . . pmn x1 .. . xn ou seja, [v]B0 = P [v]B.
Em outras palavras, as coordenadas do vetor v em rela¸c˜ao `a base B0 s˜ao obtidas atrav´es de multiplicar as
coordenadas de v em rela¸c˜ao `a base B pela matriz P , cujas colunas s˜ao as coordenadas dos vetores da base
B em rela¸c˜ao `a base B0. P ´e chamada a matriz de mudan¸ca de base da base B para a base B0.
2.18 Proposi¸c˜ao. A matriz de mudan¸ca de base ´e invert´ıvel. Prova: Pois a ´unica solu¸c˜ao de
P X = 0
´e a solu¸c˜ao identicamente nula, porque o ´unico vetor que tem coordenadas nulas em rela¸c˜ao a qualquer base ´e o vetor nulo. ¥
Em particular, segue que
[v]B= P−1[v] B0,
isto ´e, a matriz de mudan¸ca de base da base B0 para a base B ´e a inversa P−1.
2.19 Exemplo. Obtenha as coordenadas do vetor v = (1, 2, 3) ∈ R3em rela¸c˜ao `a base B0= {(1, 1, 0) , (1, 0, 1) , (0, 1, 1)} .
Temos que a matriz de mudan¸ca de base ´e
P = 1 1 01 0 1 0 1 1 −1 = 1 2 12 −12 1 2 −12 12 −12 12 12 . Logo as coordenadas de v em rela¸c˜ao a B0 s˜ao
1 2 12 −12 1 2 −12 12 −12 12 12 12 3 = 01 2 .
Observe que 1 2 12 −12 1 2 −12 12 −1 2 12 12 11 0 = 10 0 , 1 2 12 −12 1 2 −12 12 −1 2 12 12 10 1 = 01 0 , 1 2 12 −12 1 2 −12 12 −1 2 12 12 01 1 = 00 1 ,
pois estas s˜ao as coordenadas dos vetores da base em rela¸c˜ao a ela pr´opria. ¤
2.4
Matrizes Especiais
Se¸c˜ao 3.6 do livro-texto
2.4.1
Matrizes Diagonais
2.20 Defini¸c˜ao. Dizemos que uma matriz quadrada D ∈ Mn(F) ´e uma matriz diagonal se aij = 0 para
todo i 6= j.
Uma matriz diagonal tem a forma
D = a11 0 . . . 0 0 a22 . . . 0 .. . ... . .. ... 0 0 . . . ann ,
isto ´e, todos os elementos fora da diagonal principal s˜ao nulos. O conjunto das matrizes diagonais Dn(F) ´e
um subespa¸co vetorial de dimens˜ao n.
2.4.2
Matrizes Triangulares
2.21 Defini¸c˜ao. Dizemos que uma matriz quadrada T ∈ Mn(F) ´e uma matriz triangular superior se aij = 0 para todo i > j. Dizemos que T ´e uma matriz triangular inferior se aij = 0 para todo i < j. Uma matriz triangular superior ou inferior, ´e tamb´em chamada simplesmente uma matriz
triangular.
Uma matriz triangular superior tem a forma
T = a11 a12 a13 . . . . . . a1n 0 a22 a23 . . . . . . a2n 0 0 a33 . . . . . . a3n 0 0 0 . .. ... ... .. . ... ... . .. an−1,n−1 an−1,n 0 0 . . . . . . 0 ann ,
Rodney Josu´e Biezuner 23 isto ´e, todos os elementos abaixo da diagonal principal s˜ao nulos, enquanto que uma matriz triangular inferior tem a forma T = a11 0 0 . . . . . . 0 a21 a22 0 . . . . . . 0 a31 a32 a33 . .. . . . 0 .. . ... ... . .. 0 ... an−1,1 . . . . . . . . . an−1,n−1 0
an1 . . . . . . . . . an,n−1 ann
,
isto ´e, todos os elementos acima da diagonal principal s˜ao nulos. Ambos os conjuntos de matrizes trian-gulares superiores Un(F) e de matrizes triangulares inferiores Ln(F) s˜ao subespa¸cos vetoriais de dimens˜ao n (n + 1) /2. Al´em disso, Mn(F) = Un(F) + Ln(F), mas esta soma n˜ao ´e direta.
2.4.3
Matrizes Sim´
etricas e Anti-sim´
etricas
2.22 Defini¸c˜ao. Dizemos que uma matriz quadrada A ∈ Mn(F) ´e uma matriz sim´etrica se AT = A.
Dizemos que A ´e uma matriz anti-sim´etrica se AT = −A.
2.23 Proposi¸c˜ao. Os conjuntos das matrizes sim´etricas S e das matrizes anti-sim´etricas A s˜ao subespa¸cos
vetoriais de Mn(F). Al´em disso,
Mn(F) = S ⊕ A.
Prova: Sejam A, B duas matrizes sim´etricas e α, β escalares. Ent˜ao, usando a Proposi¸c˜ao 2.17, temos que (αA + βB)T = αAT+ βBT = αA + βB
e portanto αA + βB ´e sim´etrica. Analogamente, se A, B s˜ao anti-sim´etricas, ent˜ao (αA + βB)T = αAT + βBT = α (−A) + β (−B) = − (αA + βB) e αA + βB ´e portanto anti-sim´etrica.
Para escrever uma matriz A ∈ Mn(F) como a soma de uma matriz sim´etrica e uma matriz anti-sim´etrica,
defina B = A + A T 2 , C = A − A T 2 .
Claramente, A = B + C. Por outro lado, da Proposi¸c˜ao 2.17 vemos que a matriz B ´e sim´etrica e a matriz
C ´e anti-sim´etrica, pois
BT = µ A + AT 2 ¶T = A T +¡AT¢T 2 = AT + A 2 = B, CT = µ A − AT 2 ¶T = A T −¡AT¢T 2 = AT − A 2 = −C.
Falta apenas provar que a ´unica matriz que ´e ao mesmo tempo sim´etrica e anti-sim´etrica ´e a matriz nula. De fato, se A ∈ S ∩ A, ent˜ao
aij= aji
porque A ´e sim´etrica, e
aij= −aji
2.24 Proposi¸c˜ao. Se uma matriz ´e sim´etrica e invert´ıvel, ent˜ao sua inversa tamb´em ´e sim´etrica. Se uma
matriz ´e anti-sim´etrica e invert´ıvel, ent˜ao sua inversa tamb´em ´e anti-sim´etrica.
Prova: Seja A uma matriz sim´etrica, ent˜ao da Proposi¸c˜ao 2.17 (v) segue que ¡
A−1¢T =¡AT¢−1= A−1.
Analogamente se A ´e uma matriz anti-sim´etrica, temos que ¡
A−1¢T =¡AT¢−1= (−A)−1= −¡A−1¢.
¥
2.25 Proposi¸c˜ao. Se A ´e uma matriz qualquer, ent˜ao AAT e ATA s˜ao matrizes sim´etricas.
Prova: Temos ¡
AAT¢T =¡AT¢TAT = AAT.
Analogamente se prova que¡ATA¢T = ATA. ¥
2.4.4
Matrizes Nilpotentes
2.26 Defini¸c˜ao. Dizemos que uma matriz quadrada A ∈ Mn(F) ´e uma matriz nilpotente se Ak= 0 para
algum k.
O conjunto das matrizes nilpotentes n˜ao ´e um subespa¸co vetorial, j´a que a soma de matrizes nilpotentes em geral n˜ao ´e uma matriz nilpotente.
2.27 Exemplo. A matriz A = · 0 1 0 0 ¸
´e nilpotente, pois A2= 0. A matriz
B = 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0
tamb´em ´e nilpotente, pois B3= 0. ¤
2.28 Proposi¸c˜ao. Se A ´e uma matriz nilpotente com Ak = 0, ent˜ao I − A ´e invert´ıvel e
(I − A)−1= I + A + . . . + Ak−1.
Prova: Temos
(I − A)¡I + A + . . . + Ak−1¢= I + A + . . . + Ak−1− A − . . . − Ak−1− Ak = I.
Cap´ıtulo 3
Transforma¸c˜
oes Lineares
3.1
Defini¸c˜
ao
Se¸c˜oes 6.1 e 9.3 do livro-texto
Definida uma estrutura matem´atica sobre conjuntos, ´e importante o estudo das fun¸c˜oes entre estes conjuntos que preservam a estrutura.
3.1 Defini¸c˜ao. Sejam V e W dois espa¸cos vetoriais sobre um mesmo corpo F. Uma fun¸c˜ao T : V −→ W ´e chamada uma transforma¸c˜ao linear se
T (αv + βw) = αT (v) + βT (w) (3.1)
para todos v, w ∈ V e α, β ∈ F.
Transforma¸c˜oes lineares preservam as opera¸c˜oes que definem um espa¸co vetorial, soma e multiplica¸c˜ao por escalar. Em outras palavras, elas preservam combina¸c˜oes lineares.
3.2 Proposi¸c˜ao. Seja T : V −→ W uma transforma¸c˜ao linear entre dois espa¸cos vetoriais. Ent˜ao T (0V) =
0W.
Prova: Observe que estamos usando nota¸c˜oes diferentes para os vetores nulos de cada espa¸co por motivos de clareza. Temos
T (0V) = T (00V) = 0T (0V) = 0W.
¥
O seguinte resultado ajuda a entender o significado de uma transforma¸c˜ao linear:
3.3 Proposi¸c˜ao. Seja T : V −→ W uma transforma¸c˜ao linear entre dois espa¸cos vetoriais. Se U ´e um
subespa¸co de V , ent˜ao T (U ) ´e um subespa¸co de W com dimens˜ao menor ou igual a U . Reciprocamente, se Z ´e um subespa¸co de W , ent˜ao T−1(Z) ´e um subespa¸co de V com dimens˜ao maior ou igual a Z.
Prova: Seja U ´e um subespa¸co de V . Como 0 ∈ U , temos T (U ) 6= ∅. Sejam w1, w2∈ T (U ). Ent˜ao existem
u1, u2∈ U tais que T (u1) = w1, T (u2) = w2. Para todos α, β ∈ F segue que
αw1+ βw2= αT (u1) + βT (u2) = T (αu1+ βu2) ,
e como αu1+ βu2∈ U , conclu´ımos que αw1+ βw2∈ T (U ). Temos dim T (U ) 6 dim U porque se u1, . . . , uk
geram U ent˜ao T (u1) , . . . , T (uk) geram T (U ), mas enquanto que u1, . . . , ukpodem ser L.I., isso n˜ao implica
necessariamente que T (u1) , . . . , T (uk) ser˜ao L.I.
Reciprocamente, seja Z ´e um subespa¸co de W . Sejam v1, v2 ∈ T−1(Z). Ent˜ao T (v1) =: z1, T (v2) =:
z2∈ Z. Para todos α, β ∈ F segue que
T (αv1+ βv2) = αT (v1) + βT (v2) = αz1+ βz2∈ Z,
logo conclu´ımos que αv1+ βv2∈ T−1(Z). ¥
Em outras palavras, uma transforma¸c˜ao linear ´e uma aplica¸c˜ao que leva subespa¸cos vetoriais de V em subespa¸cos vetoriais de W de dimens˜ao menor ou igual que o subespa¸co original. Uma transforma¸c˜ao linear leva retas em retas ou no vetor nulo, planos em planos, retas ou no vetor nulo, e assim por diante. Esta conclus˜ao vale mesmo para subespa¸co afins, isto ´e, para conjuntos obtidos pela transla¸c˜ao de subespa¸cos vetoriais, definidos por
Ux= U + x0= {x + x0: x ∈ U } (3.2)
onde U ´e um subespa¸co vetorial de V ; exemplos s˜ao retas e planos que n˜ao passam pela origem. Uma transforma¸c˜ao linear leva subespa¸cos afins em subespa¸cos afins de dimens˜ao menor que ou igual, pois
T (Ux) = T (U ) + T (x0) . (3.3)
3.4 Exemplo. Sejam V e W dois espa¸cos vetoriais sobre um mesmo corpo F de dimens˜ao finita, BV = {x1, . . . , xn} uma base para V , BW = {y1, . . . , ym} uma base para W e A uma matriz de tamanho
dim W × dim V sobre F. Ent˜ao a aplica¸c˜ao
[T v]BW = A [v]BV define uma transforma¸c˜ao linear T de V em W . ¤
3.5 Teorema. Uma transforma¸c˜ao linear do espa¸co vetorial de dimens˜ao finita V para o espa¸co vetorial
W ´e completamente determinada pelos valores que ela toma em uma base qualquer de V .
Prova: Sejam T : V −→ W uma transforma¸c˜ao linear e B = {x1, . . . , xn} uma base para V . Dado um vetor
v ∈ V , ele se escreve como uma combina¸c˜ao linear
v = α1x1+ . . . + αnxn.
Ent˜ao
T v = T (α1x1+ . . . + αnxn) = α1T (x1) + . . . + αnT (xn) .
¥
Podemos dizer ainda mais: para definir uma transforma¸c˜ao linear T : V −→ W basta estipular os seus valores em uma base:
3.6 Teorema. Sejam V um espa¸co vetorial de dimens˜ao finita, B = {x1, . . . , xn} uma base para V e
y1, . . . , yn vetores quaisquer de um espa¸co vetorial W . Ent˜ao existe uma ´unica transforma¸c˜ao linear
T : V −→ W tal que
T xi= yi (3.4)
para i = 1, . . . , n.
Prova: Como todo vetor v ∈ V se escreve como uma combina¸c˜ao linear dos vetores de B de maneira ´unica
v = α1x1+ . . . + αnxn,
basta definir
Rodney Josu´e Biezuner 27 De fato, para todos os vetores
x = α1x1+ . . . + αnxn,
y = β1x1+ . . . + βnxn,
de V e para todos escalares a, b ∈ F, temos
T (ax + by) = T Ã a n X i=1 αixi+ b n X i=1 βixi ! = T Ã n X i=1 (aαi+ bβi) xi ! = n X i=1 (aαi+ bβi) yi= a n X i=1 αiyi+ b n X i=1 βiyi = aT (x) + bT (y) . A unicidade de T decorre do teorema anterior. ¥
3.2
Representa¸c˜
oes de Transforma¸c˜
oes Lineares atrav´
es de
Matri-zes
Se¸c˜ao 6.1 do livro-texto
Seja T : V −→ W uma transforma¸c˜ao linear entre espa¸cos vetoriais de dimens˜ao finita. Escolha bases
BV = {x1, . . . , xn} para V e BW = {y1, . . . , ym} para W . Ent˜ao, cada vetor x ∈ V se escreve com rela¸c˜ao `a
base BV na forma x = α1x1+ . . . + αnxn= n X i=1 αixi,
para alguns escalares α1, . . . , αn. Da´ı, segue que
T x = T Ã n X i=1 αixi ! = n X i=1 αiT (xi) . Escreva os vetores T x1, . . . , T xn em rela¸c˜ao `a base BW na forma
T (xi) =
m
X
j=1
ajiyj, (3.5)
isto ´e, na forma de matriz coluna:
T (xi) = a1i a2i .. . ami (3.6)
A matriz A = (aij)m×n´e chamada a representa¸c˜ao matricial da transforma¸c˜ao linear T com rela¸c˜ao `as
bases BV e BW. Esta representa¸c˜ao de T tamb´em ser´a denotada por
3.3
Exemplos de Operadores Lineares
Se¸c˜oes 6.1-6.2 do livro-texto
Nesta se¸c˜ao, as transforma¸c˜oes lineares s˜ao definidas a partir de suas matrizes com rela¸c˜ao `a base canˆonica de Rn.
3.7 Defini¸c˜ao. Uma transforma¸c˜ao linear T : V −→ V , isto ´e, de um espa¸co vetorial nele pr´oprio, ´e chamada um operador linear.
3.3.1
Operadores Lineares no Plano R
2Rota¸c˜oes. A rota¸c˜ao de ˆangulo θ em torno da origem no sentido anti-hor´ario ´e definida por
Rθ= · cos θ − sen θ sen θ cos θ ¸ . (3.8) Observe que Rθ(e1) = · cos θ sen θ ¸ e Rθ(e2) = · − sen θ cos θ ¸ .
A inversa de uma rota¸c˜ao de ˆangulo θ ´e uma rota¸c˜ao de ˆangulo −θ (isto ´e, a rota¸c˜ao de ˆangulo θ em torno da origem no sentido hor´ario), pois
RθR−θ = · cos θ − sen θ sen θ cos θ ¸ · cos θ sen θ − sen θ cos θ ¸ = ·
cos2θ + sen2θ cos θ sen θ − sen θ cos θ
sen θ cos θ − cos θ sen θ cos2θ + sen2θ
¸ = · 1 0 0 1 ¸ .
Rota¸c˜oes s˜ao operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o ˆangulo entre eles):
hRθ(v) , Rθ(w)i = hv, wi (3.9) e kRθ(v)k = kvk . (3.10) De fato, hRθ(v) , Rθ(w)i = ¿· cos θ − sen θ sen θ cos θ ¸ · v1 v2 ¸ , · cos θ − sen θ sen θ cos θ ¸ · w1 w2 ¸À = ¿· cos θv1− sen θv2 sen θv1+ cos θv2 ¸ , · cos θw1− sen θw2 sen θw1+ cos θw2 ¸À
= cos2θv1w1− cos θ sen θv1w2− sen θ cos θv2w1+ sen2θv2w2
+ sen2θv1w1+ cos θ sen θv1w2+ sen θ cos θv2w1+ cos2θv2w2
= v1w1+ v2w2 = hv, wi . Da´ı, kRθ(v)k =phRθ(v) , Rθ(v)i = p hv, vi = kvk .
Note ainda que
det Rθ= 1, (3.11)
Rodney Josu´e Biezuner 29 Reflex˜oes. A reflex˜ao em rela¸c˜ao `a reta passando pela origem que faz ˆangulo θ com o eixo x positivo ´e
definida por Hθ= · cos 2θ sen 2θ sen 2θ − cos 2θ ¸ . (3.12) Observe que Hθ(e1) = · cos 2θ sen 2θ ¸ e Hθ(e2) = · sen 2θ − cos 2θ ¸ .
A inversa de uma reflex˜ao ´e ela pr´opria, pois
H2 θ = · cos 2θ sen 2θ sen 2θ − cos 2θ ¸ · cos 2θ sen 2θ sen 2θ − cos 2θ ¸ = ·
cos22θ + sen22θ cos 2θ sen 2θ − sen 2θ cos 2θ
sen 2θ cos 2θ − cos 2θ sen 2θ cos22θ + sen22θ
¸ = · 1 0 0 1 ¸ .
Reflex˜oes s˜ao tamb´em operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o ˆangulo entre eles):
hHθ(v) , Hθ(w)i = hv, wi (3.13) e kHθ(v)k = kvk . (3.14) De fato, hRθ(v) , Rθ(w)i = ¿· cos θ − sen θ sen θ cos θ ¸ · v1 v2 ¸ , · cos θ − sen θ sen θ cos θ ¸ · w1 w2 ¸À = ¿· cos θv1− sen θv2 sen θv1+ cos θv2 ¸ , · cos θw1− sen θw2 sen θw1+ cos θw2 ¸À = cos2θv
1w1− cos θ sen θv1w2− sen θ cos θv2w1+ sen2θv2w2
+ sen2θv
1w1+ cos θ sen θv1w2+ sen θ cos θv2w1+ cos2θv2w2
= v1w1+ v2w2 = hv, wi . Da´ı, kRθ(v)k =phRθ(v) , Rθ(v)i = p hv, vi = kvk .
Note ainda que
det Hθ= −1, (3.15)
de modo que reflex˜oes tamb´em preservam ´areas.
Uma reflex˜ao especial ´e a reflex˜ao em torno da origem, definida por
H = · 0 −1 −1 0 ¸ . (3.16)
Ela tem as mesmas propriedades das outras reflex˜oes.
Contra¸c˜oes e Dilata¸c˜oes. Uma homotetia de raz˜ao k ´e definida por
T = · k 0 0 k ¸ , (3.17)
ou seja,
T (x, y) = (kx, ky) . (3.18)
Se 0 6 k < 1, T ´e chamada uma contra¸c˜ao, e se k > 1, T ´e chamada uma dilata¸c˜ao. Os operadores de homotetia n˜ao preservam nem a norma, nem o produto escalar de vetores, pois
hT (v) , T (w)i = hkv, kwi = k2hv, wi (3.19)
e
kT (v)k = kkvk = k kvk , (3.20)
mas preservam o ˆangulo entre vetores:
] (T (v) , T (w)) = ] (v, w) (3.21) pois ] (T (v) , T (w)) = arccos hT (v) , T (w)i kT (v)k kT (w)k = arccos hkv, kwi k kvk k kwk = arccos k 2hv, wi k2kvk kwk = arccos hv, wi kvk kwk = ] (v, w) . A inversa de uma contra¸c˜ao ´e uma dilata¸c˜ao e vice-versa. Temos
det T = k2,
de modo que homotetias tamb´em n˜ao preservam ´areas.
Compress˜oes e Expans˜oes. Uma compress˜ao horizontal de raz˜ao k e uma expans˜ao horizontal de raz˜ao k s˜ao definidas por
T = · k 0 0 1 ¸ (3.22) se 0 6 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja,
T (x, y) = (kx, y) . (3.23)
Do mesmo modo, uma compress˜ao vertical de raz˜ao k e uma expans˜ao vertical de raz˜ao k s˜ao definidas por T = · 1 0 0 k ¸ (3.24) se 0 6 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja,
Rodney Josu´e Biezuner 31 Cisalhamentos. Um cisalhamento horizontal de raz˜ao k ´e definido por
T = · 1 k 0 1 ¸ , (3.26) ou seja, T (x, y) = (x + ky, y) . (3.27)
Um cisalhamento vertical de raz˜ao k ´e definido por
T = · 1 0 k 1 ¸ , (3.28) ou seja, T (x, y) = (x, kx + y) . (3.29)
Compress˜oes, expans˜oes e cisalhamentos n˜ao preservam nem normas, nem produtos escalares, nem ˆangulos entre vetores. Cisalhamentos preservam ´areas, j´a que seu determinante ´e igual a 1. Cisalhamentos transformam quadrados em paralelogramos de mesma ´area.
Todas os operadores lineares considerados acima s˜ao bijetivos. Vamos considerar agora alguns operadores n˜ao bijetivos.
Proje¸c˜oes. A proje¸c˜ao ortogonal sobre o eixo x ´e definida por
P = · 1 0 0 0 ¸ (3.30) ou seja, P (x, y) = (x, 0) . (3.31)
A proje¸c˜ao ortogonal sobre o eixo y ´e definida por
P = · 0 0 0 1 ¸ (3.32) ou seja, P (x, y) = (0, y) . (3.33)
Em geral, a proje¸c˜ao ortogonal sobre a reta que passa pela origem e faz ˆangulo θ com o eixo x positivo ´e definida por
Pθ= ·
cos2θ sen θ cos θ
sen θ cos θ sen2θ
¸
. (3.34)
Para deduzir a ´ultima express˜ao, note que
Pθv − v =1 2(Hθv − v) , logo Pθv =1 2(Hθv + v) = 1 2(Hθ+ I) v, de modo que Pθ= 1 2 µ· cos 2θ sen 2θ sen 2θ − cos 2θ ¸ + · 1 0 0 1 ¸¶ = 1 + cos 2θ 2 sen 2θ 2 sen 2θ 2 1 − cos 2θ 2 = ·
cos2θ sen θ cos θ
sen θ cos θ sen2θ
¸
3.3.2
Operadores Lineares no Espa¸co R
3Como exerc´ıcio, obtenha as express˜oes matriciais para os correspondentes operadores lineares em R3.
3.3.3
Operadores Lineares em Espa¸cos de Dimens˜
ao Infinita
3.8 Exemplo. Express˜oes lineares envolvendo derivadas s˜ao operadores lineares em P [x] ou Ck(X; R) .
3.3.4
Funcionais Lineares
3.9 Defini¸c˜ao. Um funcional linear ´e uma transforma¸c˜ao linear f : V −→ F.
3.10 Exemplo. A proje¸c˜ao na i-´esima coordenada ´e um funcional linear, isto ´e, πi: Fn −→ F definida por πi(x1, . . . , xn) = xi.
3.11 Exemplo. A integral ´e um funcional linear em C0(X; R):
I (f ) =
Z
X f.
3.4
Composi¸c˜
ao de Transforma¸c˜
oes Lineares
Se¸c˜ao 6.4 do livro-texto
3.12 Proposi¸c˜ao. A composta de transforma¸c˜oes lineares ´e uma transforma¸c˜ao linear.
Prova: Sejam V, W, Z espa¸cos vetoriais e T : V −→ W, S : W −→ Z transforma¸c˜oes lineares. Ent˜ao
S ◦ T : V −→ Z satisfaz
(S ◦ T ) (α1v1+ α2v2) = S [T (α1v1+ α2v2)] = S [α1T (v1) + α2T (v2)] = α1S [T (v1)] + α2S [T (v2)]
= α1(S ◦ T ) (v1) + α2(S ◦ T ) (v2) .
¥
3.13 Teorema. Sejam V , W e Z espa¸cos vetoriais de dimens˜ao finita com bases BV = {x1, . . . , xn},
BW = {y1, . . . , ym} e BZ = {z1, . . . , zp}, respectivamente. Sejam T : V −→ W e S : W −→ Z
transforma¸c˜oes lineares. Ent˜ao
[S ◦ T ]BV,BZ = [S]BW,BZ[T ]BV,BW.
Prova: Sejam
[T ]BV,BW = B = (bij)m×n,
Rodney Josu´e Biezuner 33 Temos (S ◦ T ) (xi) = S [T (xi)] = S Xm j=1 bjiyj =Xm i=1 bjiS (yj) = m X i=1 bji p X k=1 akjzk= p X k=1 Ã m X i=1 bjiakj ! zk = p X k=1 Ãm X i=1 akjbji ! zk = p X k=1 (AB)kizk. ¥
3.14 Defini¸c˜ao. Sejam V e W espa¸cos vetoriais sobre um corpo F. Denote o conjunto das transforma¸c˜oes lineares de V em W por L (V, W ). Definimos as opera¸c˜oes de soma e multiplica¸c˜ao por escalar de elementos de L (V, W ) por
(T + S) (v) := T (v) + S (v) , (αT ) (v) := αT (v) , para todo v ∈ V .
Se V = W , denotamos L (V, W ) simplesmente por L(V ). 3.15 Proposi¸c˜ao. L (V, W ) ´e um espa¸co vetorial sobre F.
3.16 Proposi¸c˜ao. Se V tem dimens˜ao n e W tem dimens˜ao m, ent˜ao L (V, W ) tem dimens˜ao nm. Prova: Sejam BV = {x1, . . . , xn} e BW = {y1, . . . , ym} bases ordenadas de V e W respectivamente. Para
cada par de ´ındices ji, i = 1, . . . , n, j = 1, . . . , m, defina Eji: V −→ W como sendo a ´unica transforma¸c˜ao
linear que satisfaz
Eji(xk) = δikyj, k = 1, . . . , n,
onde δik´e o delta de Kronecker. Em outras palavras, Eji(xk) =
½
yj se i = k, 0 se i 6= k.
Observe que com esta defini¸c˜ao, a matriz que representa Eji em rela¸c˜ao `as bases BV e BW ´e a matriz que
tem 1 na entrada ji e 0 nas demais entradas. Afirmamos que
B = {Eji: i = 1, . . . , n, j = 1, . . . , m}
formam uma base para L (V, W ). Como este conjunto tem nm elementos, isto provar´a o resultado. Para provar que B ´e L.I., suponha que
X
i=1,...,n j=1,...,m
αjiEji= 0
´e uma combina¸c˜ao linear dos Eij produzindo a transforma¸c˜ao nula (que ´e o vetor nulo em ). Ent˜ao, para
cada k = 1, . . . , n temos n X i=1 m X j=1 αjiEji (xk) = 0 (xk) = 0.