• Nenhum resultado encontrado

Álgebra Linear I

N/A
N/A
Protected

Academic year: 2021

Share "Álgebra Linear I"

Copied!
92
0
0

Texto

(1)

Notas de Aula

´

Algebra Linear I

Rodney Josu´

e Biezuner

1

Departamento de Matem´atica

Instituto de Ciˆencias Exatas (ICEx)

Universidade Federal de Minas Gerais (UFMG)

Notas de aula da disciplina ´Algebra Linear I

dos cursos de gradua¸c˜ao em Matem´atica e Matem´atica Computacional, ministrado durante o segundo semestre de 2008.

20 de novembro de 2008

(2)

Sum´

ario

1 Espa¸cos Vetoriais 3

1.1 Defini¸c˜ao . . . 3

1.2 Exemplos . . . 6

1.3 Bases e Dimens˜ao . . . 6

1.3.1 Conjuntos Linearmente Dependentes e Independentes . . . 6

1.3.2 Conjuntos Geradores e Bases . . . 7

1.3.3 Coordenadas de Vetores em Rela¸c˜ao a uma Base . . . 9

1.4 Subespa¸cos Vetoriais . . . 9

1.5 Somas de Subespa¸cos Vetoriais . . . 11

2 Matrizes 14 2.1 Defini¸c˜ao . . . 14

2.2 Opera¸c˜oes com Matrizes . . . 14

2.3 Mudan¸ca de Base . . . 20

2.4 Matrizes Especiais . . . 22

2.4.1 Matrizes Diagonais . . . 22

2.4.2 Matrizes Triangulares . . . 22

2.4.3 Matrizes Sim´etricas e Anti-sim´etricas . . . 23

2.4.4 Matrizes Nilpotentes . . . 24

3 Transforma¸c˜oes Lineares 25 3.1 Defini¸c˜ao . . . 25

3.2 Representa¸c˜oes de Transforma¸c˜oes Lineares atrav´es de Matrizes . . . 27

3.3 Exemplos de Operadores Lineares . . . 28

3.3.1 Operadores Lineares no Plano R2 . . . . 28

3.3.2 Operadores Lineares no Espa¸co R3 . . . . 32

3.3.3 Operadores Lineares em Espa¸cos de Dimens˜ao Infinita . . . 32

3.3.4 Funcionais Lineares . . . 32

3.4 Composi¸c˜ao de Transforma¸c˜oes Lineares . . . 32

3.5 Isomorfismos . . . 34

3.6 Teorema do N´ucleo e da Imagem . . . 37

3.7 Teorema do Posto . . . 40

3.8 Mudan¸ca de Base e Semelhan¸ca de Matrizes . . . 41

4 Espa¸cos com Produto Interno 43 4.1 Produto Interno . . . 43

4.2 Norma . . . 45

4.3 Bases Ortonormais e Proje¸c˜oes Ortogonais . . . 49

4.4 Operador Adjunto . . . 52

4.5 Operadores Unit´arios e Isometrias . . . 56 1

(3)

5 Determinantes 59

5.1 Defini¸c˜ao . . . 59

5.2 Existˆencia . . . 60

5.3 Unicidade . . . 61

5.3.1 Permuta¸c˜oes . . . 61

5.3.2 Demonstra¸c˜ao da Unicidade da Fun¸c˜ao Determinante . . . 63

5.3.3 F´ormula do Determinante atrav´es de Permuta¸c˜oes . . . 65

5.4 Propriedades . . . 66

5.5 Regra de Cramer . . . 68

6 Diagonaliza¸c˜ao de Operadores 70 6.1 Polinˆomios . . . 70

6.2 Autovalores, Autovetores e Autoespa¸cos . . . 74

6.3 Operadores Diagonaliz´aveis . . . 76

6.4 Ideais de Polinˆomios . . . 79

6.5 Polinˆomio M´ınimo e o Teorema de Cayley-Hamilton . . . 80

6.6 Polinˆomio M´ınimo e Operadores Triangulariz´aveis e Diagonaliz´aveis . . . 83

(4)

Cap´ıtulo 1

Espa¸cos Vetoriais

1.1

Defini¸c˜

ao

Intuitivamente, um espa¸co vetorial ´e um conjunto de elementos, que chamamos vetores, com os quais podemos efetuar combina¸c˜oes lineares, isto ´e, somas de elementos e multiplica¸c˜ao de elementos por n´umeros, que chamamos escalares.

Matematicamente falando, os escalares s˜ao elementos de um conjunto munido de uma estrutura alg´ebrica chamada corpo. Grosseiramente, um corpo nada mais ´e que um conjunto de elementos que podem ser somados e multiplicados, a ordem em que estas opera¸c˜oes s˜ao realizadas n˜ao tendo importˆancia para o resultado, onde todo elemento possui um inverso aditivo, existe um elemento neutro na adi¸c˜ao chamado zero (0), existe um elemento neutro na multiplica¸c˜ao chamado identidade (1), todo elemento possui um inverso multiplicativo com exce¸c˜ao do zero e existe uma rela¸c˜ao entre as duas opera¸c˜oes. Exemplos de corpos s˜ao o conjunto dos n´umeros reais R e o conjunto dos n´umeros complexos C. Neste curso, ser˜ao os ´unicos corpos que consideraremos.

1.1 Defini¸c˜ao. Um corpo F ´e um conjunto munido de duas opera¸c˜oes bin´arias F × F −→ F, adi¸c˜ao e

multiplica¸c˜ao que satisfazem as seguintes propriedades:

Adi¸c˜ao:

1. Comutatividade: para todos α, β ∈ F

α + β = β + α.

2. Associatividade: para todos α, β, γ ∈ F

α + (β + γ) = (α + β) + γ.

3. Existˆencia de Elemento Neutro: existe um elemento 0 ∈ F tal que para todo α ∈ F temos

α + 0 = 0 + α = α.

4. Existˆencia de Inverso: para todo α ∈ F existe −α ∈ F tal que

α + (−α) = 0.

Multiplica¸c˜ao:

1. Comutatividade: para todos α, β ∈ F

αβ = βα.

(5)

2. Associatividade: para todos α, β, γ ∈ F

α (βγ) = (αβ) γ.

3. Existˆencia de Elemento Neutro: existe um elemento 1 ∈ F tal que para todo α ∈ F temos

α1 = 1α = α.

4. Existˆencia de Inverso: para todo α ∈ F existe α−1 ∈ F tal que αα−1= 1.

Distributividade: 1. Para todos α, β, γ ∈ F

α (β + γ) = αβ + αγ.

Como mencionado acima, sempre que nos referirmos ao corpo F, fica subentendido que F pode se referir tanto ao corpo dos reais R, quanto ao corpo dos complexos C.

1.2 Defini¸c˜ao. Um espa¸co vetorial sobre um corpo de escalares F ´e um conjunto V munido de duas opera¸c˜oes, adi¸c˜ao de vetores V × V −→ V e multiplica¸c˜ao por escalar F × V −→ V que satisfazem as seguintes propriedades:

Adi¸c˜ao:

1. Comutatividade: para todos v, w ∈ V

v + w = w + v.

2. Associatividade: para todos v, w, u ∈ V

v + (w + u) = (v + w) + u.

3. Existˆencia de Elemento Neutro: existe um elemento 0 ∈ V tal que para todo v ∈ V temos

v + 0 = 0 + v = v.

4. Existˆencia de Inverso: para todo v ∈ V existe −v ∈ V tal que

v + (−v) = (−v) + v = 0.

Multiplica¸c˜ao por Escalar:

1. Existˆencia de Elemento Neutro: para todo v ∈ V vale 1v = v.

2. Associatividade: para todos α, β ∈ F e para todo v ∈ V vale

α (βv) = (αβ) v.

Distributividade:

1. Distributividade em rela¸c˜ao `a soma: para todos v, w ∈ V e para todo α ∈ F

(6)

Rodney Josu´e Biezuner 5 2. Distributividade em rela¸c˜ao `a multiplica¸c˜ao por escalar : para todo v ∈ V e para todos α, β ∈ F

(α + β) v = αv + βv.

Quando F = R, o espa¸co vetorial ´e chamado um espa¸co vetorial real, enquanto que se F = C, o espa¸co vetorial ´e chamado um espa¸co vetorial complexo.

Das propriedades (ou axiomas) que definem um espa¸co vetorial, seguem algumas conseq¨uˆencias simples: 1.3 Proposi¸c˜ao. As seguintes afirmativas s˜ao v´alidas:

(i) α0 = 0. Prova: Temos α0 = α (0 + 0) = α0 + α0, logo α0 + (−α0) = α0 + α0 + (−α0) , donde 0 = α0. (ii) 0v = 0. Prova: Temos 0v = (0 + 0) v = 0v + 0v, logo 0v + (−0v) = 0v + 0v + (−0v) , donde 0 = 0v. (iii) Se α 6= 0 e v 6= 0, ent˜ao αv 6= 0.

Prova: Suponha que exista α ∈ F, α 6= 0, tal que αv = 0 para algum v ∈ V , v 6= 0. Ent˜ao

α−1(αv) = α−10 = 0 logo ¡ α−1α¢v = 0, donde 1v = 0, ou seja, v = 0, contradi¸c˜ao.

(i), (ii) e (iii) juntas implicam que αv = 0 se e somente se α = 0 ou v = 0. (iv) (−1) v = −v. Prova: Temos 0 = 0v = [1 + (−1)] v = 1v + (−1) v = v + (−1) v, logo −v + 0 = −v + v + (−1) v, donde −v = (−1) v.

(v) Unicidade do vetor nulo. Prova:

(7)

1.2

Exemplos

1.4 Exemplo. Rn sob as opera¸c˜oes usuais ´e um espa¸co vetorial real, enquanto que Cn sob as opera¸c˜oes

usuais ´e um espa¸co vetorial complexo. Ou seja, quando definimos a soma de n-uplas de n´umeros reais ou n´umeros complexos por

(x1, . . . , xn) + (y1, . . . , yn) := (x1+ y1, . . . , xn+ yn)

e a multiplica¸c˜ao por escalares por

α (x1, . . . , xn) := (αx1, . . . , αxn) .

1.5 Exemplo. O conjunto Mm×n(R) das matrizes reais m × n sob as opera¸c˜oes usuais ´e um espa¸co vetorial

real. O conjunto Mm×n(C) das matrizes complexas m × n sob as opera¸c˜oes usuais ´e um espa¸co vetorial

complexo.

1.6 Exemplo. O conjunto Pn(R) dos polinˆomios (com coeficientes) reais de grau menor que ou igual a n sob as opera¸c˜oes usuais ´e um espa¸co vetorial real. O conjunto P (R) de todos os polinˆomios reais

tamb´em ´e um espa¸co vetorial real. O conjunto Pn(C) dos polinˆomios (com coeficientes) complexos de

grau menor que ou igual a n sob as opera¸c˜oes usuais ´e um espa¸co vetorial complexo. O conjunto P (C) de todos os polinˆomios complexos tamb´em ´e um espa¸co vetorial complexo.

1.7 Exemplo. O conjunto FR das fun¸c˜oes reais ´e um espa¸co vetorial real. O conjunto FC ´e um espa¸co

vetorial complexo.

1.8 Exemplo. O conjunto C0([0, 1]) das fun¸c˜oes reais cont´ınuas definidas no intervalo [0, 1], o conjunto

Ck([0, 1]) das fun¸c˜oes reais com k derivadas cont´ınuas definidas no intervalo [0, 1], e o conjunto C∞([0, 1]) das fun¸c˜oes reais infinitamente diferenci´aveis definidas no intervalo [0, 1] s˜ao espa¸cos

ve-toriais reais.

1.3

Bases e Dimens˜

ao

1.3.1

Conjuntos Linearmente Dependentes e Independentes

1.9 Defini¸c˜ao. Seja S ⊂ V um subconjunto qualquer de um espa¸co vetorial V sobre o corpo F. Uma combina¸c˜ao linear de elementos de S ´e uma soma finita

α1v1+ . . . + αkvk

com α1, . . . , αk∈ F e v1, . . . , vk∈ S.

1.10 Defini¸c˜ao. Dizemos que um conjunto S ⊂ V ´e linearmente dependente se existir um n´umero finito de elementos v1, . . . , vk ∈ S e escalares α1, . . . , αk ∈ F n˜ao todos nulos tais que

α1v1+ . . . + αkvk = 0.

Caso contr´ario, dizemos que S ´e linearmente independente.

Em outras palavras, S ´e linearmente dependente se o vetor nulo pode ser escrito como uma combina¸c˜ao linear n˜ao-trivial de elementos de S. Da defini¸c˜ao segue que um subconjunto linearmente independente n˜ao pode conter o vetor nulo.

1.11 Lema. Um subconjunto S ⊂ V ´e linearmente dependente se e somente se algum elemento de S puder

(8)

Rodney Josu´e Biezuner 7 Prova. Se S ´e linearmente dependente, ent˜ao existem vetores v1, . . . , vk ∈ S e escalares α1, . . . , αk n˜ao

todos nulos tais que

α1v1+ . . . + αkvk= 0.

Suponha αi 6= 0. Ent˜ao podemos escrever vi=α1 αiv1+ . . . + αi−1 αi vi−1+ αi+1 αi vi+1+ . . . + αk αivk,

isto ´e, vi ´e combina¸c˜ao linear de outros elementos de S.

Reciprocamente, se v0, v1, . . . , vk ∈ S e α1, . . . , αk ∈ F s˜ao tais que

v0= α1v1+ . . . + αkvk,

ent˜ao

v0− α1v1− . . . − αkvk= 0

´e uma combina¸c˜ao linear n˜ao-trivial de elementos de S. ¥

1.3.2

Conjuntos Geradores e Bases

1.12 Defini¸c˜ao. Dizemos que um conjunto S ⊂ V gera o espa¸co V se para todo v ∈ X existirem v1, . . . , vk∈

S e escalares α1, . . . , αk∈ F tais que

v = α1v1+ . . . + αkvk.

1.13 Defini¸c˜ao. Dizemos que um conjunto B ⊂ V ´e uma base para o espa¸co V se:

• B gera V.

• B ´e linearmente independente.

1.14 Defini¸c˜ao. Dizemos que V ´e um espa¸co vetorial de dimens˜ao finita se V possui uma base com um n´umero finito de elementos ou se V = {0}.

O n´umero de elementos nas bases de um espa¸co vetorial ´e um invariante do espa¸co vetorial:

1.15 Teorema. Todas as bases de um espa¸co vetorial de dimens˜ao finita possuem o mesmo n´umero de

elementos.

Prova. A demonstra¸c˜ao deste resultado segue do seguinte lema:

1.16 Lema. Suponha que S = {v1, . . . , vk} gera o espa¸co vetorial V e que S0= {w1, . . . , wl} ´e um

subcon-junto linearmente independente de V . Ent˜ao

l 6 k.

Prova. Suponha por absurdo que l > k. Como S gera V e S0 ´e linearmente independente (em particular,

n˜ao cont´em o vetor nulo) temos

w1= α1v1+ . . . + αkvk

para alguns escalares α1, . . . , αkn˜ao todos nulos. Podemos supor α16= 0, reordenando os ´ındices se necess´ario.

Afirmamos que podemos ent˜ao substituir v1por w1, isto ´e, que o conjunto S1= {w1, v2, . . . , vk} gera V . De

fato, podemos escrever

v1= 1 α1 w1 α2 α1 v2− . . . − αk α1 vk,

(9)

de modo que se v = β1v1+ β2v2+ . . . + βkvk, ent˜ao v = β1 α1 w1+ µ β2− β1α2 α1 ¶ v2+ . . . + µ βk− β1αk α1 ¶ vk.

Agora, como S1gera V e S0 ´e linearmente independente, temos

w2= α1w1+ α2v2+ . . . + αkvk

para alguns escalares α1, . . . , αk, com α2, . . . , αk n˜ao todos nulos (caso contr´ario, w2 seria um m´ultiplo

escalar de w1). Supondo α2 6= 0, reordenando os ´ındices se necess´ario, usamos o mesmo argumento acima

para concluir que podemos substituir v2 por w2, de modo que o conjunto S2 = {w1, w2, v3, . . . , vk} gera

V . Repetindo este procedimento sucessivamente, conclu´ımos que podemos substituir todos os vi’s por um n´umero equivalente de wi’s (j´a que, por hip´otese de absurdo, l > k), e obter que o subconjunto pr´oprio

Sk = {w1, . . . , wk}

de S0 gera V . Mas ent˜ao, por defini¸c˜ao de conjunto gerador, existem escalares α

1, . . . , αk tais que

wk+1= α1w1+ . . . + αkwk

contrariando o fato que S0 ´e linearmente independente. ¥

Sejam B1 = {v1, . . . , vk} e B2 = {w1, . . . , wl} duas bases do espa¸co vetorial de dimens˜ao finita V .

Aplicando o Lema 1.16 ao conjunto gerador B1e ao conjunto linearmente independente B2conclu´ımos que

l 6 k; aplicando o Lema 1.16 ao conjunto gerador B2e ao conjunto linearmente independente B1 conclu´ımos

que k 6 l. Portanto, k = l. ¥

1.17 Defini¸c˜ao. O n´umero de elementos de uma base qualquer de um espa¸co vetorial de dimens˜ao finita V ´e chamada a dimens˜ao do espa¸co e denotada dim V . Se V = {0}, ent˜ao definimos dim V = 0. 1.18 Teorema. Todo espa¸co vetorial n˜ao-nulo gerado por um subconjunto finito possui uma base finita. Prova. Suponha que S seja um subconjunto finito que gera o subespa¸co vetorial n˜ao-nulo V . Se S for linearmente independente, ent˜ao S ´e a base procurada e n˜ao precisamos fazer nada. Caso contr´ario, se S ´e linearmente dependente, podemos retirar um elemento de S e o conjunto resultante ainda gerar´a V (retire um elemento que seja combina¸c˜ao linear dos demais). Se o conjunto restante for linearmente independente, ent˜ao ele ser´a uma base finita para V . Caso contr´ario, repetimos o procedimento, at´e obter um conjunto linearmente independente. ¥

1.19 Lema. Se dim V = n, ent˜ao todo subconjunto de V com mais de n vetores ´e linearmente dependente. Prova. Segue imediatamente do Lema 1.16. ¥

1.20 Lema. Seja S um subconjunto linearmente independente de um espa¸co vetorial V . Suponha que w ´e

um vetor de V que n˜ao ´e gerado por S. Ent˜ao S ∪ {w} ´e linearmente independente.

Prova. Suponha que v1, . . . , vk∈ S e existem escalares α1, . . . , αk, β tais que α1v1+ . . . + αkvk+ βw = 0.

Ent˜ao β = 0, caso contr´ario

w = α1

β v1+ . . . + αk

β vk,

o que implicaria que w ´e gerado por V , contrariando a hip´otese. Mas ent˜ao

α1v1+ . . . + αkvk= 0,

(10)

Rodney Josu´e Biezuner 9 1.21 Teorema. Todo subconjunto linearmente independente de um espa¸co vetorial de dimens˜ao finita pode

ser completado at´e uma base do espa¸co.

Prova. Suponha que S = {v1, . . . , vk} seja um subconjunto linearmente independente de V . Se S n˜ao

´e uma base para V , ou seja, se k < n := dim V , ent˜ao existe um vetor vk+1 ∈ V tal que vk+1 n˜ao ´e

uma combina¸c˜ao linear de elementos de S. Segue do Lema 1.20 que o conjunto S1 = {v1, . . . , vk, vk+1} ´e

linearmente independente. Se k + 1 < n, repetimos o processo. Continuamos este argumento, repetindo o processo n − k vezes at´e encontrar um subconjunto Sn−k = {v1, . . . , vk, vk+1, . . . , vn} que ´e uma base para

V . ¥

1.3.3

Coordenadas de Vetores em Rela¸c˜

ao a uma Base

1.22 Proposi¸c˜ao. Seja V um espa¸co vetorial de dimens˜ao finita e B = {v1, . . . , vn} uma base para V .

Ent˜ao todo vetor em V se escreve de maneira ´unica como uma combina¸c˜ao linear de vetores de B.

Prova. Suponha que v ∈ V pode ser representado por duas combina¸c˜oes lineares de vetores de B:

v = α1v1+ . . . + αnvn, v = α0 1v1+ . . . + α0nvn. Ent˜ao 1− α01) v1+ . . . + (αn− α0n) vn= 0, donde α1= α01, . . . , αn = α0n. ¥

1.23 Defini¸c˜ao. Seja V um espa¸co vetorial de dimens˜ao finita e B = {v1, . . . , vn} uma base ordenada para

V . Dado v ∈ V , se

v = α1v1+ . . . + αnvn,

a n-upla (α1, . . . , αn) ´e chamada as coordenadas de v com rela¸c˜ao `a base B, e denotada por

[v]B= (α1, . . . , αn) .

As coordenadas de um vetor dependem da base escolhida. No pr´oximo cap´ıtulo, veremos como as coordenadas de um vetor em rela¸c˜ao a uma base mudam quando mudamos de base.

1.4

Subespa¸cos Vetoriais

1.24 Defini¸c˜ao. Seja V um espa¸co vetorial sobre um corpo F. Um subespa¸co de V ´e um subconjunto

W ⊂ V que ´e ele pr´oprio um espa¸co vetorial sobre F com as opera¸c˜oes de soma e multiplica¸c˜ao escalar

induzidas de V .

1.25 Proposi¸c˜ao. Um subconjunto n˜ao-vazio W ⊂ V ´e um subespa¸co de V se e somente se ele ´e fechado

com rela¸c˜ao `as opera¸c˜oes de soma e multiplica¸c˜ao por escalar. Em outras palavras, W ⊂ V ´e um subespa¸co de V se e somente se αv + βw ∈ W para todos v, w ∈ V e para todos α, β ∈ F.

Prova. Suponha que W ⊂ V , W 6= ∅, ´e fechado com rela¸c˜ao `as opera¸c˜oes de soma e multiplica¸c˜ao por escalar. Como as opera¸c˜oes de soma e multiplica¸c˜ao por escalar definidas em W s˜ao herdadas das opera¸c˜oes definidas em V , comutatividade, associatividade e distributividade s˜ao imediatamente v´alidas e 1v = v para todo v ∈ W . Basta apenas verificar as duas propriedades seguintes:

• 0 ∈ W : pois se v ∈ W ´e qualquer vetor (lembre-se que W 6= ∅), ent˜ao 0 = 0v ∈ W . • Se v ∈ W , ent˜ao −v ∈ W : pois −v = (−1) v ∈ W.

(11)

A rec´ıproca ´e ´obvia, pois V ´e um espa¸co vetorial sobre F e W ⊂ V ´e um espa¸co vetorial sobre F com as opera¸c˜oes de soma e multiplica¸c˜ao escalar induzidas do pr´oprio V . ¥

1.26 Teorema. A interse¸c˜ao de qualquer fam´ılia de subespa¸cos de um espa¸co vetorial V ´e um subespa¸co

de V .

Prova. Seja {Wλ}λ∈Λ uma cole¸c˜ao de subespa¸cos de V e W = T

λ∈Λ

sua interse¸c˜ao. Como cada Wλ

cont´em o vetor nulo, segue que W tamb´em cont´em o vetor nulo e podemos usar a Proposi¸c˜ao 1.25 para provar que W ´e um subespa¸co. Dados quaisquer v, w ∈ W , temos que v, w ∈ Wλ para cada ´ındice λ ∈ Λ

(por defini¸c˜ao de interse¸c˜ao de conjuntos), logo αv + βw ∈ Wλ para todos α, β ∈ F (pela Proposi¸c˜ao 1.25,

pois cada Wλ´e um subespa¸co de V ), portanto αv + βw ∈ W para todos α, β ∈ F (novamente, pela defini¸c˜ao

de interse¸c˜ao de conjuntos). Segue da Proposi¸c˜ao 1.25 que W ´e um subespa¸co. ¥

Segue do Teorema 1.26 que, dado um subconjunto de um espa¸co vetorial, existe um menor subespa¸co que o cont´em:

1.27 Defini¸c˜ao. Seja V um espa¸co vetorial sobre um corpo F e S um subconjunto de V . O subespa¸co gerado por S ´e a interse¸c˜ao de todos os subespa¸cos de V que cont´em S. Denotaremos o subespa¸co gerado por S por hSi.

1.28 Proposi¸c˜ao. O subespa¸co gerado por um subconjunto n˜ao-vazio S de um espa¸co vetorial V ´e o

con-junto de todas as combina¸c˜oes lineares de elementos de S.

Prova. Denote por W o subespa¸co gerado por S e por W0 o conjunto de todas as combina¸c˜oes lineares

de elementos de S. Pela Proposi¸c˜ao 1.25, como S ⊂ W , segue que W0 ⊂ W . Por outro lado, tamb´em pela

Proposi¸c˜ao 1.25 o conjunto W0´e um subespa¸co de V , logo W ⊂ W0 por defini¸c˜ao (pois W0 ´e um subespa¸co

de V que cont´em S). Assim W0= W . ¥

1.29 Lema. Seja W um subespa¸co de um espa¸co vetorial de dimens˜ao finita V . Ent˜ao todo subconjunto

linearmente independente de W ´e finito e pode ser completado at´e uma base de W .

Prova. Seja S um subconjunto linearmente independente de W com k elementos e suponha que dim V = n. Como S ´e tamb´em um conjunto linearmente independente de V , segue do Lema 1.16 que S ´e finito; mais ainda, que k 6 n. Para completar S at´e uma base de W seguimos um procedimento semelhante ao usado no Teorema 1.21: se S n˜ao gera W , obtemos um vetor w1 ∈ W tal que W n˜ao ´e gerado por S. Segue do

Lema 1.20 que S1 = S ∪ {w1} ´e linearmente independente. Se S1 gera W , ent˜ao ele ´e uma base para W .

Caso contr´ario, existe um vetor w2 ∈ W que n˜ao ´e gerado por S1. Novamente pelo Lema 1.20, o conjunto

S2 = S1 ∪ {w2} = S ∪ {w1, w2} ´e linearmente independente. Continuando desta forma, eventualmente

encontraremos um conjunto Sl= S ∪ {w1, . . . , wl}, com l 6 n − k, que deve ser uma base para W . De fato,

suponha por absurdo que Sl possui n elementos e n˜ao gera W . Ent˜ao existe um vetor w ∈ W que n˜ao ´e

gerado por Sl, o que implica pelo Lema 1.20 que Sl∪ {w} ´e um conjunto linearmente independente em W ,

e portanto tamb´em em V , com n + 1 elementos, o que ´e uma contradi¸c˜ao. ¥

1.30 Teorema. Se W ´e um subespa¸co pr´oprio de um espa¸co vetorial de dimens˜ao finita V , ent˜ao W tamb´em

tem dimens˜ao finita e dim W < dim V .

Prova. O resultado ´e ´obvio se W ´e o subespa¸co nulo. Se W n˜ao ´e o subespa¸co nulo, seja v ∈ W , v 6= 0. Pelo Lema 1.29, existe uma base de W contendo v. Como esta base de W ´e em particular um subconjunto linearmente independente de V , ela n˜ao pode conter mais que dim V elementos. Portanto, dim W 6 dim V . Por outro lado, como W ´e um subespa¸co pr´oprio de V , existe um vetor w ∈ V tal que w /∈ W . Adicionando w a qualquer base de W , obtemos pelo Lema 1.20 um conjunto linearmente independente de V . Isso implica

(12)

Rodney Josu´e Biezuner 11

1.5

Somas de Subespa¸cos Vetoriais

1.31 Defini¸c˜ao. Sejam S1, . . . , Sk subconjuntos de um espa¸co vetorial V . Definimos a soma dos

subcon-juntos S1, . . . , Sk como sendo o conjunto

k

X

i=1

Si= S1+ . . . + Sk= {v1+ . . . + vk: vi∈ Si para i = 1, . . . k} .

1.32 Proposi¸c˜ao. Se W1, . . . , Wks˜ao subespa¸cos de um espa¸co vetorial V , ent˜ao a sua soma W1+. . .+Wk tamb´em ´e um subespa¸co vetorial de V e cont´em cada um dos subespa¸cos Wi, i = 1, . . . k.

Prova. Pois se

v = w1+ . . . + wk,

w = w10 + . . . + w0k,

s˜ao dois vetores quaisquer de W1+ . . . + Wk com wi, wi0 ∈ Wi para cada i e α, β s˜ao escalares quaisquer,

segue que

αv + βw = (αw1+ βw10) + . . . + (αwk+ βw0k) ∈ W1+ . . . + Wk.

A ´ultima afirma¸c˜ao do enunciado ´e ´obvia, pois o vetor nulo esta em cada um dos subespa¸cos. ¥

1.33 Teorema. Se W1, W2s˜ao dois subespa¸cos de dimens˜ao finita de um espa¸co vetorial V , ent˜ao W1+W2

tamb´em tem dimens˜ao finita e

dim (W1+ W2) = dim W1+ dim W2− dim (W1∩ W2)

Prova. Pelo Teorema 1.30, W1∩ W2 tem uma base finita

{v1, . . . , vn} .

Pelo Teorema 1.21, esta ´e parte de uma base

B1= {v1, . . . , vn, w1, . . . , wk}

para W1 e parte de uma base

B2= {v1, . . . , vn, u1, . . . , ul}

para W2. O subespa¸co W1+ W2´e gerado pelo conjunto

B = {v1, . . . , vn, w1, . . . , wk, u1, . . . , ul} .

Basta provar que B ´e L.I. para terminar a demonstra¸c˜ao, pois ent˜ao B ser´a uma base para W1+ W2 e

portanto

dim W1+ dim W2= (n + k) + (n + l) = (n + k + l) + n

= dim (W1+ W2) + dim (W1∩ W2) .

De fato, suponha que

n X i=1 αivi+ k X i=1 βiwi+ l X i=1 γiui= 0. Escrevendo u := l X i=1 γiui= − n X i=1 αivi− k X i=1 βiwi,

(13)

vemos que u ∈ W1tamb´em (certamente u ∈ W2). Em particular, existem escalares δ1, . . . , δn tais que u = n X i=1 δivi.

Logo, subtraindo as duas express˜oes para u, obtemos

n X i=1 δivi− l X i=1 γiui= 0,

e como {v1, . . . , vn, u1, . . . , ul} ´e L.I., conclu´ımos que

δ1= . . . = δn= γ1= . . . = γl= 0. Mas ent˜ao n X i=1 αivi+ k X i=1 βiwi = 0 e como {v1, . . . , vn, w1, . . . , wk} ´e L.I., segue que

α1= . . . = αn= β1= . . . = βk= 0.

¥

1.34 Defini¸c˜ao. Sejam W1, W2 dois subespa¸cos de um espa¸co vetorial V . Dizemos que o subespa¸co W =

W1+ W2´e a soma direta dos subespa¸cos W1 e W2se W1∩ W2= {0}. Neste caso, denotamos

W = W1⊕ W2.

1.35 Proposi¸c˜ao. Se W = W1⊕ W2, ent˜ao

dim W = dim W1+ dim W2.

Prova. Segue imediatamente do Teorema 1.33 quando se observa que W1∩ W2= {0}. ¥

1.36 Proposi¸c˜ao. W = W1⊕ W2 se e somente se todo elemento w ∈ W se escrever de maneira ´unica

como uma soma w = w1+ w2, w1∈ W1 e w2 ∈ W2 (em outras palavras, W1 e W2 s˜ao linearmente

independentes).

Prova. Assuma que W1∩ W2= {0}. Seja w ∈ W e suponha que

w = w1+ w2 w = w0 1+ w20 w1, w01∈ W1 e w2, w02∈ W2. Ent˜ao (w1− w01) + (w2− w02) = 0, donde (w1− w10) = − (w2− w02) .

Mas ent˜ao, (w1− w01) ∈ W1∩ W2e (w2− w20) ∈ W1∩ W2, logo w1− w01= 0 e w2− w02= 0, ou seja, w1= w10

e w2= w02.

Reciprocamente, assuma que todo elemento w ∈ W se escreve de maneira ´unica como uma soma w =

(14)

Rodney Josu´e Biezuner 13 0 = v + (−v) ´e um vetor de W que se escreve pelo menos de duas maneiras como a soma de vetores de W1

e W2:

0 = v + (−v) , 0 = 0 + 0. ¥

1.37 Teorema. Seja V um espa¸co vetorial de dimens˜ao finita. Ent˜ao todo subespa¸co W ⊂ V possui um

complemento em V , isto ´e, existe um subespa¸co Z ⊂ V tal que V = W ⊕ Z.

Prova. Se W = {0} ou W = V , tome Z = V ou Z = {0}. Caso contr´ario, seja {v1, . . . , vk} uma base para

W . Complete esta base at´e uma base para V : {v1, . . . , vk, w1, . . . , wl}. Ent˜ao tomamos como Z o subespa¸co

gerado pelos vetores w1, . . . , wl. De fato, se W ∩ Z 6= {0}, tomando um vetor n˜ao-nulo u ∈ W ∩ Z, ter´ıamos

escalares n˜ao todos nulos α1, . . . , αk, β1, . . . , βltais que

u = k X i=1 αivi, u = l X i=1 βiwi, donde k X i=1 αivi− l X i=1 βiwi = 0

seria uma combina¸c˜ao linear n˜ao trivial produzindo o vetor nulo, contradizendo o fato que {v1, . . . , vk, w1, . . . , wl}

(15)

Cap´ıtulo 2

Matrizes

2.1

Defini¸c˜

ao

2.1 Defini¸c˜ao. Uma matriz m × n A sobre o corpo F ´e uma fun¸c˜ao A : [1, m] × [1, n] −→ F.

O conjunto das matrizes m × n sobre F ser´a denotado por Mm×n(F) e por Mn(F) se n = m. Se F = R

dizemos que a matriz ´e real, e se F = C dizemos que a matriz ´e complexa.

A imagem A (i, j) ´e chamado uma entrada ou elemento da matriz e denotada por Aij ou aij. A matriz A tamb´em ´e denotada freq¨uentemente por A = (aij) e o sub´ındice m × n pode ser usado para denotar

o que chamamos o tamanho da matriz.

Representamos A como uma tabela de m × n escalares de F dispostos em m linhas e n colunas:

A =      a11 a12 . . . a1n a21 a22 . . . a2n .. . ... . .. ...

am1 am2 . . . amn

    . A i-´esima linha de A ´e a matriz 1 × n

£

ai1 ai2 . . . ain ¤,

onde 1 6 i 6 m, enquanto que a j-´esima coluna de A ´e a matriz m × 1      a1j a2j .. . amj     ,

onde 1 6 j 6 n. Uma matriz n × n ´e chamada uma matriz quadrada de tamanho n.

2.2

Opera¸c˜

oes com Matrizes

Se¸c˜oes 3.1-3.2 do livro-texto

Sobre o conjunto Mm×n(F) das matrizes m × n definimos as opera¸c˜oes a seguir.

2.2 Defini¸c˜ao. A soma de matrizes ´e a opera¸c˜ao bin´aria Mm×n(F)×Mm×n(F) −→ Mm×n(F), (A, B) 7→ A + B definida por

(A + B)ij = Aij+ Bij.

(16)

Rodney Josu´e Biezuner 15 2.3 Proposi¸c˜ao. A soma de matrizes satisfaz as seguintes propriedades:

(i) Comutatividade: para todas A, B ∈ Mm×n(F) temos A + B = B + A.

Prova:

(A + B)ij= Aij+ Bij = Bij+ Aij = (B + A)ij.

¥

(ii) Associatividade: para todos A, B, C ∈ Mm×n(F) temos

A + (B + C) = (A + B) + C. Prova: [A + (B + C)]ij = Aij+ (B + C)ij = Aij+ (Bij+ Cij) = (Aij+ Bij) + Cij = (A + B)ij+ Cij = [(A + B) + C]ij. ¥

(iii) Existˆencia de Elemento Neutro: a matriz nula 0 ∈ Mm×n(F) definida por 0ij = 0 satisfaz A + 0 = 0 + A = A

para toda A ∈ Mm×n(F). Prova:

(A + 0)ij= Aij+ 0ij= Aij+ 0 = Aij

e a outra express˜ao segue por comutatividade. ¥

(iv) Existˆencia de Inverso: para toda A ∈ Mm×n(F) existe −A ∈ Mm×n(F) tal que A + (−A) = (−A) + A = 0. Prova: Defina (−A)ij = − (Aij) . Ent˜ao [A + (−A)]ij= h Aij+ (−A)ij i = [Aij+ (− (Aij))] = 0 = 0ij. ¥

2.4 Defini¸c˜ao. A multiplica¸c˜ao de uma matriz por um escalar ´e a opera¸c˜ao bin´aria F×Mm×n(F) −→

Mm×n(F), (α, A) 7→ αA definida por

(αA)ij = αAij.

(17)

(i) Existˆencia de Elemento Neutro: para todo A ∈ Mm×n(F) temos

1A = A. Prova:

(1A)ij= 1Aij= Aij.

¥

(ii) Associatividade: para todos α, β ∈ F e para toda A ∈ Mm×n(F) temos α (βA) = (αβ) A.

Prova:

[α (βA)]ij = α (βA)ij= α (βAij) = (αβ) Aij.

¥

2.6 Proposi¸c˜ao. A soma de matrizes e a multiplica¸c˜ao de uma matriz por um escalar satisfazem as seguintes

propriedades:

(i) Distributividade em rela¸c˜ao `a soma: para todas A, B ∈ Mm×n(F) e para todo α ∈ F temos α (A + B) = αA + αB.

Prova:

[α (A + B)]ij= α (A + B)ij = αAij+ αBij = (αA)ij+ (αB)ij = [αA + αB]ij.

¥

(ii) Distributividade em rela¸c˜ao `a multiplica¸c˜ao por escalar: para toda A ∈ Mm×n(F) e para todos α, β ∈ F temos

(α + β) A = αA + βA. Prova:

[(α + β) A]ij= (α + β) Aij = αAij+ βAij = (αA)ij+ (βA)ij= (αA + βA)ij.

¥

As Proposi¸c˜oes 2.3, 2.5 e 2.6 juntas provam que as opera¸c˜oes de soma de matrizes e multiplica¸c˜ao de uma matriz por um escalar transformam o conjunto Mm×n(F) em um espa¸co vetorial sobre o corpo F.

2.7 Defini¸c˜ao. O produto de matrizes ´e a opera¸c˜ao bin´aria Mm×p(F) × Mp×n(F) −→ Mm×n(F),

(A, B) 7→ AB definida por

(AB)ij =

p

X

k=1

AikBkj.

A motiva¸c˜ao para definir o produto de matrizes desta forma ´e dada pela sua utilidade na resolu¸c˜ao de sistemas de equa¸c˜oes lineares.

(18)

Rodney Josu´e Biezuner 17 (i) Associatividade: para todas A ∈ Mm×p(F) , B ∈ Mp×q(F) , C ∈ Mq×n(F) temos

A (BC) = (AB) C. Prova: [A (BC)]ij = p X k=1 Aik(BC)kj= p X k=1 Aik à n X l=1 BklClj ! = p X k=1 n X l=1 AikBklClj = n X l=1 p X k=1 AikBklClj= n X l=1 à p X k=1 AikBkl ! Clj= n X l=1 (AB)ilClj = [(AB) C]ij. ¥

(ii) Existˆencia de Elemento Neutro: a matriz identidade In ∈ Mn(F) definida por

(In)ij = δij= ½ 1 se i = j, 0 se i 6= j, isto ´e, In =      1 0 . . . 0 0 1 . . . 0 .. . ... . .. ... 0 0 . . . 1     , satisfaz AIn= ImA = A para toda A ∈ Mm×n(F). Prova: (AIn)ij = n X k=1 Aikδkj= Aij, (ImA)ij = m X k=1 δikAkj= Aij. ¥

(iii) Distributividade em rela¸c˜ao `a soma de matrizes: para todas A ∈ Mm×p(F) , B, C ∈ Mp×n(F) temos

A (B + C) = AB + AC.

Prova: Exerc´ıcio. ¥

Quando for claro do contexto o valor de n, escreveremos simplesmente I para denotar a matriz identidade. Diferentemente da opera¸c˜ao de adi¸c˜ao, a opera¸c˜ao de produto de matrizes n˜ao possui uma inversa para cada matriz. N˜ao apenas a matriz nula n˜ao possui um inverso multiplicativo (o que tamb´em ocorre em um corpo), como existe um n´umero de matrizes que n˜ao possuem inversas:

2.9 Exemplo. Seja A = · 1 1 1 1 ¸ .

(19)

Suponha que B = · x y z w ¸ satisfa¸ca AB = · 1 1 1 1 ¸ · x y z w ¸ = · 1 0 0 1 ¸ = I. Ent˜ao        x + z = 1 y + w = 0 x + z = 0 y + w = 1

e este sistema n˜ao possui solu¸c˜ao. O mesmo argumento mostra que qualquer matriz da forma ·

α α α α

¸

qualquer que seja o escalar α ∈ F n˜ao possui inverso multiplicativo. ¤ 2.10 Defini¸c˜ao. Seja A ∈ Mn(F). Se existir uma matriz A−1∈ Mn(F) tal que

AA−1= A−1A = I

dizemos que A ´e invert´ıvel e chamamos A−1 de a inversa de A.

Observe que a inversa de uma matriz ´e ´unica, pois se B e C s˜ao duas matrizes tais que

AB = BA = I, AC = CA = I,

ent˜ao

B = BI = B (AC) = (BA) C = IC = C.

2.11 Proposi¸c˜ao. Se A e B s˜ao matrizes invert´ıveis, ent˜ao AB tamb´em ´e e (AB)−1 = B−1A−1. Prova: (AB)¡B−1A−1¢= A¡BB−1¢A−1= AIA−1= AA−1= I, ¡ B−1A−1¢(AB) = B−1¡A−1A¢B = B−1IB = B−1B = I. ¥

2.12 Exerc´ıcio. Se A e B s˜ao duas matrizes tais que o produto AB ´e invert´ıvel, ´e verdade que A e B tamb´em s˜ao invert´ıveis?

2.13 Teorema. Se AB = I ent˜ao BA = I.

Prova: Se AB = I, ent˜ao a ´unica solu¸c˜ao do sistema BX = 0 ´e a solu¸c˜ao trivial, pois X = IX =

ABX = A0 = 0. Em particular, isso implica que a matriz B ´e equivalente por linhas `a matriz identidade I,

(20)

Rodney Josu´e Biezuner 19 `a matriz identidade significa que existem matrizes elementares E1, . . . , Ek (correspondentes `as opera¸c˜oes

elementares sobre as linhas da matriz B) tais que

Ek. . . E1B = I.

Como as matrizes elementares s˜ao invert´ıveis (porque a inversa de uma opera¸c˜ao elementar ´e tamb´em uma opera¸c˜ao elementar), segue que

B = E1−1. . . Ek−1.

Portanto, B ´e o produto de matrizes invert´ıveis, logo ´e invert´ıvel. Seja C tal que BC = I. Para terminar a demonstra¸c˜ao deste teorema, resta apenas provar que C = A. E, de fato, multiplicando a equa¸c˜ao

AB = I

`a direita por C, segue que

(AB) C = IC donde

A (BC) = C ⇒ AI = C ⇒ A = C.

¥

O produto de matrizes n˜ao ´e comutativo: 2.14 Exemplo. Sejam A = · 1 0 0 0 ¸ e B = · 0 1 0 0 ¸ . Ent˜ao AB = · 1 0 0 0 ¸ · 0 1 0 0 ¸ = · 0 1 0 0 ¸ , BA = · 0 1 0 0 ¸ · 1 0 0 0 ¸ = · 0 0 0 0 ¸ . ¤

O fato de existirem matrizes que n˜ao possuem inversas e do produto de matrizes n˜ao ser comutativo faz com que muitas propriedades satisfeitas pelos n´umeros reais e complexos n˜ao serem satisfeitas pelas matrizes. 2.15 Exerc´ıcio. Determine se as afirmativas a seguir s˜ao falsas ou verdadeiras. Se a afirmativa for

verda-deira, prove; se a afirmativa for falsa, dˆe um contraexemplo e determine se existe alguma situa¸c˜ao onde a afirmativa ´e v´alida:

1. (Lei do Cancelamento) Se AB = AC, ent˜ao B = C.

2. Se A, B s˜ao matrizes quadradas, ent˜ao (A + B)2= A2+ 2AB + B2.

3. Se A, B s˜ao matrizes quadradas, ent˜ao (A − B)2= A2− B2.

4. Se AB = 0, ent˜ao A = 0 ou B = 0. 5. Se AB = 0, ent˜ao BA = 0.

6. Se A2= 0, ent˜ao A = 0.

¤

2.16 Defini¸c˜ao. A transposta de uma matriz m × n A ∈ Mm×n(F) ´e a matriz n × m AT ∈ Mn×m(F)

definida por ¡

AT¢

(21)

2.17 Proposi¸c˜ao. A transposta de matrizes satisfaz as seguintes propriedades: (i) ¡AT¢T = A.

(ii) (A + B)T = AT + BT.

(iii) (αA)T = αAT.

(iv) (AB)T = BTAT. (v) ¡A−1¢T =¡AT¢−1. Prova de (iv): h (AB)T i ij = (AB)ji= p X k=1 AjkBki= p X k=1 £ AT¤kj£BT¤ik= p X k=1 £ BT¤ik£AT¤kjBTAT¤ij

Prova de (v): Por (iv), segue que

I = IT =¡AA−1¢T =¡A−1¢TAT.

¥

2.3

Mudan¸ca de Base

Se¸c˜ao 7.11 do livro-texto

Sejam B = {v1, . . . , vn} e B0= {w1, . . . , wn} duas bases para o espa¸co vetorial V . Suponha que um vetor

v ∈ V se escreve na forma v = x1v1+ . . . + xnvn = n X i=1 xivi

como combina¸c˜ao linear dos vetores da base B, ou seja,

v = (x1, . . . , xn)

s˜ao as coordenadas de v em rela¸c˜ao `a base B, isto ´e,

[v]B=    x1 .. . xn    ,

convencionando representar as coordenadas de vetores em rela¸c˜ao a uma base como matrizes-coluna. Como obter as coordenadas de v em rela¸c˜ao `a base B0?

Sabemos que existem escalares pji∈ F tais que vi= n X j=1 pjiwj para i = 1, . . . , n. Ent˜ao v = n X i=1 xivi = n X i=1 xi   n X j=1 pjiwj   = n X i=1 n X j=1 xipjiwj= n X j=1 Ã n X i=1 xipji ! wj = n X j=1 Ã n X i=1 pjixi ! wj.

(22)

Rodney Josu´e Biezuner 21 Assim, yj= n X i=1 pjixi. Portanto, se P = (pij) =      p11 p12 . . . p1n p21 p22 . . . p2n .. . ... . .. ... pm1 pm2 . . . pmn     , segue que    y1 .. . yn    =      p11 p12 . . . p1n p21 p22 . . . p2n .. . ... . .. ... pm1 pm2 . . . pmn         x1 .. . xn    ou seja, [v]B0 = P [v]B.

Em outras palavras, as coordenadas do vetor v em rela¸c˜ao `a base B0 s˜ao obtidas atrav´es de multiplicar as

coordenadas de v em rela¸c˜ao `a base B pela matriz P , cujas colunas s˜ao as coordenadas dos vetores da base

B em rela¸c˜ao `a base B0. P ´e chamada a matriz de mudan¸ca de base da base B para a base B0.

2.18 Proposi¸c˜ao. A matriz de mudan¸ca de base ´e invert´ıvel. Prova: Pois a ´unica solu¸c˜ao de

P X = 0

´e a solu¸c˜ao identicamente nula, porque o ´unico vetor que tem coordenadas nulas em rela¸c˜ao a qualquer base ´e o vetor nulo. ¥

Em particular, segue que

[v]B= P−1[v] B0,

isto ´e, a matriz de mudan¸ca de base da base B0 para a base B ´e a inversa P−1.

2.19 Exemplo. Obtenha as coordenadas do vetor v = (1, 2, 3) ∈ R3em rela¸c˜ao `a base B0= {(1, 1, 0) , (1, 0, 1) , (0, 1, 1)} .

Temos que a matriz de mudan¸ca de base ´e

P =   1 1 01 0 1 0 1 1   −1 =   1 2 12 12 1 2 12 12 12 12 12 . Logo as coordenadas de v em rela¸c˜ao a B0 s˜ao

  1 2 12 12 1 2 12 12 12 12 12     12 3   =   01 2   .

(23)

Observe que   1 2 12 12 1 2 12 12 1 2 12 12     11 0   =   10 0   ,   1 2 12 12 1 2 12 12 1 2 12 12     10 1   =   01 0   ,   1 2 12 12 1 2 12 12 1 2 12 12     01 1   =   00 1   ,

pois estas s˜ao as coordenadas dos vetores da base em rela¸c˜ao a ela pr´opria. ¤

2.4

Matrizes Especiais

Se¸c˜ao 3.6 do livro-texto

2.4.1

Matrizes Diagonais

2.20 Defini¸c˜ao. Dizemos que uma matriz quadrada D ∈ Mn(F) ´e uma matriz diagonal se aij = 0 para

todo i 6= j.

Uma matriz diagonal tem a forma

D =      a11 0 . . . 0 0 a22 . . . 0 .. . ... . .. ... 0 0 . . . ann     ,

isto ´e, todos os elementos fora da diagonal principal s˜ao nulos. O conjunto das matrizes diagonais Dn(F) ´e

um subespa¸co vetorial de dimens˜ao n.

2.4.2

Matrizes Triangulares

2.21 Defini¸c˜ao. Dizemos que uma matriz quadrada T ∈ Mn(F) ´e uma matriz triangular superior se aij = 0 para todo i > j. Dizemos que T ´e uma matriz triangular inferior se aij = 0 para todo i < j. Uma matriz triangular superior ou inferior, ´e tamb´em chamada simplesmente uma matriz

triangular.

Uma matriz triangular superior tem a forma

T =           a11 a12 a13 . . . . . . a1n 0 a22 a23 . . . . . . a2n 0 0 a33 . . . . . . a3n 0 0 0 . .. ... ... .. . ... ... . .. an−1,n−1 an−1,n 0 0 . . . . . . 0 ann           ,

(24)

Rodney Josu´e Biezuner 23 isto ´e, todos os elementos abaixo da diagonal principal s˜ao nulos, enquanto que uma matriz triangular inferior tem a forma T =           a11 0 0 . . . . . . 0 a21 a22 0 . . . . . . 0 a31 a32 a33 . .. . . . 0 .. . ... ... . .. 0 ... an−1,1 . . . . . . . . . an−1,n−1 0

an1 . . . . . . . . . an,n−1 ann

          ,

isto ´e, todos os elementos acima da diagonal principal s˜ao nulos. Ambos os conjuntos de matrizes trian-gulares superiores Un(F) e de matrizes triangulares inferiores Ln(F) s˜ao subespa¸cos vetoriais de dimens˜ao n (n + 1) /2. Al´em disso, Mn(F) = Un(F) + Ln(F), mas esta soma n˜ao ´e direta.

2.4.3

Matrizes Sim´

etricas e Anti-sim´

etricas

2.22 Defini¸c˜ao. Dizemos que uma matriz quadrada A ∈ Mn(F) ´e uma matriz sim´etrica se AT = A.

Dizemos que A ´e uma matriz anti-sim´etrica se AT = −A.

2.23 Proposi¸c˜ao. Os conjuntos das matrizes sim´etricas S e das matrizes anti-sim´etricas A s˜ao subespa¸cos

vetoriais de Mn(F). Al´em disso,

Mn(F) = S ⊕ A.

Prova: Sejam A, B duas matrizes sim´etricas e α, β escalares. Ent˜ao, usando a Proposi¸c˜ao 2.17, temos que (αA + βB)T = αAT+ βBT = αA + βB

e portanto αA + βB ´e sim´etrica. Analogamente, se A, B s˜ao anti-sim´etricas, ent˜ao (αA + βB)T = αAT + βBT = α (−A) + β (−B) = − (αA + βB) e αA + βB ´e portanto anti-sim´etrica.

Para escrever uma matriz A ∈ Mn(F) como a soma de uma matriz sim´etrica e uma matriz anti-sim´etrica,

defina B = A + A T 2 , C = A − A T 2 .

Claramente, A = B + C. Por outro lado, da Proposi¸c˜ao 2.17 vemos que a matriz B ´e sim´etrica e a matriz

C ´e anti-sim´etrica, pois

BT = µ A + AT 2 ¶T = A T +¡AT¢T 2 = AT + A 2 = B, CT = µ A − AT 2 ¶T = A T ¡AT¢T 2 = AT − A 2 = −C.

Falta apenas provar que a ´unica matriz que ´e ao mesmo tempo sim´etrica e anti-sim´etrica ´e a matriz nula. De fato, se A ∈ S ∩ A, ent˜ao

aij= aji

porque A ´e sim´etrica, e

aij= −aji

(25)

2.24 Proposi¸c˜ao. Se uma matriz ´e sim´etrica e invert´ıvel, ent˜ao sua inversa tamb´em ´e sim´etrica. Se uma

matriz ´e anti-sim´etrica e invert´ıvel, ent˜ao sua inversa tamb´em ´e anti-sim´etrica.

Prova: Seja A uma matriz sim´etrica, ent˜ao da Proposi¸c˜ao 2.17 (v) segue que ¡

A−1¢TAT¢−1= A−1.

Analogamente se A ´e uma matriz anti-sim´etrica, temos que ¡

A−1¢T =¡AT¢−1= (−A)−1= −¡A−1¢.

¥

2.25 Proposi¸c˜ao. Se A ´e uma matriz qualquer, ent˜ao AAT e ATA s˜ao matrizes sim´etricas.

Prova: Temos ¡

AAT¢T =¡AT¢TAT = AAT.

Analogamente se prova que¡ATA¢T = ATA. ¥

2.4.4

Matrizes Nilpotentes

2.26 Defini¸c˜ao. Dizemos que uma matriz quadrada A ∈ Mn(F) ´e uma matriz nilpotente se Ak= 0 para

algum k.

O conjunto das matrizes nilpotentes n˜ao ´e um subespa¸co vetorial, j´a que a soma de matrizes nilpotentes em geral n˜ao ´e uma matriz nilpotente.

2.27 Exemplo. A matriz A = · 0 1 0 0 ¸

´e nilpotente, pois A2= 0. A matriz

B =     0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0    

tamb´em ´e nilpotente, pois B3= 0. ¤

2.28 Proposi¸c˜ao. Se A ´e uma matriz nilpotente com Ak = 0, ent˜ao I − A ´e invert´ıvel e

(I − A)−1= I + A + . . . + Ak−1.

Prova: Temos

(I − A)¡I + A + . . . + Ak−1¢= I + A + . . . + Ak−1− A − . . . − Ak−1− Ak = I.

(26)

Cap´ıtulo 3

Transforma¸c˜

oes Lineares

3.1

Defini¸c˜

ao

Se¸c˜oes 6.1 e 9.3 do livro-texto

Definida uma estrutura matem´atica sobre conjuntos, ´e importante o estudo das fun¸c˜oes entre estes conjuntos que preservam a estrutura.

3.1 Defini¸c˜ao. Sejam V e W dois espa¸cos vetoriais sobre um mesmo corpo F. Uma fun¸c˜ao T : V −→ W ´e chamada uma transforma¸c˜ao linear se

T (αv + βw) = αT (v) + βT (w) (3.1)

para todos v, w ∈ V e α, β ∈ F.

Transforma¸c˜oes lineares preservam as opera¸c˜oes que definem um espa¸co vetorial, soma e multiplica¸c˜ao por escalar. Em outras palavras, elas preservam combina¸c˜oes lineares.

3.2 Proposi¸c˜ao. Seja T : V −→ W uma transforma¸c˜ao linear entre dois espa¸cos vetoriais. Ent˜ao T (0V) =

0W.

Prova: Observe que estamos usando nota¸c˜oes diferentes para os vetores nulos de cada espa¸co por motivos de clareza. Temos

T (0V) = T (00V) = 0T (0V) = 0W.

¥

O seguinte resultado ajuda a entender o significado de uma transforma¸c˜ao linear:

3.3 Proposi¸c˜ao. Seja T : V −→ W uma transforma¸c˜ao linear entre dois espa¸cos vetoriais. Se U ´e um

subespa¸co de V , ent˜ao T (U ) ´e um subespa¸co de W com dimens˜ao menor ou igual a U . Reciprocamente, se Z ´e um subespa¸co de W , ent˜ao T−1(Z) ´e um subespa¸co de V com dimens˜ao maior ou igual a Z.

Prova: Seja U ´e um subespa¸co de V . Como 0 ∈ U , temos T (U ) 6= ∅. Sejam w1, w2∈ T (U ). Ent˜ao existem

u1, u2∈ U tais que T (u1) = w1, T (u2) = w2. Para todos α, β ∈ F segue que

αw1+ βw2= αT (u1) + βT (u2) = T (αu1+ βu2) ,

e como αu1+ βu2∈ U , conclu´ımos que αw1+ βw2∈ T (U ). Temos dim T (U ) 6 dim U porque se u1, . . . , uk

geram U ent˜ao T (u1) , . . . , T (uk) geram T (U ), mas enquanto que u1, . . . , ukpodem ser L.I., isso n˜ao implica

necessariamente que T (u1) , . . . , T (uk) ser˜ao L.I.

(27)

Reciprocamente, seja Z ´e um subespa¸co de W . Sejam v1, v2 ∈ T−1(Z). Ent˜ao T (v1) =: z1, T (v2) =:

z2∈ Z. Para todos α, β ∈ F segue que

T (αv1+ βv2) = αT (v1) + βT (v2) = αz1+ βz2∈ Z,

logo conclu´ımos que αv1+ βv2∈ T−1(Z). ¥

Em outras palavras, uma transforma¸c˜ao linear ´e uma aplica¸c˜ao que leva subespa¸cos vetoriais de V em subespa¸cos vetoriais de W de dimens˜ao menor ou igual que o subespa¸co original. Uma transforma¸c˜ao linear leva retas em retas ou no vetor nulo, planos em planos, retas ou no vetor nulo, e assim por diante. Esta conclus˜ao vale mesmo para subespa¸co afins, isto ´e, para conjuntos obtidos pela transla¸c˜ao de subespa¸cos vetoriais, definidos por

Ux= U + x0= {x + x0: x ∈ U } (3.2)

onde U ´e um subespa¸co vetorial de V ; exemplos s˜ao retas e planos que n˜ao passam pela origem. Uma transforma¸c˜ao linear leva subespa¸cos afins em subespa¸cos afins de dimens˜ao menor que ou igual, pois

T (Ux) = T (U ) + T (x0) . (3.3)

3.4 Exemplo. Sejam V e W dois espa¸cos vetoriais sobre um mesmo corpo F de dimens˜ao finita, BV = {x1, . . . , xn} uma base para V , BW = {y1, . . . , ym} uma base para W e A uma matriz de tamanho

dim W × dim V sobre F. Ent˜ao a aplica¸c˜ao

[T v]BW = A [v]BV define uma transforma¸c˜ao linear T de V em W . ¤

3.5 Teorema. Uma transforma¸c˜ao linear do espa¸co vetorial de dimens˜ao finita V para o espa¸co vetorial

W ´e completamente determinada pelos valores que ela toma em uma base qualquer de V .

Prova: Sejam T : V −→ W uma transforma¸c˜ao linear e B = {x1, . . . , xn} uma base para V . Dado um vetor

v ∈ V , ele se escreve como uma combina¸c˜ao linear

v = α1x1+ . . . + αnxn.

Ent˜ao

T v = T (α1x1+ . . . + αnxn) = α1T (x1) + . . . + αnT (xn) .

¥

Podemos dizer ainda mais: para definir uma transforma¸c˜ao linear T : V −→ W basta estipular os seus valores em uma base:

3.6 Teorema. Sejam V um espa¸co vetorial de dimens˜ao finita, B = {x1, . . . , xn} uma base para V e

y1, . . . , yn vetores quaisquer de um espa¸co vetorial W . Ent˜ao existe uma ´unica transforma¸c˜ao linear

T : V −→ W tal que

T xi= yi (3.4)

para i = 1, . . . , n.

Prova: Como todo vetor v ∈ V se escreve como uma combina¸c˜ao linear dos vetores de B de maneira ´unica

v = α1x1+ . . . + αnxn,

basta definir

(28)

Rodney Josu´e Biezuner 27 De fato, para todos os vetores

x = α1x1+ . . . + αnxn,

y = β1x1+ . . . + βnxn,

de V e para todos escalares a, b ∈ F, temos

T (ax + by) = T Ã a n X i=1 αixi+ b n X i=1 βixi ! = T Ã n X i=1 (aαi+ bβi) xi ! = n X i=1 (aαi+ bβi) yi= a n X i=1 αiyi+ b n X i=1 βiyi = aT (x) + bT (y) . A unicidade de T decorre do teorema anterior. ¥

3.2

Representa¸c˜

oes de Transforma¸c˜

oes Lineares atrav´

es de

Matri-zes

Se¸c˜ao 6.1 do livro-texto

Seja T : V −→ W uma transforma¸c˜ao linear entre espa¸cos vetoriais de dimens˜ao finita. Escolha bases

BV = {x1, . . . , xn} para V e BW = {y1, . . . , ym} para W . Ent˜ao, cada vetor x ∈ V se escreve com rela¸c˜ao `a

base BV na forma x = α1x1+ . . . + αnxn= n X i=1 αixi,

para alguns escalares α1, . . . , αn. Da´ı, segue que

T x = T Ã n X i=1 αixi ! = n X i=1 αiT (xi) . Escreva os vetores T x1, . . . , T xn em rela¸c˜ao `a base BW na forma

T (xi) =

m

X

j=1

ajiyj, (3.5)

isto ´e, na forma de matriz coluna:

T (xi) =      a1i a2i .. . ami      (3.6)

A matriz A = (aij)m×n´e chamada a representa¸c˜ao matricial da transforma¸c˜ao linear T com rela¸c˜ao `as

bases BV e BW. Esta representa¸c˜ao de T tamb´em ser´a denotada por

(29)

3.3

Exemplos de Operadores Lineares

Se¸c˜oes 6.1-6.2 do livro-texto

Nesta se¸c˜ao, as transforma¸c˜oes lineares s˜ao definidas a partir de suas matrizes com rela¸c˜ao `a base canˆonica de Rn.

3.7 Defini¸c˜ao. Uma transforma¸c˜ao linear T : V −→ V , isto ´e, de um espa¸co vetorial nele pr´oprio, ´e chamada um operador linear.

3.3.1

Operadores Lineares no Plano R

2

Rota¸c˜oes. A rota¸c˜ao de ˆangulo θ em torno da origem no sentido anti-hor´ario ´e definida por

= · cos θ − sen θ sen θ cos θ ¸ . (3.8) Observe que Rθ(e1) = · cos θ sen θ ¸ e Rθ(e2) = · − sen θ cos θ ¸ .

A inversa de uma rota¸c˜ao de ˆangulo θ ´e uma rota¸c˜ao de ˆangulo −θ (isto ´e, a rota¸c˜ao de ˆangulo θ em torno da origem no sentido hor´ario), pois

RθR−θ = · cos θ − sen θ sen θ cos θ ¸ · cos θ sen θ − sen θ cos θ ¸ = ·

cos2θ + sen2θ cos θ sen θ − sen θ cos θ

sen θ cos θ − cos θ sen θ cos2θ + sen2θ

¸ = · 1 0 0 1 ¸ .

Rota¸c˜oes s˜ao operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o ˆangulo entre eles):

hRθ(v) , Rθ(w)i = hv, wi (3.9) e kRθ(v)k = kvk . (3.10) De fato, hRθ(v) , Rθ(w)i = ¿· cos θ − sen θ sen θ cos θ ¸ · v1 v2 ¸ , · cos θ − sen θ sen θ cos θ ¸ · w1 w2 ¸À = ¿· cos θv1− sen θv2 sen θv1+ cos θv2 ¸ , · cos θw1− sen θw2 sen θw1+ cos θw2 ¸À

= cos2θv1w1− cos θ sen θv1w2− sen θ cos θv2w1+ sen2θv2w2

+ sen2θv1w1+ cos θ sen θv1w2+ sen θ cos θv2w1+ cos2θv2w2

= v1w1+ v2w2 = hv, wi . Da´ı, kRθ(v)k =phRθ(v) , Rθ(v)i = p hv, vi = kvk .

Note ainda que

det Rθ= 1, (3.11)

(30)

Rodney Josu´e Biezuner 29 Reflex˜oes. A reflex˜ao em rela¸c˜ao `a reta passando pela origem que faz ˆangulo θ com o eixo x positivo ´e

definida por = · cos 2θ sen 2θ sen 2θ − cos 2θ ¸ . (3.12) Observe que Hθ(e1) = · cos 2θ sen 2θ ¸ e Hθ(e2) = · sen 2θ − cos 2θ ¸ .

A inversa de uma reflex˜ao ´e ela pr´opria, pois

H2 θ = · cos 2θ sen 2θ sen 2θ − cos 2θ ¸ · cos 2θ sen 2θ sen 2θ − cos 2θ ¸ = ·

cos22θ + sen22θ cos 2θ sen 2θ − sen 2θ cos 2θ

sen 2θ cos 2θ − cos 2θ sen 2θ cos22θ + sen2

¸ = · 1 0 0 1 ¸ .

Reflex˜oes s˜ao tamb´em operadores que preservam a norma de vetores e o produto escalar entre vetores (e portanto o ˆangulo entre eles):

hHθ(v) , Hθ(w)i = hv, wi (3.13) e kHθ(v)k = kvk . (3.14) De fato, hRθ(v) , Rθ(w)i = ¿· cos θ − sen θ sen θ cos θ ¸ · v1 v2 ¸ , · cos θ − sen θ sen θ cos θ ¸ · w1 w2 ¸À = ¿· cos θv1− sen θv2 sen θv1+ cos θv2 ¸ , · cos θw1− sen θw2 sen θw1+ cos θw2 ¸À = cos2θv

1w1− cos θ sen θv1w2− sen θ cos θv2w1+ sen2θv2w2

+ sen2θv

1w1+ cos θ sen θv1w2+ sen θ cos θv2w1+ cos2θv2w2

= v1w1+ v2w2 = hv, wi . Da´ı, kRθ(v)k =phRθ(v) , Rθ(v)i = p hv, vi = kvk .

Note ainda que

det Hθ= −1, (3.15)

de modo que reflex˜oes tamb´em preservam ´areas.

Uma reflex˜ao especial ´e a reflex˜ao em torno da origem, definida por

H = · 0 −1 −1 0 ¸ . (3.16)

Ela tem as mesmas propriedades das outras reflex˜oes.

Contra¸c˜oes e Dilata¸c˜oes. Uma homotetia de raz˜ao k ´e definida por

T = · k 0 0 k ¸ , (3.17)

(31)

ou seja,

T (x, y) = (kx, ky) . (3.18)

Se 0 6 k < 1, T ´e chamada uma contra¸c˜ao, e se k > 1, T ´e chamada uma dilata¸c˜ao. Os operadores de homotetia n˜ao preservam nem a norma, nem o produto escalar de vetores, pois

hT (v) , T (w)i = hkv, kwi = k2hv, wi (3.19)

e

kT (v)k = kkvk = k kvk , (3.20)

mas preservam o ˆangulo entre vetores:

] (T (v) , T (w)) = ] (v, w) (3.21) pois ] (T (v) , T (w)) = arccos hT (v) , T (w)i kT (v)k kT (w)k = arccos hkv, kwi k kvk k kwk = arccos k 2hv, wi k2kvk kwk = arccos hv, wi kvk kwk = ] (v, w) . A inversa de uma contra¸c˜ao ´e uma dilata¸c˜ao e vice-versa. Temos

det T = k2,

de modo que homotetias tamb´em n˜ao preservam ´areas.

Compress˜oes e Expans˜oes. Uma compress˜ao horizontal de raz˜ao k e uma expans˜ao horizontal de raz˜ao k s˜ao definidas por

T = · k 0 0 1 ¸ (3.22) se 0 6 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja,

T (x, y) = (kx, y) . (3.23)

Do mesmo modo, uma compress˜ao vertical de raz˜ao k e uma expans˜ao vertical de raz˜ao k s˜ao definidas por T = · 1 0 0 k ¸ (3.24) se 0 6 k < 1 no primeiro caso e se k > 1 no segundo caso, ou seja,

(32)

Rodney Josu´e Biezuner 31 Cisalhamentos. Um cisalhamento horizontal de raz˜ao k ´e definido por

T = · 1 k 0 1 ¸ , (3.26) ou seja, T (x, y) = (x + ky, y) . (3.27)

Um cisalhamento vertical de raz˜ao k ´e definido por

T = · 1 0 k 1 ¸ , (3.28) ou seja, T (x, y) = (x, kx + y) . (3.29)

Compress˜oes, expans˜oes e cisalhamentos n˜ao preservam nem normas, nem produtos escalares, nem ˆangulos entre vetores. Cisalhamentos preservam ´areas, j´a que seu determinante ´e igual a 1. Cisalhamentos transformam quadrados em paralelogramos de mesma ´area.

Todas os operadores lineares considerados acima s˜ao bijetivos. Vamos considerar agora alguns operadores n˜ao bijetivos.

Proje¸c˜oes. A proje¸c˜ao ortogonal sobre o eixo x ´e definida por

P = · 1 0 0 0 ¸ (3.30) ou seja, P (x, y) = (x, 0) . (3.31)

A proje¸c˜ao ortogonal sobre o eixo y ´e definida por

P = · 0 0 0 1 ¸ (3.32) ou seja, P (x, y) = (0, y) . (3.33)

Em geral, a proje¸c˜ao ortogonal sobre a reta que passa pela origem e faz ˆangulo θ com o eixo x positivo ´e definida por

= ·

cos2θ sen θ cos θ

sen θ cos θ sen2θ

¸

. (3.34)

Para deduzir a ´ultima express˜ao, note que

Pθv − v =1 2(Hθv − v) , logo Pθv =1 2(Hθv + v) = 1 2(Hθ+ I) v, de modo que = 1 2 µ· cos 2θ sen 2θ sen 2θ − cos 2θ ¸ + · 1 0 0 1 ¸¶ =    1 + cos 2θ 2 sen 2θ 2 sen 2θ 2 1 − cos 2θ 2    = ·

cos2θ sen θ cos θ

sen θ cos θ sen2θ

¸

(33)

3.3.2

Operadores Lineares no Espa¸co R

3

Como exerc´ıcio, obtenha as express˜oes matriciais para os correspondentes operadores lineares em R3.

3.3.3

Operadores Lineares em Espa¸cos de Dimens˜

ao Infinita

3.8 Exemplo. Express˜oes lineares envolvendo derivadas s˜ao operadores lineares em P [x] ou Ck(X; R) .

3.3.4

Funcionais Lineares

3.9 Defini¸c˜ao. Um funcional linear ´e uma transforma¸c˜ao linear f : V −→ F.

3.10 Exemplo. A proje¸c˜ao na i-´esima coordenada ´e um funcional linear, isto ´e, πi: Fn −→ F definida por πi(x1, . . . , xn) = xi.

3.11 Exemplo. A integral ´e um funcional linear em C0(X; R):

I (f ) =

Z

X f.

3.4

Composi¸c˜

ao de Transforma¸c˜

oes Lineares

Se¸c˜ao 6.4 do livro-texto

3.12 Proposi¸c˜ao. A composta de transforma¸c˜oes lineares ´e uma transforma¸c˜ao linear.

Prova: Sejam V, W, Z espa¸cos vetoriais e T : V −→ W, S : W −→ Z transforma¸c˜oes lineares. Ent˜ao

S ◦ T : V −→ Z satisfaz

(S ◦ T ) (α1v1+ α2v2) = S [T (α1v1+ α2v2)] = S [α1T (v1) + α2T (v2)] = α1S [T (v1)] + α2S [T (v2)]

= α1(S ◦ T ) (v1) + α2(S ◦ T ) (v2) .

¥

3.13 Teorema. Sejam V , W e Z espa¸cos vetoriais de dimens˜ao finita com bases BV = {x1, . . . , xn},

BW = {y1, . . . , ym} e BZ = {z1, . . . , zp}, respectivamente. Sejam T : V −→ W e S : W −→ Z

transforma¸c˜oes lineares. Ent˜ao

[S ◦ T ]BV,BZ = [S]BW,BZ[T ]BV,BW.

Prova: Sejam

[T ]BV,BW = B = (bij)m×n,

(34)

Rodney Josu´e Biezuner 33 Temos (S ◦ T ) (xi) = S [T (xi)] = S  Xm j=1 bjiyj   =Xm i=1 bjiS (yj) = m X i=1 bji p X k=1 akjzk= p X k=1 Ã m X i=1 bjiakj ! zk = p X k=1 Ãm X i=1 akjbji ! zk = p X k=1 (AB)kizk. ¥

3.14 Defini¸c˜ao. Sejam V e W espa¸cos vetoriais sobre um corpo F. Denote o conjunto das transforma¸c˜oes lineares de V em W por L (V, W ). Definimos as opera¸c˜oes de soma e multiplica¸c˜ao por escalar de elementos de L (V, W ) por

(T + S) (v) := T (v) + S (v) , (αT ) (v) := αT (v) , para todo v ∈ V .

Se V = W , denotamos L (V, W ) simplesmente por L(V ). 3.15 Proposi¸c˜ao. L (V, W ) ´e um espa¸co vetorial sobre F.

3.16 Proposi¸c˜ao. Se V tem dimens˜ao n e W tem dimens˜ao m, ent˜ao L (V, W ) tem dimens˜ao nm. Prova: Sejam BV = {x1, . . . , xn} e BW = {y1, . . . , ym} bases ordenadas de V e W respectivamente. Para

cada par de ´ındices ji, i = 1, . . . , n, j = 1, . . . , m, defina Eji: V −→ W como sendo a ´unica transforma¸c˜ao

linear que satisfaz

Eji(xk) = δikyj, k = 1, . . . , n,

onde δik´e o delta de Kronecker. Em outras palavras, Eji(xk) =

½

yj se i = k, 0 se i 6= k.

Observe que com esta defini¸c˜ao, a matriz que representa Eji em rela¸c˜ao `as bases BV e BW ´e a matriz que

tem 1 na entrada ji e 0 nas demais entradas. Afirmamos que

B = {Eji: i = 1, . . . , n, j = 1, . . . , m}

formam uma base para L (V, W ). Como este conjunto tem nm elementos, isto provar´a o resultado. Para provar que B ´e L.I., suponha que

X

i=1,...,n j=1,...,m

αjiEji= 0

´e uma combina¸c˜ao linear dos Eij produzindo a transforma¸c˜ao nula (que ´e o vetor nulo em ). Ent˜ao, para

cada k = 1, . . . , n temos n X i=1 m X j=1 αjiEji (xk) = 0 (xk) = 0.

Referências

Outline

Documentos relacionados

Para avaliação da diversidade e da densidade de propágulos de FMA no solo e da colonização micorrízica em plantas da área, foram realizadas coletas de solo e raízes nas

A transmissão Techtronix 332 opcional inclui três velocidades para frente e duas velocidades de reversão para velocidade de deslocamento adicional e capacidade de vencer

Use o Conversor de Mídia Philips para converter os arquivos de vídeo, para corrigir o tamanho da tela e transferir os vídeos do seu computador para o seu aparelho.. Esta aplicação

[r]

Mais da metade dos produtores de aves para corte possui criação integrada.. Adquirir nova propriedade está entre as intenções de compra

Desfazimento de Bens Inservíveis. Mestre em História Cultural. Mestre em Computação Aplicada. Mestre em Educação.. máquinas, móveis e

Os aterros, formados complementarmente por ação humana e natural, corres- pondem a estabelecimentos de uma população canoeira, altamente móvel, que deveria usar assentamentos

a) Espécie: Termo de Compromisso Corporativo de uso das imagens Rapideye, firmado entre o Tribunal de Contas da União - TCU, o Mi- nistério do Meio Ambiente - MMA e a Empresa