• Nenhum resultado encontrado

TEOREMA DA DECOMPOSIÇÃO PRIMÁRIA E A FORMA CANÔNICA DE JORDAN

N/A
N/A
Protected

Academic year: 2021

Share "TEOREMA DA DECOMPOSIÇÃO PRIMÁRIA E A FORMA CANÔNICA DE JORDAN"

Copied!
70
0
0

Texto

(1)

UNIVERSIDADE FEDERAL DO REC ˆONCAVO DA BAHIA CENTRO DE CIˆENCIAS EXATAS E TECNOL ´OGICAS BACHARELADO EM CIˆENCIAS EXATAS E TECNOL ´OGICAS

TEOREMA DA DECOMPOSIC

¸ ˜

AO

PRIM ´

ARIA E A FORMA CAN ˆ

ONICA DE

JORDAN

MABEL SALGADO DE SANTANA PINTO

CRUZ DAS ALMAS 2016

(2)

TEOREMA DA DECOMPOSIC

¸ ˜

AO

PRIM ´

ARIA E A FORMA CAN ˆ

ONICA DE

JORDAN

MABEL SALGADO DE SANTANA PINTO

Trabalho de conclus˜ao de curso apresentado ao curso de Bacharelado em Ciˆencias Exatas e Tec-nol´ogicas do Centro de Ciˆencias Exatas e Tec-nol´ogicas da Universidade Federal do Recˆoncavo da Bahia, como parte dos requisitos para a ob-ten¸c˜ao do t´ıtulo de Bacharel em Ciˆencias Exatas e Tecnol´ogicas.

Orientador: Prof

o

Ms.c. Jarbas Alves Fernandes

CRUZ DAS ALMAS

2016

(3)
(4)

`

A minha m˜ae, Rita, e aos meus av´os, Mabel e Ivo, com muito amor.

(5)

“Words are, in my not-so-humble opinion, our most inexhaustible source of magic.”

(Personagem Alvo Dumbledore in: ROWLING, 2009)

(6)

Agradecimentos

´

E com imenso carinho que ofere¸co meus agradecimentos `as pessoas que ajudaram, de v´arias formas, na conclus˜ao deste trabalho.

Primeiramente, agrade¸co a Deus por todas as oportunidades que me con-cedeu. `A minha m˜ae, Rita, e meus av´os, Mabel e Ivo, pelo amor, confian¸ca, incentivo, dedica¸c˜ao, e por todo o sacrif´ıcio que fazem por mim. Amo vocˆes!

`

A meu pai, tios e primas, que me apoiaram e torceram pelo meu sucesso durante toda minha vida. `A Ana Cassia, Isadora, Didi, Bolinha e Mel, por tornarem a vida mais leve.

Ao meu noivo, Tales Maltez, pela amizade, compreens˜ao, pelo cuidado e pelas constantes tentativas de me acalmar nos per´ıodos de provas e ao longo do desenvolvimento deste trabalho.

Aos colegas de jornada Jailson, Geovane, Josi, Railson e Yuri, pela paciˆencia, cumplicidade, pelos momentos divertidos e constantes questionamentos que iluminam a mente.

`

Aos meus amigos Lucas, Carol, Brunelli e Lara pelos conselhos, carinho e aten¸c˜ao dedicados a mim.

Aos professores Alex Santana, Gilberto Pina, Eleazar Madriz, Mariana Pinheiro, Maria Am´elia, Antˆonio Andrade, Adson Mota e, de forma espe-cial, ao meu orientador Jarbas Fernandes, agrade¸co por toda a paciˆencia e preocupa¸c˜ao, que sempre excedia os seus deveres acadˆemicos, e pelas contri-bui¸c˜oes, diretas ou indiretas, para a realiza¸c˜ao deste trabalho, transferindo ao m´aximo seus conhecimentos e me mostrando que ainda tenho um longo caminho a seguir.

Para todos estes, o meu sincero obrigada. Mabel Santana

(7)

Resumo

Neste trabalho, estudamos especificamente operadores lineares sobre espa¸cos vetoriais de dimens˜oes finitas. Definimos polinˆomios caracter´ıstico e m´ınimo para esses operadores e, pelo Teorema da Decomposi¸c˜ao Prim´aria, vemos que qualquer operador pode ser decomposto em operadores cujos polinˆomios m´ınimos s˜ao potˆencias de polinˆomios irredut´ıveis. Apresentamos tamb´em a Forma Canˆonica de Jordan, que ´e uma maneira de expressar o operador quando ´e poss´ıvel escrever seus polinˆomios m´ınimo e caracter´ıstico como fatores de polinˆomios lineares.

Palavras-chave: Teorema da Decomposi¸c˜ao Prim´aria, Diagonaliza¸c˜ao de operadores, Forma Canˆonica de Jordan

(8)

Abstract

In this paper, we specifically studied linear operators on finite dimensional vector spaces. We define characteristic and minimal polynomials for these operators and , by the Primary Decomposition Theorem, we see that any operator can be considered as a union of operators whose minimum polyno-mials are powers of irreducible polynopolyno-mials. We also present the Canonical Jordan Form, that is a way to express the operator when it is possible to write its minimum and characteristic polynomials as linear polynomial factors.

Keywords: Primary Decomposition Theorem, Diagonalization of ope-rators, Jordan Canonical Form

(9)

Sum´

ario

Introdu¸c˜ao 11

1 Espa¸cos Vetoriais e Transforma¸c˜oes Lineares 13

1.1 Espa¸cos Vetoriais . . . 13

1.1.1 Subespa¸co Vetorial . . . 15

1.1.2 Soma e Soma Direta . . . 16

1.1.3 Combina¸c˜ao Linear e Subespa¸co finitamente gerado . . 17

1.1.4 Dependˆencia e Independˆencia Linear . . . 18

1.1.5 Base e Dimens˜ao de um Espa¸co Vetorial . . . 18

1.1.6 Coordenadas . . . 19

1.2 Transforma¸c˜ao Linear . . . 20

1.2.1 N´ucleo e Imagem de uma Transforma¸c˜ao Linear . . . . 20

1.2.2 Isomorfismo Linear . . . 21

1.2.3 Teorema do N´ucleo e da Imagem . . . 21

1.2.4 Opera¸c˜oes com Transforma¸c˜oes Lineares . . . 24

1.2.5 Matriz de uma Transforma¸c˜ao Linear . . . 26

1.2.6 Algebra das Transforma¸c˜´ oes Lineares e Matrizes . . . . 27

2 Diagonaliza¸c˜ao de Operadores Lineares 31 2.1 Autovalores e Autovetores . . . 31

2.2 Polinˆomio caracter´ıstico de um Operador linear . . . 32

2.3 Polinˆomio m´ınimo de um operador linear . . . 38

3 Forma Canˆonica de Jordan 44 3.1 Invariˆancia . . . 44

3.2 Decomposi¸c˜ao em Somas Diretas Invariantes . . . 45

3.3 Decomposi¸c˜ao prim´aria . . . 47

3.4 Operadores Nilpotentes . . . 50

3.5 Forma Canˆonica de Jordan . . . 56

(10)

Appendices 60 A Matriz Linha Reduzida a Forma Escada e Determinantes 61

(11)

Lista de Figuras

1.1 Composi¸c˜ao de Tranforma¸c˜oes Lineares . . . 28 1.2 Composi¸c˜ao com a Transforma¸c˜ao Identidade . . . 30

(12)

Introdu¸

ao

A ´Algebra Linear ´e importante no estudo da matem´atica pois possui diversas aplica¸c˜oes. Nela, estudamos espa¸cos vetoriais e transforma¸c˜oes li-neares entre eles. Se esses espa¸cos possuem dimens˜oes finitas, ´e poss´ıvel representar as transforma¸c˜oes lineares na forma de matrizes (LIMA, 2009).

Segundo Hoffman (1971), a ´algebra linear ´e, a grosso modo, um estudo das propriedades comuns a sistemas alg´ebricos constitu´ıdos por um conjunto, aliado a uma breve no¸c˜ao de “combina¸c˜ao linear” de seus elementos.

Recentemente, a ´Algebra Linear se tornou um conhecimento matem´atico essencial para matem´aticos, engenheiros, f´ısicos, estat´ısticos, economistas, entre outros profissionais, o que nos mostra a diversidade de aplica¸c˜oes poss´ıveis do conte´udo abordado (LIPSCHUTZ, 2011).

A metodologia utilizada ´e a revis˜ao bibliogr´afica, pois os estudos sobre o t´ıtulo est˜ao abordados em livros conceituados de ´Algebra Linear devida-mente referenciados. Com este m´etodo pretendemos explorar o estudo dos operadores lineares num espa¸co vetorial de dimens˜ao finita, encontrando uma matriz mais simples para expressar estes operadores lineares.

No primeiro cap´ıtulo s˜ao apresentados conceitos fundamentais da ´Algebra Linear como espa¸cos vetoriais, subespa¸cos, dependˆencia e independˆencia li-near, bases e dimens˜ao. Al´em disso, s˜ao tratadas as transforma¸c˜oes lineares, sua representa¸c˜ao por matrizes, sua ´algebra e isomorfismos lineares.

O segundo cap´ıtulo introduz a defini¸c˜ao de operador linear com seus au-tovalores e autovetores, bem como os polinˆomios caracter´ıstico e m´ınimo, com a inten¸c˜ao de abordar a diagonaliza¸c˜ao de operadores.

(13)

apresen-tando conceitos de invariˆancia e nilpotˆencia, e tendo como um dos objetivos principais enunciar e demonstrar o Teorema da Decomposi¸c˜ao Prim´aria.

(14)

Cap´ıtulo 1

Espa¸

cos Vetoriais e

Transforma¸

oes Lineares

Neste cap´ıtulo, vamos apresentar algumas defini¸c˜oes e resultados da ´Algebra Linear necess´arios para compreens˜ao do texto.

1.1

Espa¸

cos Vetoriais

O corpo dos n´umeros reais R ou o corpo dos n´umeros complexos C ser˜ao denotados por K. Os elementos de K ser˜ao chamados de escalares.

Segundo Hoffman (1971), um conjunto V , n˜ao vazio, ´e um espa¸co vetorial sobre K se est˜ao definidas duas opera¸c˜oes: a adi¸c˜ao, que a cada par de elementos u, v ∈ V faz corresponder um elemento u + v ∈ V , chamado soma de u com v, e a multiplica¸c˜ao por um escalar, que a cada k ∈ K e cada elemento v ∈ V faz corresponder um elemento kv ∈ V , chamado produto de k por v.

Tais opera¸c˜oes devem satisfazer, para quaisquer k1, k2 ∈ K e u, v, w ∈ V ,

as condi¸c˜oes abaixo: i) u + v = v + u;

ii) u + (v + w) = (u + v) + w;

iii) existe um vetor 0 ∈ V , conhecido como vetor nulo, tal que v + 0 = 0 + v = 0, para todo v ∈ V ;

(15)

iv) para cada vetor v ∈ V , existe um vetor −v ∈ V , chamado de sim´etrico de v, tal que −v + v = v + (−v) = 0; v) (k1+ k2)v = k1v + k2v; vi) k1(u + v) = k1u + k1v; vii) (k1k2)v = k1(k2v); viii) 1v = v.

Neste trabalho, chamaremos um espa¸co vetorial V sobre um corpo K simplesmente de espa¸co vetorial V sempre que n˜ao houver ambiguidade. Os elementos de V ser˜ao chamados de vetores.

Os conjuntos a seguir, com as opera¸c˜oes de adi¸c˜ao e produto por um escalar indicadas, s˜ao exemplos de espa¸cos vetoriais:

Exemplo 1.1. O conjunto de todos os ˆenuplos de elementos de K, denotado por Kn. Com as opera¸c˜oes:

Adi¸c˜ao de vetores: (x1, x2, ..., xn)+(y1, y2, ..., yn) = (x1+y1, x2+y2, ..., xn+yn)

Multiplica¸c˜ao por um escalar: k(x1, x2, ..., xn) = (kx1, kx2, ..., kxn)

Exemplo 1.2. O conjunto de todos os polinˆomios de grau menor do que ou igual a n, mais o polinˆomio nulo, indicado por Pn(t). Com as seguintes

opera¸c˜oes:

Adi¸c˜ao de vetores: (ao+ a1t + ... + asts) + (b0+ b1t + ... + bs−1ts−1+ bsts+

... + brtr) = ao+ b0+ (a1+ b1)t + ... + (as−1+ bs−1)ts−1+ (as+ bs)ts+ ... + brtr

com s ≤ r ≤ n

Multiplica¸c˜ao por um escalar: k(ao+a1t+...+asts) = kao+ka1t+...+kasts,

com s ≤ n.

Exemplo 1.3. O conjunto das matrizes de ordem m×n, indicado por Mm×n.

Com as seguintes opera¸c˜oes:

Adi¸c˜ao de vetores:    a11 a12 ... a1n .. . ... ... ... am1 am2 ... amn   +    b11 b12 ... b1n .. . ... ... ... bm1 bm2 ... bmn   = =    a11+ b11 a12+ b12 ... a1n+ b1n .. . ... ... ... am1+ bm1 am2+ bm2 ... amn+ bmn   ;

(16)

Multiplica¸c˜ao por um escalar: k    a11 a12 ... a1n .. . ... ... ... am1 am2 ... amn   =    ka11 ka12 ... ka1n .. . ... ... ... kam1 kam2 ... kamn   

Exemplo 1.4. Seja X ⊂ R um conjunto n˜ao vazio. O conjunto de todas as fun¸c˜oes de X em R, indicado por F(X, R) representa um espa¸co vetorial com as seguintes opera¸c˜oes:

Adi¸c˜ao de vetores: a soma de duas fun¸c˜oes f, g ∈ F(X, R) ´e a fun¸c˜ao f + g ∈ F(X, R) definida por (f + g)(x) = f (x) + g(x), ∀x ∈ X.

Multiplica¸c˜ao por um escalar: o produto de um escalar c ∈ R e uma fun¸c˜ao f ∈ F(X, R) ´e a fun¸c˜ao cf ∈ F(X, R) definida por (cf )(x) = cf (x), ∀x ∈ X. Dado um espa¸co vetorial V , existem subconjuntos de V que possuem a mesma estrutura de V , isto ´e, satisfazem as opera¸c˜oes de adi¸c˜ao de veto-res e multiplica¸c˜ao por escalar de V . Estes subconjuntos s˜ao denominados subespa¸cos vetoriais e apresentamos a seguinte defini¸c˜ao.

1.1.1

Subespa¸

co Vetorial

Sejam V um espa¸co vetorial e W um subconjunto n˜ao vazio de V , dizemos que W ´e um subespa¸co vetorial de V se dados quaisquer u, v ∈ W e a ∈ K temos u + av ∈ W (HOFFMAN, 1971). Neste texto, um subespa¸co vetorial de V poder´a ser chamado apenas de subespa¸co de V .

Para todos os espa¸cos vetoriais V , os subconjuntos W1 = {0} e W2 = V

s˜ao subespa¸cos de V . Estes subespa¸cos s˜ao denominados subespa¸cos triviais de V . Subespa¸cos n˜ao triviais ser˜ao chamados de subespa¸cos pr´oprios de V . Proposi¸c˜ao 1.1. Seja V um espa¸co vetorial. Sejam W1, W2, ..., Wr

su-bespa¸cos de V, ent˜ao W = W1 ∩ W2∩ ... ∩ Wr ´e um subespa¸co de V .

Demonstra¸c˜ao. Como cada Wi, i = 1, 2, ..., r, ´e um subespa¸co de V , todos

(17)

W n˜ao ´e vazio. Sejam u e v vetores de W e seja a um escalar. Pela defini¸c˜ao de W , tanto u como v pertencem a cada Wi e, como cada Wi ´e um subespa¸co

de V , o vetor u + av est´a em todo Wi. Logo, u + av est´a em W . Portanto,

W ´e um subespa¸co vetorial de V .

A uni˜ao de subespa¸cos vetoriais nem sempre ´e um espa¸co vetorial. Por exemplo, sejam W1 = {(x, y) ∈ R2; y = 2x} e W2 = {(x, y) ∈ R2; y = 3x}

subespa¸cos de R2. Assim, W = W1∪ W2 = {(x, y) ∈ R2; y = 2x ou y = 3x}.

Note que os vetores (1, 2), (1, 3) ∈ W , por´em, a soma (1, 2) + (1, 3) = (2, 5) /∈ W , o que impede W de ser considerado um subespa¸co vetorial do R2.

A seguir apresentaremos outros conceitos importantes.

1.1.2

Soma e Soma Direta

De acordo com Hefez (2012), dados U e W subespa¸cos de um espa¸co vetorial V , chamaremos soma de U e W , e denotaremos por U + W , o conjunto:

U + W = {u + w; u ∈ U e w ∈ W }.

Proposi¸c˜ao 1.2. Seja V um espa¸co vetorial. Sejam U e W subespa¸cos de V , ent˜ao U + W ´e subespa¸co de V .

Demonstra¸c˜ao. Sejam U e W subespa¸cos de V , a ∈ R e v1, v2 ∈ U + W .

Como v1, v2 ∈ U + W , existem u1, u2 ∈ U e w1, w2 ∈ W tais que v1 = u1+ w1

e v2 = u2+ w2. Assim,

v1+ av2 = (u1+ w1) + a(u2+ w2)

= (u1+ au2) + (w1+ aw2) ∈ U + W.

Logo, U + W ´e subespa¸co de V .

Dizemos que um espa¸co vetorial V ´e a soma direta de seus subespa¸cos U e W , e indicamos por V = U ⊕ W , se cada v ∈ V pode ser escrito de modo ´

(18)

Proposi¸c˜ao 1.3. Sejam U e W subespa¸cos de um espa¸co vetorial V . Di-remos que V ´e soma direta de U com W se, e somente se, V = U + W e U ∩ W = {0}.

Demonstra¸c˜ao. Suponhamos inicialmente V = U ⊕ W , ou seja, que cada vetor de V se escreve de modo ´unico como a soma de um vetor de U com um vetor de W . Claramente, ent˜ao V = U + W . Se U ∩ W 6= {0}, existiria um vetor v n˜ao nulo em U ∩ W . Visto que v ∈ W e W ´e um subespa¸co, ent˜ao −v ∈ W . Consequentemente, ter´ıamos 0 = 0 + 0 com 0 ∈ U e 0 ∈ W , e 0 = v + (−v), com v ∈ U e −v ∈ W . Sendo v 6= 0, ter´ıamos duas formas distintas para escrever um mesmo vetor de V . Como isto n˜ao ocorre, temos que U ∩ W = {0}.

Seja V = U + W e U ∩ W = {0}. Tomemos v ∈ V . Como V = U + W ent˜ao, pela defini¸c˜ao de soma de subespa¸cos, existem u ∈ U e w ∈ W tais que v = u + w. Vejamos que tal decomposi¸c˜ao ´e ´unica, no sentido de que se v = u0+ w0, com u0 ∈ U e w0 ∈ W , ent˜ao u = u0 e w = w0. De fato, v = u + w

e v = u0+ w0, da´ı

u + w = u0+ w0 u − u0 = −(w − w0).

J´a que u − u0 ∈ U e −(w − w0) ∈ W , da igualdade anterior decorre que

u − u0 ∈ U ∩ W e −(w − w0) ∈ U ∩ W . Como U ∩ W = {0}, segue que u = u0

e w = w0.

1.1.3

Combina¸

ao Linear e Subespa¸

co finitamente

ge-rado

Seja V um espa¸co vetorial. Um vetor v de V ´e uma combina¸c˜ao linear dos vetores v1, v2, ..., vn de V se existirem escalares c1, c2, ..., cn tais que v =

c1v1 + c2v2+ ... + cnvn (HEFEZ, 2012).

Sejam v1, v2, ..., vn vetores de um subespa¸co vetorial V . O conjunto de

todas as combina¸c˜oes lineares destes vetores ´e considerado um subespa¸co finitamente gerado, que indicaremos por [v1, v2, ..., vn] (HEFEZ, 2012).

(19)

1.1.4

Dependˆ

encia e Independˆ

encia Linear

Sejam V um espa¸co vetorial e v1, v2, ..., vn vetores de V. O conjunto

{v1, v2, ..., vn} ´e linearmente independente (L.I) ou, ainda, os vetores v1, v2, ...,

vns˜ao linearmente independentes (L.I.’s) se a equa¸c˜ao c1v1+c2v2+...+cnvn=

0 ´e satisfeita somente para c1 = c2 = ... = cn = 0. Caso exista algum ci 6= 0,

diremos que o conjunto {v1, v2, ..., vn} ´e linearmente dependente (L.D.) ou que

os vetores v1, v2, ..., vn s˜ao linearmente dependentes (L.D.’s). Vale ressaltar

que o vetor nulo ´e combina¸c˜ao linear de quaisquer outros vetores (HOFF-MAN, 1971).

1.1.5

Base e Dimens˜

ao de um Espa¸

co Vetorial

Seja β = {v1, v2, ..., vn} um subconjunto linearmente independente do

espa¸co vetorial V, chamaremos β de base de V se todos os vetores v ∈ V puderem ser escritos, de modo ´unico, como combina¸c˜ao linear dos vetores de β, isto ´e, V = [v1, v2, ..., vn] (LIMA, 2009).

Um espa¸co vetorial V ´e de dimens˜ao finita se possui uma base finita (HOFFMAN, 1971).

Se V ´e um espa¸co vetorial n˜ao nulo de dimens˜ao finita, a dimens˜ao de V , indicada por dimV , ´e o n´umero de vetores de uma de suas bases. Por conven¸c˜ao, a dimens˜ao do espa¸co vetorial nulo ´e 0 (HEFEZ, 2012).

Os conjuntos a seguir representam bases dos espa¸cos indicados, denomi-nadas de bases canˆonicas.

Exemplo 1.5. β1 = {(1, 0, ..., 0, 0), (0, 1, 0, ..., 0), ..., (0, 0, ..., 0, 1)} ´e uma base

de Rn e dimRn = n.

(20)

Exemplo 1.7.

β

3

=

1 0 ... 0

0 0 ... 0

..

.

0

..

.

0

0 0 ... 0

,

0 1 ... 0

0 0 ... 0

..

.

0

..

.

0

0 0 ... 0

, ...,

0 0 ... 0

0 0 ... 0

..

.

0

..

.

0

0 0 ... 1

´

e uma base de Mm×n e dimMm×n = mn.

Exemplo 1.8. Considerando β4 um conjunto finito de polinˆomios Pn(t) de

grau menor ou igual a m, ou seja, β4 = {f1(t), f2(t), ..., fm(t)}. Note que

qualquer polinˆomio de grau maior que m n˜ao pode ser escrito como com-bina¸c˜ao linear dos elementos de β4. Logo, β4 n˜ao pode ser considerada base

de Pn(t). Por outro lado, o conjunto β5 = {1, t, t2, t3, ...}, consistindo de

to-das as potˆencias de t, ´e um conjunto infinito que gera Pn(t) e ´e linearmente

independente. Isso significa que β5 ´e uma base de Pn(t) e, portanto, que

Pn(t) tem dimens˜ao infinita.

1.1.6

Coordenadas

Em Hoffman (1971), uma base ordenada de um espa¸co vetorial V de dimens˜ao finita ´e definida como uma sequˆencia finita de vetores linearmente independentes, que gera V .

Sejam V um espa¸co vetorial de dimens˜ao finita e β = {v1, v2, ..., vn} uma

base ordenada de V . Se v ´e um vetor de V , ent˜ao existem ´unicos escalares c1, c2, ..., cn tais que v = c1v1+ c2v2+ ... + cnvn. De fato, suponha que existam

escalares d1, d2, ..., dn tais que v = d1v1+ d2v2+ ... + dnvn segue que:

c1v1+ c2v2+ ... + cnvn = d1v1+ d2v2+ ... + dnvn

Da´ı,

(c1− d1)v1+ (c2− d2)v2+ ... + (cn− dn)vn= 0

Como β ´e linearmente independente, temos que ci − di = 0, i = 1, 2, ..., n.

Logo, ci = di. Portanto, existe uma ´unica maneira de escrever o vetor v como

(21)

Vamos considerar as bases dos espa¸cos vetoriais como bases ordenadas para os pr´oximos conceitos e resultados.

Seja β = {v1, v2, ..., vn} uma base de V e v ∈ V , tal que v = c1v1+ c2v2+

... + cnvn, com c1, c2, ..., cn ∈ K. Segundo (HEFEZ, 2012), as coordenadas do

vetor v em rela¸c˜ao a base β s˜ao os coeficientes c1, c2, ..., cn e indicamos:

[v]β =      c1 c2 .. . cn      .

Apresentaremos agora a defini¸c˜ao de transforma¸c˜oes lineares, fun¸c˜oes cu-jos dom´ınios e contradom´ınios s˜ao espa¸cos vetoriais, e preservam algumas propriedades.

1.2

Transforma¸

ao Linear

Sejam V e W espa¸cos vetoriais. Em Lima (2009), vemos que uma trans-forma¸c˜ao linear de V em W ´e uma fun¸c˜ao T : V → W que associa cada vetor v ∈ V a um vetor T (v) ∈ W , e possui as seguintes propriedades: i) T (v1+ v2) = T (v1) + T (v2), ∀v1, v2 ∈ V ;

ii) T (λv) = λT (v), ∀v ∈ V e ∀λ ∈ R.

1.2.1

ucleo e Imagem de uma Transforma¸

ao Linear

Seja T : V → W uma transforma¸c˜ao linear. De acordo com Lima (2009), o n´ucleo de T ´e o conjunto, denotado por Ker(T ), cujos elementos s˜ao os vetores v ∈ V levados por T no vetor nulo de W , isto ´e

Ker(T ) = {v ∈ V ; T (v) = 0}.

O n´ucleo ´e um subespa¸co vetorial de V . De fato, sejam v1, v2 ∈ Ker(T ),

ent˜ao T (v1) = 0 e T (v2) = 0. Segue que T (v1+ av2) = T (v1) + aT (v2) =

(22)

A imagem de T ´e o conjunto Im(T ) ⊂ W , formado pelos vetores w ∈ W tais que T (v) = w para algum v ∈ V (HEFEZ, 2012).

Perceba que a imagem tamb´em ´e um subespa¸co de W . De fato, sejam w1, w2 ∈ Im(T ), sabemos que existem v1, v2 ∈ V tais que T (v1) = w1 e

T (v2) = w2. Assim, w1 + aw2 = T (v1) + aT (v2) = T (v1) + T (av2) = T (v1+

av2). Como v1+ av2 ∈ V , ent˜ao w1+ aw2 ∈ Im(T ).

1.2.2

Isomorfismo Linear

Seja T : V → W uma transforma¸c˜ao linear, T ser´a dita injetiva se ∀v1, v2 ∈ V , sempre que T (v1) = T (v2) temos v1 = v2 (LIMA, 2009).

Proposi¸c˜ao 1.4. Seja T : V → W uma transforma¸c˜ao linear. Temos que T ´

e injetiva se, e somente se, Ker(T ) = {0}.

Demonstra¸c˜ao. Sendo T injetiva e como T (0) = 0, tem-se que T (v) = 0 = T (0) implica que v = 0. Suponhamos agora que Ker(T ) = {0}. Tomemos u, v ∈ V . Se T (u) = T (v), ent˜ao T (u) − T (v) = 0. Equivalentemente, T (u − v) = 0, logo u − v ∈ Ker(T ). Como Ker(T ) = {0}, segue-se que u − v = 0 e, portanto, u = v, o que mostra a injetividade de T .

Uma transforma¸c˜ao linear T de V em W , na qual tem-se Ker(T ) = {0}, tamb´em pode ser chamada de n˜ao-singular (HOFFMAN, 1971).

A transforma¸c˜ao linear T ser´a dita sobrejetiva se para cada w ∈ W existe um vetor v ∈ V tal que T (v) = w, isto ´e, Im(T ) = W (HEFEZ, 2012).

Nos casos em que T ´e injetiva e sobrejetiva, diremos que T ´e uma trans-forma¸c˜ao linear bijetiva, podendo tamb´em ser chamada de isomorfismo li-near. Ser˜ao denominados de isomorfos dois espa¸cos vetoriais que possuem um isomorfismo entre eles (LIMA, 2009).

1.2.3

Teorema do N´

ucleo e da Imagem

Teorema 1.1 (Teorema do N´ucleo e da Imagem). Sejam V e W espa¸cos vetoriais de dimens˜ao finita sobre um corpo K. Se T : V → W ´e uma

(23)

transforma¸c˜ao linear, ent˜ao

dim V = dim Ker(T ) + dim Im(T ).

Demonstra¸c˜ao. Temos trˆes casos a considerar: o primeiro ´e quando Ker(T ) = {0}, o que implica T ser injetora, ent˜ao se {v1, .., vl} ´e uma base de V

te-mos que {T (v1), .., T (vl)} ´e uma base da imagem de T e vale o resultado.

O segundo ´e quando Ker(T ) = V , ou seja, T ´e a transforma¸c˜ao nula, ent˜ao dim[Im(T )] = 0 e tamb´em vale a igualdade a acima. No ´ultimo caso, considere Ker(T ) um subespa¸co pr´oprio de V . Seja β1 = {v1, .., vr}

uma base do n´ucleo de T . Esta base pode ser estendida a uma base β2 =

{v1, .., vr, u1, ..., us} de V . Vamos mostrar que β = {T (u1), ..., T (us)} ´e uma

base da imagem de T . Primeiro vamos mostrar que os vetores de β geram a Im(T ). Dado w ∈ Im(T ), existe um v ∈ V tal que T (v) = w. Mas podemos escrever v como combina¸c˜ao linear de β2, isto ´e,

v = a1v1+ ... + arvr+ b1u1+ ... + bsus

Assim,

w = T (v) = T (a1v1+ ... + arvr+ b1u1+ ... + bsus)

= a1T (v1) + ... + arT (vr) + b1T (u1) + ... + bsT (us)

Como os vetores v1, .., vr ∈ Ker(T ) temos que T (v1) = ... = T (vr) = 0.

Ent˜ao,

w = b1T (u1) + ... + bsT (us)

Logo, [T (u1), ..., T (us)] = Im(T ).

Agora iremos mostrar que β ´e um conjunto linearmente independente. Suponha que c1T (u1) + ... + csT (us) = 0. Sendo T linear, temos que T (c1u1+

... + csus) = 0, o que implica que c1u1+ ... + csus ∈ Ker(T ). Ent˜ao existem

d1, ..., dr ∈ R tais que c1u1+ ... + csus = d1v1+ ... + drvr. Da´ı,

c1u1+ ... + csus− d1v1− ... − drvr= 0

Como o conjunto β2´e linearmente independente, podemos concluir que todos

os escalares da ´ultima igualdade s˜ao nulos. Em paricular, c1 = ... = cs = 0.

(24)

Finalmente, basta observar que dim Ker(T ) = r, dim V = r + s e a dim Im(T ) = s. Logo,

dim V = dim Ker(T ) + dim Im(T ).

Corol´ario 1.1. Sejam V e W espa¸cos vetoriais de mesma dimens˜ao sobre um corpo K (dim V = dim W = n) e T : V → W uma transforma¸c˜ao linear. Ent˜ao as seguintes afirma¸c˜oes s˜ao equivalentes:

i) T ´e sobrejetora; ii) T ´e bijetora; iii) T ´e injetora;

iv) T transforma uma base de V em uma base de W , isto ´e, se {v1, ..., vn} ´e

uma base de V , ent˜ao {T (v1), ..., T (vn)} ´e uma base de W .

Demonstra¸c˜ao. i ⇒ ii) Por hip´otese T ´e sobrejetora, isto ´e, Im(T ) = W o que implica que dim Im(T ) = n. Al´em disso, dim V = dim W = n e pelo Teorema 1.1, dim Ker(T ) = 0, ou seja, Ker(T ) = {0}. Ent˜ao T ´e injetora. Logo, T ´e bijetora.

ii) ⇒ iii) Imediato.

iii) ⇒ iv) Seja β = {v1, ..., vn} uma base de V . Como T ´e injetora, o

n´umero de vetores de β ´e igual ao n´umero de vetores do conjunto βW =

{T (v1), ..., T (vn)}, ent˜ao para mostrar que βW ´e uma base de W , basta

mos-trar que βW ´e um conjunto linearmente independente. De fato, sejam c1, ..., cn

escalares reais. Escreva

c1T (v1) + ... + cnT (vn) = 0

T ´e linear, ent˜ao T (c1v1+ ... + cnvn) = 0. Mas T tamb´em ´e injetora, portanto

c1v1+ ... + cnvn = 0. Assim, c1 = ... = cn= 0, j´a que {v1, ..., vn} ´e uma base

(25)

iv) ⇒ i) Seja w ∈ W . Tome β = {v1, ..., vn} uma base de V . Por hip´otese,

temos que {T (v1), ..., T (vn)} ´e uma base de W . Ent˜ao, podemos escrever w

da seguinte forma, w = c1T (v1) + ... + cnT (vn). Como T ´e linear, temos que

T (c1v1+ ... + cnvn) = w. Portanto, cada w ∈ W ´e imagem de um elemento

de V , ou seja, T ´e sobrejetora.

Corol´ario 1.2. Sejam V e W espa¸cos vetoriais de dimens˜ao finita. Se T : V → W ´e um isomorfismo, ent˜ao dim V = dim W

Demonstra¸c˜ao. T ´e um isomorfismo, ent˜ao Ker(T ) = {0} e Im(T ) = W . Pelo Teorema do N´ucleo e da Imagem, dim V = dim Ker(T ) + dim Im(T ). Logo, dim V = dim W .

Teorema 1.2. Sejam V e W espa¸cos vetoriais. Se T : V → W ´e um isomorfismo, ent˜ao T−1 : W → V ´e uma transforma¸c˜ao linear.

Demonstra¸c˜ao. Sejam w1 e w2 vetores em W e seja c um escalar. Como T ´e

sobrejetora, existem v1 e v2 em V de maneira que

w1 = T (v1) ⇒ T−1(w1) = v1 e w2 = T (v2) ⇒ T−1(w2) = v2 Da´ı, T−1(cw1+ w2) = T−1(cT (v1) + T (v2)) = T−1(T (cv1+ v2)) = cv1 + v2 = cT−1(w1) + T−1(w2) Logo, T−1 ´e linear.

1.2.4

Opera¸

oes com Transforma¸

oes Lineares

Dadas T : V → W e S : V → W transforma¸c˜oes lineares. Temos, por Hoffman (1971), que a soma de T e S, ou a fun¸c˜ao T + S : V → W , ´e dada por:

(26)

Sejam T : V → W transforma¸c˜ao linear e λ ∈ R. O produto de λ por T, ou fun¸c˜ao λT : V → W , ´e dada por:

(λT )(v) = λT (v); ∀v ∈ V. (1.2) Note que as fun¸c˜oes T + S e λT s˜ao transforma¸c˜oes lineares. De fato, sejam v1, v2 ∈ V e c ∈ R, temos: (T + S)(v1+ cv2) = T (v1+ cv2) + S(v1 + cv2) = T (v1) + cT (v2) + S(v1) + cS(v2) = [T (v1) + S(v1)] + c[T (v2) + S(v2)] = (T + S)(v1) + c(T + S)(v2) e, ainda (λT )(v1+ cv2) = λT (v1+ cv2) = λ[T (v1) + cT (v2)] = λT (v1) + cλT (v2) = (λT )(v1) + c(λT )(v2).

Comumente, o conjunto de todas as transforma¸c˜oes lineares de V em W ´e denotado por L(V, W ). Assim, perceba que as opera¸c˜oes descritas nas equa¸c˜oes (1.1) e (1.2) definem uma adi¸c˜ao e multiplica¸c˜ao por escalar em L(V, W ), o que nos garante que esse cojunto ´e um espa¸co vetorial (HEFEZ, 2012).

Na composi¸c˜ao de duas transforma¸c˜oes lineares T : V → W e S : W → U devemos usar, de acordo com Hoffman (1971), a composi¸c˜ao usual de fun¸c˜oes, ou seja, tomando v ∈ V temos:

(S ◦ T )(v) = S(T (v)).

Observe que (S ◦ T ) tamb´em ´e uma transforma¸c˜ao linear. De fato, to-mando v1, v2 ∈ V e c ∈ R, temos:

(27)

(S ◦ T )(v1+ cv2) = S(T (v1+ cv2)) = S(T (v1) + T (cv2)) = S(T (v1) + cT (v2)) = S(T (v1)) + S(cT (v2)) = S(T (v1)) + cS(T (v2)) = (S ◦ T )(v1) + c(S ◦ T )(v2).

1.2.5

Matriz de uma Transforma¸

ao Linear

Sejam V e W espa¸cos vetoriais de dimens˜ao finita e T : V → W uma transforma¸c˜ao linear. Dadas α = {v1, v2, ..., vn} base de V e β = {w1, w2, ...,

wm} base de W , o vetor T (vj), para cada j = 1, 2, ..., n, pode ser escrito de

modo ´unico como combina¸c˜ao linear dos vetores de β:

T (vj) = a1jw1+ a2jw2+ ... + amjwm (1.3)

Considere v ∈ V . Assim, podemos escrever v = c1v1+ c2v2+ ... + cnvn, com

c1, c2, ..., cn ∈ K. Como T ´e uma transforma¸c˜ao linear, pela equa¸c˜ao (1.3),

podemos escrever: T (v) = c1T (v1) + c2T (v2) + ... + cnT (vn) = c1(a11w1+ a21w2+ ... + am1wm) + c2(a12w1+ a22w2+ ... + am2wm)+ ... + cn(a1nw1+ a2nw2+ ... + amnwm) = (a11c1+ a12c2+ ... + a1ncn)w1+ (a21c1+ a22c2+ ... + a2ncn)w2+ ...+ (am1c1+ am2c2+ ... + amncn)wm. Portanto, [T (v)]β =      a11c1+ a12c2+ ... + a1ncn a21c1+ a22c2+ ... + a2ncn .. . am1c1+ am2c2+ ... + amncn      =      a11 a12 ... a1n a21 a22 ... a2n .. . ... ... ... am1 am2 ... amn           c1 c2 .. . cn      Ou seja, [T (v)]β = [T ]αβ · [v]α. (1.4)

(28)

A matriz [T ]αβ ´e chamada de matriz associada `a T em rela¸c˜ao `as bases α e β (HEFEZ, 2012).

Seja I : V → V uma transforma¸c˜ao linear tal que I(v) = v, ∀v ∈ V . Se α e β s˜ao bases de V, ent˜ao a matriz [I]α

β ´e chamada de matriz mudan¸ca de

base (HEFEZ, 2012).

1.2.6

Algebra das Transforma¸

´

oes Lineares e Matrizes

Sejam T e S transforma¸c˜oes lineares de V em W . Sejam α = {v1, v2, ..., vn}

base de V e β = {w1, w2, ..., wm} base de W . Iremos verificar se existe rela¸c˜ao

entre as matrizes [T + S]α

β , [T ]αβ e [S]αβ. Todos os resultados apresentados

nessa se¸c˜ao podem ser encontrados na referˆencia (HEFEZ, 2012).

Proposi¸c˜ao 1.5. Sejam T e S transforma¸c˜oes lineares de V em W , com V e W de dimens˜ao finita. Se α e β s˜ao bases de V e W , respectivamente, ent˜ao

[T + S]αβ = [T ]αβ + [S]αβ

Demonstra¸c˜ao. Sejam T e S transforma¸c˜oes lineares de V em W . Sejam α = {v1, ..., vn} e β = {w1, ..., wm} bases de V e W , respectivamente. Se

1 ≤ j ≤ n, ent˜ao

[(T + S)(vj)]β = [T (vj) + S(vj)]β = [T (vj)]β + [S(vj)]β,

Ou seja, a j-´esima coluna de [T + S]α

β ´e a soma da j-´esima coluna de [T ]αβ com

a j-´esima coluna de [S]α

β. O que prova o resultado desejado.

Proposi¸c˜ao 1.6. Seja T : V → W uma transforma¸c˜ao linear, onde V e W tem dimens˜ao finita. Se α e β s˜ao bases de V e W , respectivamente, e λ ∈ R, ent˜ao

[λT ]αβ = λ[T ]αβ

Demonstra¸c˜ao. Seja T transforma¸c˜ao linear de V em W . Sejam α = {v1, ..., vn}

e β = {w1, ..., wm} bases de V e W , respectivamente. Se 1 ≤ j ≤ n, ent˜ao

(29)

Ou seja, a j-´esima coluna de [λT ]αβ ´e a multiplica¸c˜ao da j-´esima coluna de [T ]αβ pelo escalar λ, o que prova o resultado desejado.

Proposi¸c˜ao 1.7. Sejam T : V → W e S : W → U transforma¸c˜oes lineares, em que V, W e U s˜ao espa¸cos vetoriais de dimens˜ao finita. Se α, β e γ s˜ao bases de V, W e U , respectivamente, ent˜ao

[S ◦ T ]αγ = [S]βγ· [T ]α

β (1.5)

Veja Figura 1.1.

Figura 1.1: Composi¸c˜ao de Tranforma¸c˜oes Lineares

Demonstra¸c˜ao. Seja α = {v1, ..., vn}. Denotemos por Cj(M ) a j-´esima coluna

de uma matriz M arbitr´aria. Tomando A e B matrizes de forma que a matriz AB esteja definida, segue que:

Cj(AB) = A · Cj(B). (1.6)

Para comprovar a validade de (1.5) devemos provar que, para cada j, com 1 ≤ j ≤ n, temos Cj([S ◦ T ]αγ) = Cj([S]βγ · [T ]αβ). Fixemos, ent˜ao, um ´ındice

j. De (1.6), Cj([S]βγ· [T ] α β) = [S] β γ· Cj([T ]αβ) = [S] β γ · [T (vj)]β.

Por outro lado,

Cj([S ◦ T ]αγ) = [(S ◦ T )(vj)]γ = [S]βγ[T (vj)]β,

(30)

Teorema 1.3. Seja T : V → W um isomorfismo, onde V e W s˜ao espa¸cos vetoriais de dimens˜ao finita. Se α ´e uma base de V e β ´e uma base de W , ent˜ao

[T−1]βα = ([T ]αβ)−1.

Demonstra¸c˜ao. Como T−1 ´e a inversa de T , temos que T−1 ◦ T ´e a fun¸c˜ao identidade I em V . Pela equa¸c˜ao (1.5), temos:

[I]αα = [T−1◦ T ]α α = [T

−1

α· [T ]α

β. (1.7)

Se dimV = n, temos que [I]α

α ´e a matriz identidade de ordem n. Assim, de

(1.7), segue que [T ]α

β ´e invert´ıvel e sua inversa ´e a matriz [T −1]β

α.

Corol´ario 1.3. Seja T : V → W uma transforma¸c˜ao linear, onde V e W s˜ao espa¸cos vetoriais de mesma dimens˜ao finita. Sejam α e β bases de V e W , respectivamente. Temos que T ´e invert´ıvel se, e somente se, a matriz [T ]α

β ´e invert´ıvel.

Demonstra¸c˜ao. Se T ´e invert´ıvel (isomorfismo), por (1.7), temos que a ma-triz [T ]α

β ´e invert´ıvel. A outra implica¸c˜ao resulta do fato que a transforma¸c˜ao

linear L(V, W ) −→ Mnxn, onde n = dimV = dimW , ´e sobrejetora e

trans-forma composi¸c˜ao de transforma¸c˜oes lineares em produto de matrizes. Teorema 1.4. Sejam α e β duas bases de um espa¸co de dimens˜ao finita V . Temos que a matriz [I]βα ´e invert´ıvel e sua inversa ´e a matriz [I]αβ. Ou seja,

([I]βα)−1 = [I]αβ.

Demonstra¸c˜ao. Como I ´e um isomorfismo linear e I−1 = I, o resultado segue do Teorema 1.3.

Teorema 1.5. Sejam α e β duas bases de um espa¸co de dimens˜ao finita V . Se T ´e um operador linear em V , ent˜ao

[T ]αα = P−1· [T ]ββ· P (1.8) com P = [I]α

(31)

Figura 1.2: Composi¸c˜ao com a Transforma¸c˜ao Identidade

Demonstra¸c˜ao. Sejam α e β duas bases do espa¸co vetorial de dimens˜ao finita V e T um operador sobre V . Com as matrizes mudan¸ca de base podemos obter uma rela¸c˜ao entre as matrizes [T ]α

α e [T ] β

β. De fato, como T = I ◦ T ◦ I,

segue da Proposi¸c˜ao 1.7, que

[T ]αα = [I ◦ T ◦ I]αα = [I]βα· [T ]ββ · [I]α β,

ou seja,

[T ]αα = [I]βα· [T ]ββ· [I]αβ. (1.9) Mas, pelo Teorema 1.4, temos que [I]β

α ´e a inversa de [I]αβ. Assim, denotando

[I]α

β por P , a equa¸c˜ao (1.9) pode ser reescrita como

[T ]αα= P−1· [T ]ββ · P.

A rela¸c˜ao expressa na equa¸c˜ao (1.8) ´e muito importante de modo que esta recebe uma nomenclatura. Se A e B s˜ao matrizes de mesma ordem, diremos que B ´e semelhante a A quando existir uma matriz invert´ıvel P tal que B = P−1AP . ´E f´acil perceber que se B ´e uma matriz semelhante a A, ent˜ao A tamb´em ´e semelhante a B, por isso ´e comum dizer simplesmente que A e B s˜ao matrizes semelhantes.

(32)

Cap´ıtulo 2

Diagonaliza¸

ao de Operadores

Lineares

Vimos no Cap´ıtulo 1 que se V e W s˜ao espa¸cos vetoriais de dimens˜ao finita e T ´e uma transforma¸c˜ao linear de V em W , podemos representar T por uma matriz. Neste cap´ıtulo, veremos as transforma¸c˜oes lineares de um espa¸co vetorial nele mesmo. As transforma¸c˜oes lineares T : V −→ V s˜ao denominadas de operadores lineares (LIMA, 2009).

Vamos verificar se os operadores lineares podem ser representados por uma matriz diagonal. Ser´a que sempre existe uma base de V tal que a matriz [T ]β, do operador linear T : V −→ V , seja uma matriz diagonal?

A partir desse momento, vamos considerar V um espa¸co vetorial de di-mens˜ao n.

2.1

Autovalores e Autovetores

Seja T um operador linear sobre V . Um escalar λ ´e um autovalor de T se existe um vetor n˜ao nulo v ∈ V tal que T (v) = λv. O vetor v ´e denominado de autovetor de T associado ao autovalor λ (LIMA, 2009).

Dados um operador linear T sobre V e uma base α de V , segundo Hefez (2012), se A = [T ]α ´e a matriz associada a T em rela¸c˜ao `a base α, um

escalar λ ´e um autovalor de A se existir um vetor n˜ao nulo v ∈ V tal que A[v]α = λ[v]α, sendo [v]α as coordenadas de v em rela¸c˜ao `a base α. O vetor

(33)

v ´e o autovetor associado ao autovalor λ. Assim, determinar os autovalores e autovetores de um operador linear T em V ´e fixar uma base α de V e encontrar os autovalores e autovetores da matriz A = [T ]α.

O conjunto formado pelos autovetores de T e o vetor nulo, isto ´e, Vλ =

{v ∈ V ; T (v) = λv} ´e denominado autoespa¸co de V . Vλ ´e um subespa¸co de

V . De fato, sejam v1, v2 ∈ Vλ e a ∈ R, assim T (v1+ av2) = T (v1) + T (av2) =

T (v1) + aT (v2) = λv1+ aλv2 = λ(v1+ av2), logo v1 + av2 ∈ Vλ e, portanto,

Vλ ´e subespa¸co de V (HEFEZ, 2012).

Na pr´oxima se¸c˜ao, encontraremos uma maneira pr´atica de encontrar os autovalores e autovetores.

2.2

Polinˆ

omio caracter´ıstico de um Operador

linear

Seja T um operador linear sobre V . Segundo Lipschutz (2011), o po-linˆomio caracter´ıstico de T , indicado por ∆(t), ´e o determinante (ver Apˆendice A) dado por:

∆(t) = |tIn− A| (2.1)

onde A ´e uma representa¸c˜ao matricial de T e Ina matriz identidade de ordem

n. Podemos dizer que ∆(t) ´e o polinˆomio caracter´ıstico da matriz A.

Proposi¸c˜ao 2.1. Matrizes semelhantes possuem o mesmo polinˆomio carac-ter´ıstico.

Demonstra¸c˜ao. De fato, sejam A e B matrizes semelhantes. Ent˜ao, existe uma matriz invers´ıvel P tal que A = P−1BP . Ent˜ao:

(34)

Calculando o determinante, temos: |A − λI| = |P−1BP − λI| = |P−1BP − P−1λIP | = |P−1(B − λI)P | = |P−1||(B − λI)||P | = |B − λI|.

Logo, |A − λI| = |B − λI|. Portanto, A e B tˆem o mesmo polinˆomio carac-ter´ıstico.

Sendo assim, o polinˆomio caracter´ıstico de T independe da escolha da base na qual calculamos a representa¸c˜ao matricial de T.

Definimos f (T ), com T sendo um operador linear, da mesma forma que para matrizes (ver Apˆendice B), isto ´e:

f (T ) = anTn+ ... + a1T + a0I

com I representando o operador identidade. Se f (T ) = 0, onde 0 ´e o operador nulo, dizemos que T ´e raiz do polinˆomio.

As potˆencias de T podem ser definidas pela composi¸c˜ao, ou seja, T2 = T ◦ T, T3 = T2◦ T, ...

Observa¸c˜ao 2.1. De acordo com Lipschutz(2011), se A ´e a representa¸c˜ao matricial de T, ent˜ao f(A) ´e a representa¸c˜ao matricial de f(T) e, em parti-cular, f(T)=0 se, e somente se, f(A)=0.

Teorema 2.1 (Cayley-Hamilton). Um operador linear T ´e uma raiz de seu polinˆomio caracter´ıstico.

Demonstra¸c˜ao. Sejam A uma representa¸c˜ao matricial de T e ∆(t) seu po-linˆomio caracter´ıstico, digamos:

(35)

Denotemos por B(t) a adjunta cl´assica da matriz tI − A. Os elementos de B(t) s˜ao os cofatores da matriz tI − A e, portanto, polinˆomios em t de grau, no m´aximo, n − 1. Assim,

B(t) = Bn−1tn−1+ ... + B1t + B0

onde os Bi, (0 ≤ i ≤ n − 1) denotam matrizes quadradas de ordem n sobre o

corpo K que n˜ao dependem de t. Pela propriedade fundamental da adjunta, temos:

(tI − A)B(t) = |tI − A|I

(tI − A)(Bn−1tn−1+ ... + B1t + B0) = (tn+ ... + a1t + a0)I

Desenvolvendo, obtemos:

Bn−1tn−ABn−1tn−1+...+B1t2−AB1t+B0t−AB0 = tnI+an−1tn−1I+...+a1tI+a0I

Igualando as potˆencias correspondentes de t, obtemos: Bn−1= I −ABn−1+ Bn−2= an−1I .. . −AB1+ B0 = a1I −AB0 = a0I

Multiplicando essas equa¸c˜oes por An, An−1, ..., A, I, respectivamente, resulta:

AnBn−1 = An −AnB n−1+ An−1Bn−2 = an−1An−1 .. . −A2B1+ AB0 = a1A −AB0 = a0I

Somando essas equa¸c˜oes matriciais, obtemos:

0 = An+ an−1An−1+ ... + a1A + a0I = ∆(A)

Assim, ∆(A) = 0. Portanto, ∆(T ) = 0. Logo, T ´e raiz de seu polinˆomio caracter´ıstico.

(36)

Teorema 2.2. Seja T um operador linear. As afirma¸c˜oes dadas s˜ao equiva-lentes:

i) O escalar λ ´e um autovalor de T ii) O operador λI − T ´e singular iii) O escalar λ ´e uma raiz de ∆(t)

Demonstra¸c˜ao. Seja A uma matriz do operador T sobre V em rela¸c˜ao a uma base α. Suponha que λ ´e um autovalor de T , ent˜ao existe um vetor n˜ao nulo v ∈ V tal que A[v]α = λ[v]α. Segue que A[v]α = λIn[v]α, sendo In a matriz

identidade de ordem n. Da´ı, podemos escrever λIn[v]α− A[v]α = 0. Segue

que (λIn − A)[v]α = 0. Como v ´e um vetor n˜ao nulo, temos que λIn− A

´

e singular (n˜ao invers´ıvel). Temos tamb´em que |λIn − A| = 0. Como o

polinˆomio caracter´ıstico de T ´e dado por ∆(t) = |tIn− A|, λ ´e raiz de ∆(t).

Assim, valem as equivalˆencias das condi¸c˜oes i), ii), iii).

Teorema 2.3. Uma matriz quadrada A de ordem n ´e semelhante a uma matriz diagonal D se, e somente se, A tem n autovetores linearmente in-dependentes. Neste caso, os elementos da diagonal de D s˜ao os autovalores correspondentes e D = P−1AP , onde P ´e a matriz cujas colunas s˜ao os autovetores.

Demonstra¸c˜ao. Suponhamos que A tem n autovetores linearmente indepen-dentes v1, v2, ..., vn com os correspondentes autovalores λ1, λ2, ..., λn. Seja

P a matriz cujas colunas s˜ao v1, v2, ..., vn. Ent˜ao P ´e n˜ao singular.

Ob-serve que, as colunas da matriz AP s˜ao Av1, Av2, ..., Avn. Mas Avk = λkvk.

Logo, as colunas de AP s˜ao λ1v1, λ2v2, ..., λnvn. Por outro lado, seja D =

diag(λ1, λ2, ..., λn), isto ´e, a matriz diagonal cujos elementos diagonais s˜ao λk.

Ent˜ao P D ´e tamb´em uma matriz cujas colunas s˜ao dadas por λkvk. Ent˜ao

AP = P D e, da´ı, D = P−1AP .

Reciprocamente, suponhamos que exista uma matriz n˜ao singular para a qual P−1AP = diag(λ1, λ2, ..., λn) = D e, assim, AP = P D. Sejam v1, v2, ..., vn

os vetores colunas de P . Ent˜ao as colunas de AP s˜ao Avk e as colunas de

(37)

disso, como P ´e n˜ao-singular, v1, v2, ..., vn s˜ao n˜ao nulos e, portanto, s˜ao

au-tovetores de A associados aos autovalores que s˜ao os elementos diagonais de D. Tamb´em temos que v1, v2, ..., vn s˜ao linearmente independentes.

Seja T um operador sobre o espa¸co vetorial V . Dizemos que T ´e dia-gonaliz´avel se existe uma base de V formada por autovetores (HOFFMAN, 1971).

De modo an´alogo, se A = [T ]α ´e uma matriz do operador T sobre V

em rela¸c˜ao `a base α, dizemos que A ´e diagonaliz´avel se existe uma base β de V formada de autovetores tal que [T ]β ´e uma matriz diagonal em que os

elementos da diagonal principal s˜ao autovalores de T (LIPSCHUTZ, 2011). Teorema 2.4. Suponha que v1, v2, ..., vn sejam autovetores de um operador

linear T associados a autovalores distintos λ1, λ2, ...λn. Ent˜ao v1, v2, ..., vn

s˜ao linearmente independentes.

Demonstra¸c˜ao. Vamos supor que o teorema seja falso. Seja v1, ..., vs um

con-junto m´ınimo de vetores para o qual o teorema seja falso. Assim, s > 1 j´a que v1 6= 0 por ser autovetor. Tamb´em, pela condi¸c˜ao de minimalidade,

po-demos afirmar que o conjunto {v2, ..., vs} ´e linearmente independente. Assim,

podemos escrever:

v1 = a2v2+ a3v3+ ... + asvs. (2.2)

Da´ı,

T (v1) = T (a2v2+ a3v3+ ... + asvs) = a2T (v2) + a3T (v3) + ... + asT (vs) (2.3)

Como vj ´e autovetor associado a λj, a ´ultima equa¸c˜ao pode ser reescrita na

forma

λ1v1 = a2λ2v2+ a3λ3v3+ ... + asλsvs. (2.4)

Multiplicando a equa¸c˜ao (2.2) por λ1 obtemos

λ1v1 = a2λ1v2+ a3λ1v3 + ... + asλ1vs. (2.5)

Igualando os lados direitos das equa¸c˜oes (2.4) e (2.5), resulta

(38)

Mas {v2, ..., vs} ´e linearmente independente. Logo, os coeficientes de (2.6)

devem ser todos nulos, ou seja,

a2(λ1− λ2) = 0, a3(λ1 − λ3) = 0, ..., as(λ1− λs) = 0.

Por´em, como os λi s˜ao distintos, temos que λ1 − λj 6= 0, para 2 ≤ j ≤ s.

Assim, obtemos a2 = a3 = ... = as = 0. O que contradiz o fato de existir

algum ak 6= 0.

Teorema 2.5. Seja T um operador linear sobre V. Suponha que o polinˆomio caracter´ıstico ∆(t) de T seja um produto de n fatores distintos, digamos, ∆(t) = (t − λ1)(t − λ2) · · · (t − λn). Ent˜ao T pode ser representado pela matriz

diagonal D = diag(λ1, λ2, ..., λn).

Demonstra¸c˜ao. Seja A uma matriz quadrada de ordem n associada ao opera-dor T . Sejam v1, v2, ..., vnautovetores associados aos autovalotes λ1, λ2, ..., λn,

respectivamente. Ent˜ao os n autovetores vi s˜ao linearmente independentes,

de acordo com o Teorema 2.4 e, assim, formam uma base de V . Dessa forma, A ´e diagonaliz´avel, ou seja, semelhante a uma matriz diagonal D = diag(λ1, λ2, ..., λn).

Se λ ´e um autovalor de um operador T (ou, equivalentemente, da matriz A, associada `a T ), definimos multiplicidade alg´ebrica de λ como sendo a multiplicidade de λ como raiz do polinˆomio caracter´ıstico e a multiplicidade geom´etrica de λ ´e a dimens˜ao do autoespa¸co Vλ (LIPSCHUTZ, 2011).

Teorema 2.6. A multiplicidade geom´etrica de um autovalor λ de T n˜ao ´e maior do que a multiplicidade alg´ebrica.

Demonstra¸c˜ao. Suponhamos que a multiplicidade geom´etrica de λ seja r. Assim, o autoespa¸co Vλ deve conter r autovetores linearmente independentes

v1, ..., vr. Considere a base {v1, ..., vr, w1, ..., ws} (extens˜ao da base de Vλ) de

(39)

T (v1) = λv1 T (v2) = λv2 .. . T (vr) = λvr T (w1) = a11v1+ ... + a1rv2+ b11w1+ ... + b1sws T (w2) = a21v1+ ... + a2rv2+ b21w1+ ... + b2sws .. . T (ws) = as1v1+ ... + asrv2+ bs1w1 + ... + bssws.

Logo, a matriz de T nessa base ´e M = λI A

0 B



, onde A = [aij]T e B =

[bij]T. Sendo M uma matriz diagonal em blocos, podemos afirmar que o

polinˆomio caracter´ıstico (t−λ)rdo bloco λI divide o polinˆomio caracter´ıstico de M e, portanto, de T . Logo, a multiplicidade alg´ebrica de λ para T ´e, no m´ınimo, r.

2.3

Polinˆ

omio m´ınimo de um operador linear

O polinˆomio m´ınimo m(t) de um operador linear T ´e definido como o polinˆomio mˆonico de menor grau para o qual T seja uma raiz (LIMA, 2009). Seja A uma matriz quadrada associada ao operador T . Segundo Lipschutz (2011), o polinˆomio m´ınimo da matriz A ´e definido de forma an´aloga ao po-linˆomio m´ınimo de T .

Teorema 2.7. O polinˆomio m´ınimo m(t) de um operador linear T divide qualquer polinˆomio que tenha T como raiz. Em particular, m(t) divide o polinˆomio caracter´ıstico ∆(t) de T.

Demonstra¸c˜ao. Seja f (t) um polinˆomio tal que f (T ) = 0. Pelo algor´ıtimo da divis˜ao existem polinˆomios q(t) e r(t) tais que f (t) = m(t)q(t)+r(t) e r(t) = 0 ou, ent˜ao, o grau de r(t) ´e menor do que o grau de m(t). Substituindo t=T

(40)

temos:

f (T ) = m(T )q(T ) + r(T ) 0 = 0q(T ) + r(T ) 0 = r(T ).

Sendo r(T ) = 0, obrigatoriamente teremos r(t) = 0. Se r(t) 6= 0, r(t) seria um polinˆomio de grau menor do que m(t) e que tem T como raiz, o que contraria a defini¸c˜ao de polinˆomio minimo para m(t). Assim, r(t) = 0 e f (t) = m(t)q(t), ou seja, m(t) divide f (t).

Afirma¸c˜ao 2.1. Seja m(t) o polinˆomio m´ınimo de uma matriz quadrada A de ordem n. Temos que o polinˆomio caracter´ıstico ∆(t) de A divide [m(t)]n. Demonstra¸c˜ao. Suponha m(t) = tr + c1tr−1 + ... + cr−1t + cr. Considere a

matriz identidade I de ordem n e as matrizes Bj de ordem n definidas da

seguinte forma: B0 = I ⇒ I = B0 B1 = A + c1I ⇒ c1I = B1− A = B1− AB0 B2 = A2+ c1A + c2I ⇒ c2I = B2− A(A + c1I) = B2− AB1 .. . Br−1 = Ar−1+ c1Ar−2+ ... + cr−1I ⇒ cr−1I = Br−1− ABr−2.

Multiplicando a ´ultima equa¸c˜ao por (−A) e, em seguida, somando (+crI −

crI), obtemos:

−ABr−1 = −(Ar+ c1Ar−1+ ... + cr−1A) + crI − crI

= crI − (Ar+ c1Ar−1+ ... + cr−1A + crI)

= crI − m(A)

= crI.

(41)

(tI − A)(B(t)) = (tI − A)(tr−1B0+ tr−2B1+ ... + tBr−2+ Br−1)

= (trB0+ tr−1B1+ ... + tBr−1) − (tr−1AB0+ tr−2AB1+ ... +

+ABr−1)

= trB0+ tr−1(B1− AB0) + tr−2(B2 − AB1) + ... + t(Br−1+

−ABr−2) − ABr−1.

Mas vimos que cr−1I = Br−1− ABr−2, assim, temos:

(tI − A)(B(t)) = trI + c1tr−1I + c2tr−2I + ... + cr−1tI + crI

= m(t)I.

Tomando o determinante de ambos os lados, obtemos: |tI − A||B(t)| = |m(t)I| = [m(t)]n.

Como |B(t)| ´e um polinˆomio, |tI − A| divide [m(t)]n, ou seja, o polinˆomio

caracter´ıstico de A divide a [m(t)]n.

Teorema 2.8. O polinˆomio caracter´ıstico e o polinˆomio m´ınimo de um ope-rador linear T tˆem os mesmos fatores irredut´ıveis.

Demonstra¸c˜ao. Seja f (t) um polinˆomio irredut´ıvel. Se f (t) divide m(t), ent˜ao f (t) divide a ∆(t), pois m(t) divide a ∆(t). Por outro lado, se f (t) divide ∆(t), ent˜ao pela Afirma¸c˜ao 2.1, f (t) tamb´em divide [m(t)]n. No

en-tanto, f (t) ´e irredut´ıvel, portanto f (t) tamb´em divide m(t). Assim, m(t) e ∆(t) tˆem os mesmos fatores irredut´ıveis.

Teorema 2.9. Um escalar λ ´e um autovalor de um operador linear T se, e somente se, λ ´e uma raiz do polinˆomio m´ınimo m(t) de T.

Demonstra¸c˜ao. Visto que λ ´e um autovalor se, e somente se, ´e raiz do po-linˆomio caracter´ıstico ∆(t) e que o polinˆomio m´ınimo m(t) possui os mesmos fatores irretut´ıveis de ∆(t), temos que ∆(λ) = 0 se, e somente se, m(λ) = 0, o que equivale a dizer que λ ´e um autovalor se, e somente se, ´e raiz do polinˆomio m´ınimo.

(42)

Teorema 2.10. Seja M uma matriz diagonal em blocos com blocos diagonais A1, A2, ...Ar. Ent˜ao o polinˆomio m´ınimo de M ´e igual ao m´ınimo m´ultiplo

comum (MMC) dos polinˆomios m´ınimos dos blocos diagonais Ai.

Demonstra¸c˜ao. Seja

M =      A1 0 ... 0 0 A2 ... 0 .. . ... . .. ... 0 0 ... Ar     

com Aimatrizes quadradas. Sejam h1(t), h2(t), ..., hr(t) os polinˆomios m´ınimos

de A1, A2, ..., Ar respectivamente. Como m(t) ´e o polinˆomio m´ınimo de M,

temos: m(M ) =      m(A1) 0 ... 0 0 m(A2) ... 0 .. . ... . .. ... 0 0 ... m(Ar)      = 0.

Logo m(A1) = m(A2) = ...m(Ar) = 0. Como hi ´e polinˆomio m´ınimo de Ai,

ent˜ao hi divide m(t). Assim, m(t) ´e m´ultiplo de h1(t), h2(t), ..., hr(t).

Seja, agora, f(t) um m´ultiplo qualquer de h1(t), h2(t), ..., hr(t), ent˜ao (pela

Afirma¸c˜ao B.1): f (M ) =      f (A1) 0 ... 0 0 f (A2) ... 0 .. . ... . .. ... 0 0 ... f (Ar)      = 0.

No entanto, m(t) ´e o polinˆomio m´ınimo de M, de modo que m(t) divide f(t). Assim, m(t) ´e o m´ınimo m´ultiplo comum (MMC) dos polinˆomios m´ınimos h1(t), h2(t), ..., hr(t).

Os exemplos a seguir d˜ao uma breve no¸c˜ao de como utilizar o que foi apresentado neste cap´ıtulo.

Exemplo 2.1. Considere a matriz A = 3 −5 2 −3  . Assim, ∆(t) = |tI − A| = t − 3 −5 2 t + 3

= (t−3)(t+3). Logo, ∆(t) = t2+1. Se A for uma matriz sobre

(43)

nem autovalores nem autovetores e, portanto, n˜ao ´e diagonaliz´avel. Por outro lado, se A for uma matriz sobre o corpo dos complexos (C), ent˜ao ∆(t) = (t− i)(t + i) tem duas ra´ızes, i e −i. Assim, A possui dois autovalores distintos, o que nos garante que A tamb´em possui dois autovetores LI’s. Portanto, nesse caso vai existir uma matriz P n˜ao singular sobre C tal que P AP−1 =  i 0

0 −i 

. Logo A ´e diagonaliz´avel sobre C.

Exemplo 2.2. Seja T : R3 −→ R3 definido por T (x, y, z) = (2x+y −2z, 2x+

3y − 4z, x + y − z). Para encontrar os autovalores, primeiramente devemos encontrar a matriz [T ]. Podemos encontrar a matriz de T na base canˆonica escrevendo os coeficientes de x, y, z como linhas. Assim, [T ] =

  2 1 −2 2 3 −4 1 1 −1  . Como ∆(t) = |tI − [T ]|, desenvolvendo os c´alculos de determinante, obtemos ∆(t) = t3− 4t2+ 5t − 2 = (t − 1)2(t − 2) e, portanto, λ = 1 e λ = 2 s˜ao

au-tovalores de T .Os autovetores linearmente independentes de cada autoespa¸co de T s˜ao:

i) Subtraindo λ = 1 das entradas diagonais de [T ] obtemos: M = |[T ] − λI| =   1 1 −2 2 2 −4 1 1 −2 

. Vamos ent˜ao, encontrar uma base para o sistema

homogˆeneo M X = 0, onde X =   x y z 

, (esses vetores da base s˜ao au-tovetores linearmente associados de [T] associados a λ). Assim, temos:    x + y − 2z = 0 2x + 2y − 4z = 0 x + y − 2z = 0

, que corresponde a x+y−2z = 0, ou ainda, x = 2z−y. H´a, ent˜ao, duas vari´aveis livres, portanto existem dois autovetores associados a λ = 1. Podemos considerar, por exemplo, os vetores (1, −1, 0) e (2, 0, 1). ii) Da mesma forma que fizemos em i), devemos fazer para λ = 2. As-sim, temos: M = |[T ] − λI| =

  0 1 −2 2 1 −4 1 1 −3  . Fazendo M X = 0 obtemos:    y − 2z = 0 2x − y − 4z = 0 x + y − 3z = 0

(44)

seja, z ´e a ´unica vari´avel livre. Da´ı, uma solu¸c˜ao poss´ıvel ´e (1, 2, 1).

Logo, como T tem trˆes autovetores LI’s, podemos afirmar que se trata de um operador diagonaliz´avel. Precisamente, se escolhermos β = {(1, −1, 0), (2, 0, 1), (1, 2, 1)} como base, ent˜ao [T ]β =

  1 0 0 0 1 0 0 0 2  

Exemplo 2.3. Seja T : V −→ V , onde V ´e um espa¸co vetorial complexo de dimens˜ao 4 e [T ]αα =     0 1 0 0 −1 0 0 0 0 0 1 1 0 0 0 1    

onde α ´e uma base de V . Ent˜ao, desenvolvendo os c´alculos do determinante ∆(t) = |tI − A|, obtemos que o polinˆomio caracter´ıstico de T ´e ∆(t) = (t − i)(t + i)(t − 1)2, logo seus autovalores s˜ao λ

1 = i, λ2 = −i, λ3 = 1 (com

multiplicidade 2). Por´em, n˜ao ´e poss´ıvel encontrar dois autovetores LI’s para λ3 = 1, pois     0 1 0 0 −1 0 0 0 0 0 1 1 0 0 0 1         x y z w     = 1     x y z w     nos d´a o sistema:        y = x −x = y z + w = z w = w , ou seja, y = x = w = 0. Logo, os

autovetores associados ao autovalor λ3 = 1 s˜ao do tipo (0, 0, z, 0) pertencentes

ao espa¸co vetorial em quest˜ao. Assim, T n˜ao ´e diagonaliz´avel.

(45)

Cap´ıtulo 3

Forma Canˆ

onica de Jordan

3.1

Invariˆ

ancia

Seja T um operador linear sobre o espa¸co vetorial V . Dizemos que um subespa¸co W de V ´e invariante por T ou, ent˜ao, T-invariante se T levar W em si mesmo, ou seja, se para todo v ∈ W tivermos T (v) ∈ W . Neste caso, a restri¸c˜ao de T a W define um operador linear de W (LIPSCHUTZ, 2011). Teorema 3.1. Sejam T um operador linear sobre V e f (t) um polinˆomio. Ent˜ao, o n´ucleo de f (T ) ´e invariante por T .

Demonstra¸c˜ao. Suponha que v ∈ Ker(f (T )), ou seja, (f (T ))(v) = 0. De-vemos mostrar que T (v) tamb´em pertence ao n´ucleo de f (T ), ou seja, que (f (T ))(T (v)) = (f (T ) ◦ T )(v) = 0. Como f (t)t = tf (t), temos f (T ) ◦ T = T ◦ f (T ). Assim, resulta: (f (T ) ◦ T )(v) = (T ◦ f (T ))(v) = T ((f (T ))(v)) = T (0) = 0.

Teorema 3.2. Seja W um subespa¸co invariante por T : V −→ V . Ent˜ao, existe uma representa¸c˜ao matricial de T com uma matriz em blocosA B

0 C 

, sendo A a representa¸c˜ao matricial da restri¸c˜ao H de T a W . (H : W −→ W definido por H(v) = T (v))

(46)

es-tendˆe-la para uma base {w1, w2, ..., wr, v1, v2, ..., vs} de V . Temos: H(w1) = T (w1) = a11w1+ ... + a1rwr H(w2) = T (w2) = a21w1+ ... + a2rwr .. . H(wr) = T (wr) = ar1w1+ ... + arrwr T (v1) = b11w1+ ... + b1rwr+ c11v1 + ... + c1svs T (v2) = b21w1+ ... + b2rwr+ c21v1 + ... + c2svs .. . T (vs) = bs1w1+ ... + bsrwr+ cs1v1+ ... + cssvs

Como a matriz de T nessa base ´e a transposta da matriz de coeficientes desse sistema de equa¸c˜oes, decorre que essa matriz ´e da forma: A B

0 C 

, sendo A a transposta da matriz de coeficientes do subsistema ´obvio. Pelo mesmo argumento, A ´e a matriz de H em rela¸c˜ao `a base {w1, w2, ..., wr} de W.

3.2

Decomposi¸

ao em Somas Diretas

Invari-antes

Segundo Hoffman (1971), um espa¸co vetorial V ´e dito soma direta dos su-bespa¸cos W1, W2, ..., Wn, se cada vetor v ∈ V puder ser escrito de maneira

´

unica na forma:

v = w1+ w2+ ... + wn,

com wi ∈ Wi.

Teorema 3.3. Sejam W1, W2, ..., Wr subespa¸cos de V e considere

B1 = {w11, w12, ..., w1n1}, ..., Br = {wr1, wr2, ..., wrnr}

bases de W1, W2, ..., Wr, respectivamente. Assim, V ´e a soma direta dos Wi

se, e somente se, B = B1∪ B2∪ ... ∪ Br ´e uma base de V .

Demonstra¸c˜ao. Escolha B uma base de V. Ent˜ao, para cada vetor v de V, temos:

v = a11w11+ ... + a1n1w1n1 + ... + ar1wr1+ ... + arnrwrnr

(47)

com wi = ai1wi1+ ... + ainiwini ∈ Wi. Para mostrar a unicidade, suponha

agora que

v = w10 + w20 + ... + w0r,

com w0i ∈ Wi. Como {wi1, ..., wini} ´e uma base de Wi, temos w

0

i = bi1wi1+

... + biniwini, e portanto,

v = b11w11+ ... + b1n1w1n1+ b21w21+ ... + b2n2w2n2+ ... + br1wr1+ ... + brnrwrnr

Sendo B base de V, temos aij = bij, para cada i e cada j. Logo, wi = w0i, e

portanto, a soma de v ´e ´unica. Assim, temos que V ´e soma direta dos Wi.

Suponha, agora, que V seja a soma direta dos Wi. Ent˜ao, para cada v ∈ V

teremos v = w1 + ... + wr, onde wi ∈ Wi. Como {wij} ´e uma base de Wi,

cada wi ´e uma combina¸c˜ao linear dos wij, e, portanto, v ´e uma combina¸c˜ao

linear dos elementos de B. Assim, B gera V. Devemos ent˜ao verificar se B ´e linearmente independente. Suponha

a11w11+ ... + a1n1w1n1 + ... + ar1w1r1 + ... + arnrwrnr = 0

Observe que ai1wi1+...+ainiwini ∈ Wi. Tamb´em temos que 0 = 0+0+...+0 ∈

Wi. Como 0 deve ser escrito de forma ´unica,

ai1wi1+ ... + ainiwini = 0,

para i = 1, ..., r. A independˆencia das bases {wiji} implica que todos os

coeficientes a s˜ao nulos. Assim, B ´e linearmente independente e, portanto, uma base de V.

Teorema 3.4. Seja T um operador linear sobre V e suponha que V seja a soma direta de subespa¸cos T-invariantes, digamos, W1, W2, ..., Wr. Se Ai ´e a

representa¸c˜ao matricial da restri¸c˜ao de T a Wi ent˜ao T pode ser representado

pela matriz diagonal em blocos

M = diag(A1, A2, ..., Ar).

Demonstra¸c˜ao. Denotemos por Hi a restri¸c˜ao de T a Wi, isto ´e, Hi : Wi −→

(48)

base de Wi. Assim, H1(w11) = a1.11w11+ a1.12w12+ ... + a1.1n1w1n1 .. . H1(w1n1) = a1.n11w11+ a1.n12w12+ ... + a1.n1n1w1n1 H2(w21) = a2.11w21+ a2.12w22+ ... + a2.1n2w2n2 .. . H2(w2n2) = a2.n21w21+ a2.n22w22+ ... + a2.n2n2w2n2 Continuando para i > 2 ... Hr(wr1) = ar.11wr1+ ar.12wr2 + ... + ar.1nrwrnr .. . Hr(wrnr) = ar.nr1w11+ ar.nr2wr2+ ... + ar.nrnrwrnr

Seja Ai a representa¸c˜ao matricial de Hi dada pela transposta da

ma-triz dos coeficientes dos subsistemas apresentados. Note que, de fato, se M ´e a representa¸c˜ao matricial de T na base B, podemos escrever M = diag(A1, ..., Ar).

3.3

Decomposi¸

ao prim´

aria

O objetivo dessa se¸c˜ao ´e enunciar e demonstrar o Teorema da Decom-posi¸c˜ao Prim´aria, que, como veremos, ´e consequˆencia direta dos dois seguin-tes teoremas.

Teorema 3.5. Sejam T um operador linear sobre V e f (t) = g(t)h(t) um polinˆomio tal que f (T ) = 0, com g(t) e h(t) polinˆomios primos entre si, ou seja, n˜ao existindo nenhum polinˆomio n˜ao-constante que divida ambos. Ent˜ao V ´e a soma direta dos subespa¸cos T-invariantes U = Ker g(T ) e W = Ker h(T ).

Demonstra¸c˜ao. Note que, de acordo com o Teorema 3.1, U e W s˜ao T-invariantes. Sendo g(t) e h(t) polinˆomios primos entre si, existem r(t) e s(t)

(49)

tais que:

r(t)g(t) + s(t)h(t) = 1 Logo,

r(T )g(T ) + s(T )h(T ) = I (3.1) Seja v ∈ V , aplicando v ∈ V `a equa¸c˜ao (3.1) obtemos:

r(T )g(T )v + s(T )h(T )v = v Mas r(T )g(T )v pertence a W , pois

h(T )r(T )g(T )v = r(T )g(T )h(T )v = r(T )f (T )v = r(T )0v = 0 Analogamente, s(T )h(T )v pertence a U , porque

g(T )s(T )h(T )v = s(T )g(T )h(T )v = s(T )f (T )v = s(T )0v = 0

Assim, como qualquer vetor v ∈ V pode ser escrito como soma de uma parcela pertencente a U com outra parcela pertencente a W , temos que V ´e a soma de U e W .

Para mostrar que V = U ⊕ W , devemos mostrar que uma soma v = u + w, com u ∈ U e w ∈ W , ´e determinada de modo ´unico por v. Aplicando o operador r(T )g(T ) a v = u + w, e usando que g(T )u = 0, obtemos

r(T )g(T )v = r(T )g(T )u + r(T )g(T )w = r(T )g(T )w Aplicando a equa¸c˜ao (3.1) `a w e usando o fato de h(T )w = 0, temos

w = r(T )g(T )w + s(T )h(T )w = r(T )g(T )w

Juntando esses dois ´ultimos resultados, temos que w = r(T )g(T )w = r(T )g(T )v e, portanto, w esta determinado de modo ´unico por v. De forma an´aloga, ob-temos que u est´a determinado de modo ´unico por v. Assim, V = U ⊕ W . Teorema 3.6. No Teorema 3.5, se f(t) ´e o polinˆomio m´ınimo de T, e g(t) e h(t) s˜ao mˆonicos, ent˜ao g(t) e h(t) s˜ao os polinˆomios m´ınimos das restri¸c˜oes de T a U e W, respectivamente.

(50)

Demonstra¸c˜ao. Suponha m1(t) e m2(t) os polinˆomios m´ınimos de T1 e T2,

restri¸c˜oes de T a U e W , respectivamente. Observe que g(T1) = 0 e h(T2) = 0,

porque U = Ker g(T ) e W = Ker h(t). Assim, temos que m1(t) divide g(t)

e m2(t) divide h(t). Assim, pelo Teorema 3.5, f (t) ´e o m´ınimo m´ultiplo

comum de m1(t) e m2(t). No entanto, m1(t) e m2(t) s˜ao primos entre si, pois

g(t) e h(t) s˜ao primos entre si. Assim, f (t) = m1(t)m2(t). Tamb´em temos

f (t) = g(t)h(t). Todos esses resultados nos d˜ao g(t) = m1(t) e h(t) = m2(t),

lembrando que todos os polinˆomios envolvidos s˜ao mˆonicos.

Teorema 3.7 (Teorema da Decomposi¸c˜ao Prim´aria). Seja T : V −→ V um operador linear com polinˆomio m´ınimo

m(t) = f1(t)n1f2(t)n2 · · · fr(t)nr

em que os fi(t) s˜ao polinˆomios mˆonicos irredut´ıveis distintos. Ent˜ao V ´e a

soma direta dos subespa¸cos T-invariantes W1, W2, ..., Wr, sendo Wi o n´ucleo

de fi(T )ni. Al´em disso, fi(t)ni ´e o polinˆomio m´ınimo da restri¸c˜ao de T a Wi.

Demonstra¸c˜ao. Essa demonstra¸c˜ao ser´a feita por indu¸c˜ao. Para r = 1, a verifica¸c˜ao da tese ´e trivial. Suponha que o teorema seja v´alido para r − 1. Pelo primeiro Teorema 3.5, podemos escrever V como a soma direta de subespa¸cos T-invariantes W1 e V1, em que W1 ´e o n´ucleo de f1(T )n1 e V1 ´e o

n´ucleo de f2(T )n2 · · · fr(T )nr. Pelo Teorema 3.6, os polinˆomios m´ınimos das

restri¸c˜oes de T a W1 e V1 s˜ao f1(t)n1 e f2(t)n2 · · · fr(t)nr, respectivamente.

Denotemos por T1 a restri¸c˜ao de T a V1. Pela hip´otese de indu¸c˜ao, V1 ´e

a soma direta de subespa¸cos W2, ..., Wr de maneira que Wi ´e o n´ucleo de

fi(T1)ni e fi(t)ni ´e o polinˆomio m´ınimo da restri¸c˜ao de T1 a Wi. Mas o n´ucleo

de fi(T )ni com i = 2, ..., r necessariamente est´a contido em V1, pois fi(t)ni

divide f2(t)n2 · · · fr(t)nr. Assim, o n´ucleo de fi(T )ni ´e igual ao n´ucleo de

fi(T1)ni, que ´e Wi. Tamb´em, a restri¸c˜ao de T a Wi ´e igual a restri¸c˜ao de

T1 a Wi (com i = 2, ..., r). Logo, fi(t)ni ´e tamb´em o polinˆomio m´ınimo da

restri¸c˜ao de T a Wi. Assim, V = W1 ⊕ W2 ⊕ ... ⊕ Wr ´e a decomposi¸c˜ao

procurada de T.

Teorema 3.8. Um operador linear T sobre V ´e diagonaliz´avel se, e s´o se, o polinˆomio m´ınimo m(t) de T ´e um produto de polinˆomios lineares distintos.

(51)

Demonstra¸c˜ao. Suponhamos que m(t) seja um produto de polinˆomios linea-res distintos

m(t) = (t − λ1)(t − λ2) · · · (t − λr)

em que os λis˜ao escalares distintos. Do Teorema da Decomposi¸c˜ao Prim´aria,

sabemos que V ´e soma direta de subespa¸cos W1, ..., Wr, sendo Wi = Ker(T −

λiI). Assim, se v pertence a Wi, ent˜ao (T − λiI)(v) = 0, logo, T (v) = λiv.

Ou seja, cada vetor de Wi ´e um autovetor associado ao autovalor λi. Pelo

Teorema 3.3 a uni˜ao das bases dos subespa¸cos W1, ..., Wr ´e uma base de V.

Visto que essa base consiste em autovetores de T, podemos concluir que T ´e diagonaliz´avel.

Agora, suponhamos que T seja diagonaliz´avel, isto ´e, que V possua uma base constitu´ıda de autovetores de T . Sejam λ1, ..., λs os autovalores distintos de

T. Assim, o operador

f (T ) = (T − λ1I)(T − λ2I) · · · (T − λsI)

leva cada vetor da base em 0. Assim, f (T ) = 0 e, portanto, o polinˆomio m´ınimo m(t) de T divide o polinˆomio

f (t) = (t − λ1)(t − λ2) · · · (t − λs).

Logo, m(t) ´e o produto de polinˆomios lineares distintos.

3.4

Operadores Nilpotentes

De acordo com Lipschutz (2009), um operador linear T sobre V ´e con-siderado nilpotente se Tn = 0, para algum n inteiro positivo. O ´ındice de

nilpotˆencia de T ´e r se Tr = 0 e Tr−1 6= 0. De maneira an´aloga, temos que

uma matriz A ´e nilpotente se An = 0 para algum n inteiro positivo, e que

seu ´ındice ´e r se Ar = 0 e Ar−1 6= 0. ´E f´acil ver que o polinˆomio m´ınimo de um operador ou matriz nilpotente de ´ındice k ´e m(t) = tk e, portanto, 0 ´e seu ´unico autovalor.

Duas defini¸c˜oes fundamentais para este trabalho s˜ao a da matriz denomi-nada bloco de Jordan e a da matriz bloco de Jordan nilpotente. Um bloco de

(52)

Jordan associado ao autovalor λ, consiste de entradas iguais a λ na diagonal principal, 1 nas entradas acima da diagonal e 0 nas demais entradas, ou seja

J(λ) =        λ 1 ... 0 0 0 λ ... 0 0 .. . ... . .. ... ... 0 0 ... λ 1 0 0 ... 0 λ        .

Um bloco de Jordan nilpotente ´e formado por entradas 1 na linha acima da diagonal e 0 nas demais entradas, isto ´e

N = N(r) =        0 1 ... 0 0 0 0 ... 0 0 .. . ... . .. ... ... 0 0 ... 0 1 0 0 ... 0 0       

onde N = N (r) ´e nilpotente de ´ındice

r.

Observe que J(λ) = λI + N

Mais a frente, mostraremos que qualquer operador linear T admite de-composi¸c˜ao em dois operadores, os quais s˜ao compostos pela soma de um operador escalar com um operador nilpotente.

O Teorema 3.9 esclarece um resultado muito importante relacionado `a operadores nilpotentes.

Afirma¸c˜ao 3.1. Seja T : V −→ V um operador linear. Suponha que, para v ∈ V , tenhamos Tk(v) = 0, mas Tk−1(v) 6= 0. Assim, valem as seguintes afirma¸c˜oes:

i) O conjunto S = {v, T (v), ..., Tk−1(v)} ´e linearmente independente.

ii) O subespa¸co W gerado por S ´e T − invariante. iii) A restri¸c˜ao T1 de T a W ´e nilpotente de ´ındice k.

iv) Em rela¸c˜ao `a base {Tk−1(v), ..., T (v), v} de W , a matriz de T

1 ´e uma

matriz quadrada de ordem k dada pelo bloco de Jordan nilpotente Nk de

´ındice k.

Demonstra¸c˜ao. i) Suponha

av + a1T (v) + a2T2(v) + ... + ak−1Tk−1(v) = 0 (3.2)

Se aplicarmos Tk−1 na equa¸c˜ao (3.2) e usarmos o fato de que Tk(v) = 0, obteremos aTk−1(v) = 0, e como Tk−1(v) 6= 0, ent˜ao a = 0. Agora aplicando

(53)

Tk−2 `a equa¸c˜ao (3.2) e usando Tk(v) = 0 e a = 0, obtemos a1Tk−1(v) = 0

e, portanto, a1 = 0. Aplicando Tk−3 `a equa¸c˜ao (3.2) e usando Tk(v) = 0 e

a = a1 = 0, obtemos a2Tk−1(v) = 0 e, portanto, a2 = 0. Continuando esse

processo, iremos verificar que todos os ai s˜ao nulos. Assim, S ´e linearmente

independente.

ii) Seja v ∈ W . Ent˜ao

v = bv + b1T (v) + b2T2(v) + ... + bk−1Tk−1(v).

Usando o fato de que Tk(v) = 0, obtemos:

T (v) = bT (v) + b1T2(v) + ... + bk−2Tk−1(v) ∈ W.

Logo, W ´e invariante por T .

iii) Por hip´otese, temos que Tk(v) = 0. Assim, para i = 0, ..., k − 1,

T1k(Ti(v)) = Tk+i(v) = 0. Ou seja, se aplicarmos Tk

1 a cada gerador de W obtemos 0. Logo, T1k = 0,

do que podemos concluir que T1 ´e nilpotente de ´ındice k, no m´aximo. Mas

T1k−1(v) = Tk−1(v) 6= 0, ou seja, T1 ´e nilpotente de ´ındice k.

iv) Considerando a base {Tk−1(v), Tk−2(v), ..., T (v), v} de W , temos: T1(Tk−1(v)) = Tk(v) = 0 T1(Tk−2(v)) = Tk−1(v) T1(Tk−3(v)) = Tk−2(v) .. . T1(T (v)) = T2(v) T1(v) = T (v) .

Assim, a matriz de T1 nessa base ´e uma matriz quadrada de ´ındice k, dada

pelo bloco de Jordan nilpotente Nk.

Afirma¸c˜ao 3.2. Seja T : V −→ V um operador linear e denotemos U = Ker(Ti) e W = Ker(Ti+1). Assim:

i) U ⊆ W ii) T(W) ⊆ U

Referências

Documentos relacionados

nesta nossa modesta obra O sonho e os sonhos analisa- mos o sono e sua importância para o corpo e sobretudo para a alma que, nas horas de repouso da matéria, liberta-se parcialmente

Este trabalho buscou, através de pesquisa de campo, estudar o efeito de diferentes alternativas de adubações de cobertura, quanto ao tipo de adubo e época de

3.3 o Município tem caminhão da coleta seletiva, sendo orientado a providenciar a contratação direta da associação para o recolhimento dos resíduos recicláveis,

Esta pesquisa discorre de uma situação pontual recorrente de um processo produtivo, onde se verifica as técnicas padronizadas e estudo dos indicadores em uma observação sistêmica

Na relação entre o tempo de maturação e as doenças causadoras da insuficiência renal crônica, foi encontrado que os pacientes diabéticos obtiveram maior média de 45,8 dias

Para divulgação dos resultados dos projetos de agricultura sem queima na Embrapa, foi realizado no período de 08 a 09 de setembro de 1999 em Belém o Seminário sobre manejo

•   O  material  a  seguir  consiste  de  adaptações  e  extensões  dos  originais  gentilmente  cedidos  pelo 

O objetivo deste trabalho foi avaliar épocas de colheita na produção de biomassa e no rendimento de óleo essencial de Piper aduncum L.. em Manaus