UNIVERSIDADE FEDERAL DO REC ˆONCAVO DA BAHIA CENTRO DE CIˆENCIAS EXATAS E TECNOL ´OGICAS BACHARELADO EM CIˆENCIAS EXATAS E TECNOL ´OGICAS
TEOREMA DA DECOMPOSIC
¸ ˜
AO
PRIM ´
ARIA E A FORMA CAN ˆ
ONICA DE
JORDAN
MABEL SALGADO DE SANTANA PINTO
CRUZ DAS ALMAS 2016
TEOREMA DA DECOMPOSIC
¸ ˜
AO
PRIM ´
ARIA E A FORMA CAN ˆ
ONICA DE
JORDAN
MABEL SALGADO DE SANTANA PINTO
Trabalho de conclus˜ao de curso apresentado ao curso de Bacharelado em Ciˆencias Exatas e Tec-nol´ogicas do Centro de Ciˆencias Exatas e Tec-nol´ogicas da Universidade Federal do Recˆoncavo da Bahia, como parte dos requisitos para a ob-ten¸c˜ao do t´ıtulo de Bacharel em Ciˆencias Exatas e Tecnol´ogicas.
Orientador: Prof
oMs.c. Jarbas Alves Fernandes
CRUZ DAS ALMAS
2016
`
A minha m˜ae, Rita, e aos meus av´os, Mabel e Ivo, com muito amor.
“Words are, in my not-so-humble opinion, our most inexhaustible source of magic.”
(Personagem Alvo Dumbledore in: ROWLING, 2009)
Agradecimentos
´
E com imenso carinho que ofere¸co meus agradecimentos `as pessoas que ajudaram, de v´arias formas, na conclus˜ao deste trabalho.
Primeiramente, agrade¸co a Deus por todas as oportunidades que me con-cedeu. `A minha m˜ae, Rita, e meus av´os, Mabel e Ivo, pelo amor, confian¸ca, incentivo, dedica¸c˜ao, e por todo o sacrif´ıcio que fazem por mim. Amo vocˆes!
`
A meu pai, tios e primas, que me apoiaram e torceram pelo meu sucesso durante toda minha vida. `A Ana Cassia, Isadora, Didi, Bolinha e Mel, por tornarem a vida mais leve.
Ao meu noivo, Tales Maltez, pela amizade, compreens˜ao, pelo cuidado e pelas constantes tentativas de me acalmar nos per´ıodos de provas e ao longo do desenvolvimento deste trabalho.
Aos colegas de jornada Jailson, Geovane, Josi, Railson e Yuri, pela paciˆencia, cumplicidade, pelos momentos divertidos e constantes questionamentos que iluminam a mente.
`
Aos meus amigos Lucas, Carol, Brunelli e Lara pelos conselhos, carinho e aten¸c˜ao dedicados a mim.
Aos professores Alex Santana, Gilberto Pina, Eleazar Madriz, Mariana Pinheiro, Maria Am´elia, Antˆonio Andrade, Adson Mota e, de forma espe-cial, ao meu orientador Jarbas Fernandes, agrade¸co por toda a paciˆencia e preocupa¸c˜ao, que sempre excedia os seus deveres acadˆemicos, e pelas contri-bui¸c˜oes, diretas ou indiretas, para a realiza¸c˜ao deste trabalho, transferindo ao m´aximo seus conhecimentos e me mostrando que ainda tenho um longo caminho a seguir.
Para todos estes, o meu sincero obrigada. Mabel Santana
Resumo
Neste trabalho, estudamos especificamente operadores lineares sobre espa¸cos vetoriais de dimens˜oes finitas. Definimos polinˆomios caracter´ıstico e m´ınimo para esses operadores e, pelo Teorema da Decomposi¸c˜ao Prim´aria, vemos que qualquer operador pode ser decomposto em operadores cujos polinˆomios m´ınimos s˜ao potˆencias de polinˆomios irredut´ıveis. Apresentamos tamb´em a Forma Canˆonica de Jordan, que ´e uma maneira de expressar o operador quando ´e poss´ıvel escrever seus polinˆomios m´ınimo e caracter´ıstico como fatores de polinˆomios lineares.
Palavras-chave: Teorema da Decomposi¸c˜ao Prim´aria, Diagonaliza¸c˜ao de operadores, Forma Canˆonica de Jordan
Abstract
In this paper, we specifically studied linear operators on finite dimensional vector spaces. We define characteristic and minimal polynomials for these operators and , by the Primary Decomposition Theorem, we see that any operator can be considered as a union of operators whose minimum polyno-mials are powers of irreducible polynopolyno-mials. We also present the Canonical Jordan Form, that is a way to express the operator when it is possible to write its minimum and characteristic polynomials as linear polynomial factors.
Keywords: Primary Decomposition Theorem, Diagonalization of ope-rators, Jordan Canonical Form
Sum´
ario
Introdu¸c˜ao 11
1 Espa¸cos Vetoriais e Transforma¸c˜oes Lineares 13
1.1 Espa¸cos Vetoriais . . . 13
1.1.1 Subespa¸co Vetorial . . . 15
1.1.2 Soma e Soma Direta . . . 16
1.1.3 Combina¸c˜ao Linear e Subespa¸co finitamente gerado . . 17
1.1.4 Dependˆencia e Independˆencia Linear . . . 18
1.1.5 Base e Dimens˜ao de um Espa¸co Vetorial . . . 18
1.1.6 Coordenadas . . . 19
1.2 Transforma¸c˜ao Linear . . . 20
1.2.1 N´ucleo e Imagem de uma Transforma¸c˜ao Linear . . . . 20
1.2.2 Isomorfismo Linear . . . 21
1.2.3 Teorema do N´ucleo e da Imagem . . . 21
1.2.4 Opera¸c˜oes com Transforma¸c˜oes Lineares . . . 24
1.2.5 Matriz de uma Transforma¸c˜ao Linear . . . 26
1.2.6 Algebra das Transforma¸c˜´ oes Lineares e Matrizes . . . . 27
2 Diagonaliza¸c˜ao de Operadores Lineares 31 2.1 Autovalores e Autovetores . . . 31
2.2 Polinˆomio caracter´ıstico de um Operador linear . . . 32
2.3 Polinˆomio m´ınimo de um operador linear . . . 38
3 Forma Canˆonica de Jordan 44 3.1 Invariˆancia . . . 44
3.2 Decomposi¸c˜ao em Somas Diretas Invariantes . . . 45
3.3 Decomposi¸c˜ao prim´aria . . . 47
3.4 Operadores Nilpotentes . . . 50
3.5 Forma Canˆonica de Jordan . . . 56
Appendices 60 A Matriz Linha Reduzida a Forma Escada e Determinantes 61
Lista de Figuras
1.1 Composi¸c˜ao de Tranforma¸c˜oes Lineares . . . 28 1.2 Composi¸c˜ao com a Transforma¸c˜ao Identidade . . . 30
Introdu¸
c˜
ao
A ´Algebra Linear ´e importante no estudo da matem´atica pois possui diversas aplica¸c˜oes. Nela, estudamos espa¸cos vetoriais e transforma¸c˜oes li-neares entre eles. Se esses espa¸cos possuem dimens˜oes finitas, ´e poss´ıvel representar as transforma¸c˜oes lineares na forma de matrizes (LIMA, 2009).
Segundo Hoffman (1971), a ´algebra linear ´e, a grosso modo, um estudo das propriedades comuns a sistemas alg´ebricos constitu´ıdos por um conjunto, aliado a uma breve no¸c˜ao de “combina¸c˜ao linear” de seus elementos.
Recentemente, a ´Algebra Linear se tornou um conhecimento matem´atico essencial para matem´aticos, engenheiros, f´ısicos, estat´ısticos, economistas, entre outros profissionais, o que nos mostra a diversidade de aplica¸c˜oes poss´ıveis do conte´udo abordado (LIPSCHUTZ, 2011).
A metodologia utilizada ´e a revis˜ao bibliogr´afica, pois os estudos sobre o t´ıtulo est˜ao abordados em livros conceituados de ´Algebra Linear devida-mente referenciados. Com este m´etodo pretendemos explorar o estudo dos operadores lineares num espa¸co vetorial de dimens˜ao finita, encontrando uma matriz mais simples para expressar estes operadores lineares.
No primeiro cap´ıtulo s˜ao apresentados conceitos fundamentais da ´Algebra Linear como espa¸cos vetoriais, subespa¸cos, dependˆencia e independˆencia li-near, bases e dimens˜ao. Al´em disso, s˜ao tratadas as transforma¸c˜oes lineares, sua representa¸c˜ao por matrizes, sua ´algebra e isomorfismos lineares.
O segundo cap´ıtulo introduz a defini¸c˜ao de operador linear com seus au-tovalores e autovetores, bem como os polinˆomios caracter´ıstico e m´ınimo, com a inten¸c˜ao de abordar a diagonaliza¸c˜ao de operadores.
apresen-tando conceitos de invariˆancia e nilpotˆencia, e tendo como um dos objetivos principais enunciar e demonstrar o Teorema da Decomposi¸c˜ao Prim´aria.
Cap´ıtulo 1
Espa¸
cos Vetoriais e
Transforma¸
c˜
oes Lineares
Neste cap´ıtulo, vamos apresentar algumas defini¸c˜oes e resultados da ´Algebra Linear necess´arios para compreens˜ao do texto.
1.1
Espa¸
cos Vetoriais
O corpo dos n´umeros reais R ou o corpo dos n´umeros complexos C ser˜ao denotados por K. Os elementos de K ser˜ao chamados de escalares.
Segundo Hoffman (1971), um conjunto V , n˜ao vazio, ´e um espa¸co vetorial sobre K se est˜ao definidas duas opera¸c˜oes: a adi¸c˜ao, que a cada par de elementos u, v ∈ V faz corresponder um elemento u + v ∈ V , chamado soma de u com v, e a multiplica¸c˜ao por um escalar, que a cada k ∈ K e cada elemento v ∈ V faz corresponder um elemento kv ∈ V , chamado produto de k por v.
Tais opera¸c˜oes devem satisfazer, para quaisquer k1, k2 ∈ K e u, v, w ∈ V ,
as condi¸c˜oes abaixo: i) u + v = v + u;
ii) u + (v + w) = (u + v) + w;
iii) existe um vetor 0 ∈ V , conhecido como vetor nulo, tal que v + 0 = 0 + v = 0, para todo v ∈ V ;
iv) para cada vetor v ∈ V , existe um vetor −v ∈ V , chamado de sim´etrico de v, tal que −v + v = v + (−v) = 0; v) (k1+ k2)v = k1v + k2v; vi) k1(u + v) = k1u + k1v; vii) (k1k2)v = k1(k2v); viii) 1v = v.
Neste trabalho, chamaremos um espa¸co vetorial V sobre um corpo K simplesmente de espa¸co vetorial V sempre que n˜ao houver ambiguidade. Os elementos de V ser˜ao chamados de vetores.
Os conjuntos a seguir, com as opera¸c˜oes de adi¸c˜ao e produto por um escalar indicadas, s˜ao exemplos de espa¸cos vetoriais:
Exemplo 1.1. O conjunto de todos os ˆenuplos de elementos de K, denotado por Kn. Com as opera¸c˜oes:
Adi¸c˜ao de vetores: (x1, x2, ..., xn)+(y1, y2, ..., yn) = (x1+y1, x2+y2, ..., xn+yn)
Multiplica¸c˜ao por um escalar: k(x1, x2, ..., xn) = (kx1, kx2, ..., kxn)
Exemplo 1.2. O conjunto de todos os polinˆomios de grau menor do que ou igual a n, mais o polinˆomio nulo, indicado por Pn(t). Com as seguintes
opera¸c˜oes:
Adi¸c˜ao de vetores: (ao+ a1t + ... + asts) + (b0+ b1t + ... + bs−1ts−1+ bsts+
... + brtr) = ao+ b0+ (a1+ b1)t + ... + (as−1+ bs−1)ts−1+ (as+ bs)ts+ ... + brtr
com s ≤ r ≤ n
Multiplica¸c˜ao por um escalar: k(ao+a1t+...+asts) = kao+ka1t+...+kasts,
com s ≤ n.
Exemplo 1.3. O conjunto das matrizes de ordem m×n, indicado por Mm×n.
Com as seguintes opera¸c˜oes:
Adi¸c˜ao de vetores: a11 a12 ... a1n .. . ... ... ... am1 am2 ... amn + b11 b12 ... b1n .. . ... ... ... bm1 bm2 ... bmn = = a11+ b11 a12+ b12 ... a1n+ b1n .. . ... ... ... am1+ bm1 am2+ bm2 ... amn+ bmn ;
Multiplica¸c˜ao por um escalar: k a11 a12 ... a1n .. . ... ... ... am1 am2 ... amn = ka11 ka12 ... ka1n .. . ... ... ... kam1 kam2 ... kamn
Exemplo 1.4. Seja X ⊂ R um conjunto n˜ao vazio. O conjunto de todas as fun¸c˜oes de X em R, indicado por F(X, R) representa um espa¸co vetorial com as seguintes opera¸c˜oes:
Adi¸c˜ao de vetores: a soma de duas fun¸c˜oes f, g ∈ F(X, R) ´e a fun¸c˜ao f + g ∈ F(X, R) definida por (f + g)(x) = f (x) + g(x), ∀x ∈ X.
Multiplica¸c˜ao por um escalar: o produto de um escalar c ∈ R e uma fun¸c˜ao f ∈ F(X, R) ´e a fun¸c˜ao cf ∈ F(X, R) definida por (cf )(x) = cf (x), ∀x ∈ X. Dado um espa¸co vetorial V , existem subconjuntos de V que possuem a mesma estrutura de V , isto ´e, satisfazem as opera¸c˜oes de adi¸c˜ao de veto-res e multiplica¸c˜ao por escalar de V . Estes subconjuntos s˜ao denominados subespa¸cos vetoriais e apresentamos a seguinte defini¸c˜ao.
1.1.1
Subespa¸
co Vetorial
Sejam V um espa¸co vetorial e W um subconjunto n˜ao vazio de V , dizemos que W ´e um subespa¸co vetorial de V se dados quaisquer u, v ∈ W e a ∈ K temos u + av ∈ W (HOFFMAN, 1971). Neste texto, um subespa¸co vetorial de V poder´a ser chamado apenas de subespa¸co de V .
Para todos os espa¸cos vetoriais V , os subconjuntos W1 = {0} e W2 = V
s˜ao subespa¸cos de V . Estes subespa¸cos s˜ao denominados subespa¸cos triviais de V . Subespa¸cos n˜ao triviais ser˜ao chamados de subespa¸cos pr´oprios de V . Proposi¸c˜ao 1.1. Seja V um espa¸co vetorial. Sejam W1, W2, ..., Wr
su-bespa¸cos de V, ent˜ao W = W1 ∩ W2∩ ... ∩ Wr ´e um subespa¸co de V .
Demonstra¸c˜ao. Como cada Wi, i = 1, 2, ..., r, ´e um subespa¸co de V , todos
W n˜ao ´e vazio. Sejam u e v vetores de W e seja a um escalar. Pela defini¸c˜ao de W , tanto u como v pertencem a cada Wi e, como cada Wi ´e um subespa¸co
de V , o vetor u + av est´a em todo Wi. Logo, u + av est´a em W . Portanto,
W ´e um subespa¸co vetorial de V .
A uni˜ao de subespa¸cos vetoriais nem sempre ´e um espa¸co vetorial. Por exemplo, sejam W1 = {(x, y) ∈ R2; y = 2x} e W2 = {(x, y) ∈ R2; y = 3x}
subespa¸cos de R2. Assim, W = W1∪ W2 = {(x, y) ∈ R2; y = 2x ou y = 3x}.
Note que os vetores (1, 2), (1, 3) ∈ W , por´em, a soma (1, 2) + (1, 3) = (2, 5) /∈ W , o que impede W de ser considerado um subespa¸co vetorial do R2.
A seguir apresentaremos outros conceitos importantes.
1.1.2
Soma e Soma Direta
De acordo com Hefez (2012), dados U e W subespa¸cos de um espa¸co vetorial V , chamaremos soma de U e W , e denotaremos por U + W , o conjunto:
U + W = {u + w; u ∈ U e w ∈ W }.
Proposi¸c˜ao 1.2. Seja V um espa¸co vetorial. Sejam U e W subespa¸cos de V , ent˜ao U + W ´e subespa¸co de V .
Demonstra¸c˜ao. Sejam U e W subespa¸cos de V , a ∈ R e v1, v2 ∈ U + W .
Como v1, v2 ∈ U + W , existem u1, u2 ∈ U e w1, w2 ∈ W tais que v1 = u1+ w1
e v2 = u2+ w2. Assim,
v1+ av2 = (u1+ w1) + a(u2+ w2)
= (u1+ au2) + (w1+ aw2) ∈ U + W.
Logo, U + W ´e subespa¸co de V .
Dizemos que um espa¸co vetorial V ´e a soma direta de seus subespa¸cos U e W , e indicamos por V = U ⊕ W , se cada v ∈ V pode ser escrito de modo ´
Proposi¸c˜ao 1.3. Sejam U e W subespa¸cos de um espa¸co vetorial V . Di-remos que V ´e soma direta de U com W se, e somente se, V = U + W e U ∩ W = {0}.
Demonstra¸c˜ao. Suponhamos inicialmente V = U ⊕ W , ou seja, que cada vetor de V se escreve de modo ´unico como a soma de um vetor de U com um vetor de W . Claramente, ent˜ao V = U + W . Se U ∩ W 6= {0}, existiria um vetor v n˜ao nulo em U ∩ W . Visto que v ∈ W e W ´e um subespa¸co, ent˜ao −v ∈ W . Consequentemente, ter´ıamos 0 = 0 + 0 com 0 ∈ U e 0 ∈ W , e 0 = v + (−v), com v ∈ U e −v ∈ W . Sendo v 6= 0, ter´ıamos duas formas distintas para escrever um mesmo vetor de V . Como isto n˜ao ocorre, temos que U ∩ W = {0}.
Seja V = U + W e U ∩ W = {0}. Tomemos v ∈ V . Como V = U + W ent˜ao, pela defini¸c˜ao de soma de subespa¸cos, existem u ∈ U e w ∈ W tais que v = u + w. Vejamos que tal decomposi¸c˜ao ´e ´unica, no sentido de que se v = u0+ w0, com u0 ∈ U e w0 ∈ W , ent˜ao u = u0 e w = w0. De fato, v = u + w
e v = u0+ w0, da´ı
u + w = u0+ w0 u − u0 = −(w − w0).
J´a que u − u0 ∈ U e −(w − w0) ∈ W , da igualdade anterior decorre que
u − u0 ∈ U ∩ W e −(w − w0) ∈ U ∩ W . Como U ∩ W = {0}, segue que u = u0
e w = w0.
1.1.3
Combina¸
c˜
ao Linear e Subespa¸
co finitamente
ge-rado
Seja V um espa¸co vetorial. Um vetor v de V ´e uma combina¸c˜ao linear dos vetores v1, v2, ..., vn de V se existirem escalares c1, c2, ..., cn tais que v =
c1v1 + c2v2+ ... + cnvn (HEFEZ, 2012).
Sejam v1, v2, ..., vn vetores de um subespa¸co vetorial V . O conjunto de
todas as combina¸c˜oes lineares destes vetores ´e considerado um subespa¸co finitamente gerado, que indicaremos por [v1, v2, ..., vn] (HEFEZ, 2012).
1.1.4
Dependˆ
encia e Independˆ
encia Linear
Sejam V um espa¸co vetorial e v1, v2, ..., vn vetores de V. O conjunto
{v1, v2, ..., vn} ´e linearmente independente (L.I) ou, ainda, os vetores v1, v2, ...,
vns˜ao linearmente independentes (L.I.’s) se a equa¸c˜ao c1v1+c2v2+...+cnvn=
0 ´e satisfeita somente para c1 = c2 = ... = cn = 0. Caso exista algum ci 6= 0,
diremos que o conjunto {v1, v2, ..., vn} ´e linearmente dependente (L.D.) ou que
os vetores v1, v2, ..., vn s˜ao linearmente dependentes (L.D.’s). Vale ressaltar
que o vetor nulo ´e combina¸c˜ao linear de quaisquer outros vetores (HOFF-MAN, 1971).
1.1.5
Base e Dimens˜
ao de um Espa¸
co Vetorial
Seja β = {v1, v2, ..., vn} um subconjunto linearmente independente do
espa¸co vetorial V, chamaremos β de base de V se todos os vetores v ∈ V puderem ser escritos, de modo ´unico, como combina¸c˜ao linear dos vetores de β, isto ´e, V = [v1, v2, ..., vn] (LIMA, 2009).
Um espa¸co vetorial V ´e de dimens˜ao finita se possui uma base finita (HOFFMAN, 1971).
Se V ´e um espa¸co vetorial n˜ao nulo de dimens˜ao finita, a dimens˜ao de V , indicada por dimV , ´e o n´umero de vetores de uma de suas bases. Por conven¸c˜ao, a dimens˜ao do espa¸co vetorial nulo ´e 0 (HEFEZ, 2012).
Os conjuntos a seguir representam bases dos espa¸cos indicados, denomi-nadas de bases canˆonicas.
Exemplo 1.5. β1 = {(1, 0, ..., 0, 0), (0, 1, 0, ..., 0), ..., (0, 0, ..., 0, 1)} ´e uma base
de Rn e dimRn = n.
Exemplo 1.7.
β
3=
1 0 ... 0
0 0 ... 0
..
.
0
..
.
0
0 0 ... 0
,
0 1 ... 0
0 0 ... 0
..
.
0
..
.
0
0 0 ... 0
, ...,
0 0 ... 0
0 0 ... 0
..
.
0
..
.
0
0 0 ... 1
´e uma base de Mm×n e dimMm×n = mn.
Exemplo 1.8. Considerando β4 um conjunto finito de polinˆomios Pn(t) de
grau menor ou igual a m, ou seja, β4 = {f1(t), f2(t), ..., fm(t)}. Note que
qualquer polinˆomio de grau maior que m n˜ao pode ser escrito como com-bina¸c˜ao linear dos elementos de β4. Logo, β4 n˜ao pode ser considerada base
de Pn(t). Por outro lado, o conjunto β5 = {1, t, t2, t3, ...}, consistindo de
to-das as potˆencias de t, ´e um conjunto infinito que gera Pn(t) e ´e linearmente
independente. Isso significa que β5 ´e uma base de Pn(t) e, portanto, que
Pn(t) tem dimens˜ao infinita.
1.1.6
Coordenadas
Em Hoffman (1971), uma base ordenada de um espa¸co vetorial V de dimens˜ao finita ´e definida como uma sequˆencia finita de vetores linearmente independentes, que gera V .
Sejam V um espa¸co vetorial de dimens˜ao finita e β = {v1, v2, ..., vn} uma
base ordenada de V . Se v ´e um vetor de V , ent˜ao existem ´unicos escalares c1, c2, ..., cn tais que v = c1v1+ c2v2+ ... + cnvn. De fato, suponha que existam
escalares d1, d2, ..., dn tais que v = d1v1+ d2v2+ ... + dnvn segue que:
c1v1+ c2v2+ ... + cnvn = d1v1+ d2v2+ ... + dnvn
Da´ı,
(c1− d1)v1+ (c2− d2)v2+ ... + (cn− dn)vn= 0
Como β ´e linearmente independente, temos que ci − di = 0, i = 1, 2, ..., n.
Logo, ci = di. Portanto, existe uma ´unica maneira de escrever o vetor v como
Vamos considerar as bases dos espa¸cos vetoriais como bases ordenadas para os pr´oximos conceitos e resultados.
Seja β = {v1, v2, ..., vn} uma base de V e v ∈ V , tal que v = c1v1+ c2v2+
... + cnvn, com c1, c2, ..., cn ∈ K. Segundo (HEFEZ, 2012), as coordenadas do
vetor v em rela¸c˜ao a base β s˜ao os coeficientes c1, c2, ..., cn e indicamos:
[v]β = c1 c2 .. . cn .
Apresentaremos agora a defini¸c˜ao de transforma¸c˜oes lineares, fun¸c˜oes cu-jos dom´ınios e contradom´ınios s˜ao espa¸cos vetoriais, e preservam algumas propriedades.
1.2
Transforma¸
c˜
ao Linear
Sejam V e W espa¸cos vetoriais. Em Lima (2009), vemos que uma trans-forma¸c˜ao linear de V em W ´e uma fun¸c˜ao T : V → W que associa cada vetor v ∈ V a um vetor T (v) ∈ W , e possui as seguintes propriedades: i) T (v1+ v2) = T (v1) + T (v2), ∀v1, v2 ∈ V ;
ii) T (λv) = λT (v), ∀v ∈ V e ∀λ ∈ R.
1.2.1
N´
ucleo e Imagem de uma Transforma¸
c˜
ao Linear
Seja T : V → W uma transforma¸c˜ao linear. De acordo com Lima (2009), o n´ucleo de T ´e o conjunto, denotado por Ker(T ), cujos elementos s˜ao os vetores v ∈ V levados por T no vetor nulo de W , isto ´e
Ker(T ) = {v ∈ V ; T (v) = 0}.
O n´ucleo ´e um subespa¸co vetorial de V . De fato, sejam v1, v2 ∈ Ker(T ),
ent˜ao T (v1) = 0 e T (v2) = 0. Segue que T (v1+ av2) = T (v1) + aT (v2) =
A imagem de T ´e o conjunto Im(T ) ⊂ W , formado pelos vetores w ∈ W tais que T (v) = w para algum v ∈ V (HEFEZ, 2012).
Perceba que a imagem tamb´em ´e um subespa¸co de W . De fato, sejam w1, w2 ∈ Im(T ), sabemos que existem v1, v2 ∈ V tais que T (v1) = w1 e
T (v2) = w2. Assim, w1 + aw2 = T (v1) + aT (v2) = T (v1) + T (av2) = T (v1+
av2). Como v1+ av2 ∈ V , ent˜ao w1+ aw2 ∈ Im(T ).
1.2.2
Isomorfismo Linear
Seja T : V → W uma transforma¸c˜ao linear, T ser´a dita injetiva se ∀v1, v2 ∈ V , sempre que T (v1) = T (v2) temos v1 = v2 (LIMA, 2009).
Proposi¸c˜ao 1.4. Seja T : V → W uma transforma¸c˜ao linear. Temos que T ´
e injetiva se, e somente se, Ker(T ) = {0}.
Demonstra¸c˜ao. Sendo T injetiva e como T (0) = 0, tem-se que T (v) = 0 = T (0) implica que v = 0. Suponhamos agora que Ker(T ) = {0}. Tomemos u, v ∈ V . Se T (u) = T (v), ent˜ao T (u) − T (v) = 0. Equivalentemente, T (u − v) = 0, logo u − v ∈ Ker(T ). Como Ker(T ) = {0}, segue-se que u − v = 0 e, portanto, u = v, o que mostra a injetividade de T .
Uma transforma¸c˜ao linear T de V em W , na qual tem-se Ker(T ) = {0}, tamb´em pode ser chamada de n˜ao-singular (HOFFMAN, 1971).
A transforma¸c˜ao linear T ser´a dita sobrejetiva se para cada w ∈ W existe um vetor v ∈ V tal que T (v) = w, isto ´e, Im(T ) = W (HEFEZ, 2012).
Nos casos em que T ´e injetiva e sobrejetiva, diremos que T ´e uma trans-forma¸c˜ao linear bijetiva, podendo tamb´em ser chamada de isomorfismo li-near. Ser˜ao denominados de isomorfos dois espa¸cos vetoriais que possuem um isomorfismo entre eles (LIMA, 2009).
1.2.3
Teorema do N´
ucleo e da Imagem
Teorema 1.1 (Teorema do N´ucleo e da Imagem). Sejam V e W espa¸cos vetoriais de dimens˜ao finita sobre um corpo K. Se T : V → W ´e uma
transforma¸c˜ao linear, ent˜ao
dim V = dim Ker(T ) + dim Im(T ).
Demonstra¸c˜ao. Temos trˆes casos a considerar: o primeiro ´e quando Ker(T ) = {0}, o que implica T ser injetora, ent˜ao se {v1, .., vl} ´e uma base de V
te-mos que {T (v1), .., T (vl)} ´e uma base da imagem de T e vale o resultado.
O segundo ´e quando Ker(T ) = V , ou seja, T ´e a transforma¸c˜ao nula, ent˜ao dim[Im(T )] = 0 e tamb´em vale a igualdade a acima. No ´ultimo caso, considere Ker(T ) um subespa¸co pr´oprio de V . Seja β1 = {v1, .., vr}
uma base do n´ucleo de T . Esta base pode ser estendida a uma base β2 =
{v1, .., vr, u1, ..., us} de V . Vamos mostrar que β = {T (u1), ..., T (us)} ´e uma
base da imagem de T . Primeiro vamos mostrar que os vetores de β geram a Im(T ). Dado w ∈ Im(T ), existe um v ∈ V tal que T (v) = w. Mas podemos escrever v como combina¸c˜ao linear de β2, isto ´e,
v = a1v1+ ... + arvr+ b1u1+ ... + bsus
Assim,
w = T (v) = T (a1v1+ ... + arvr+ b1u1+ ... + bsus)
= a1T (v1) + ... + arT (vr) + b1T (u1) + ... + bsT (us)
Como os vetores v1, .., vr ∈ Ker(T ) temos que T (v1) = ... = T (vr) = 0.
Ent˜ao,
w = b1T (u1) + ... + bsT (us)
Logo, [T (u1), ..., T (us)] = Im(T ).
Agora iremos mostrar que β ´e um conjunto linearmente independente. Suponha que c1T (u1) + ... + csT (us) = 0. Sendo T linear, temos que T (c1u1+
... + csus) = 0, o que implica que c1u1+ ... + csus ∈ Ker(T ). Ent˜ao existem
d1, ..., dr ∈ R tais que c1u1+ ... + csus = d1v1+ ... + drvr. Da´ı,
c1u1+ ... + csus− d1v1− ... − drvr= 0
Como o conjunto β2´e linearmente independente, podemos concluir que todos
os escalares da ´ultima igualdade s˜ao nulos. Em paricular, c1 = ... = cs = 0.
Finalmente, basta observar que dim Ker(T ) = r, dim V = r + s e a dim Im(T ) = s. Logo,
dim V = dim Ker(T ) + dim Im(T ).
Corol´ario 1.1. Sejam V e W espa¸cos vetoriais de mesma dimens˜ao sobre um corpo K (dim V = dim W = n) e T : V → W uma transforma¸c˜ao linear. Ent˜ao as seguintes afirma¸c˜oes s˜ao equivalentes:
i) T ´e sobrejetora; ii) T ´e bijetora; iii) T ´e injetora;
iv) T transforma uma base de V em uma base de W , isto ´e, se {v1, ..., vn} ´e
uma base de V , ent˜ao {T (v1), ..., T (vn)} ´e uma base de W .
Demonstra¸c˜ao. i ⇒ ii) Por hip´otese T ´e sobrejetora, isto ´e, Im(T ) = W o que implica que dim Im(T ) = n. Al´em disso, dim V = dim W = n e pelo Teorema 1.1, dim Ker(T ) = 0, ou seja, Ker(T ) = {0}. Ent˜ao T ´e injetora. Logo, T ´e bijetora.
ii) ⇒ iii) Imediato.
iii) ⇒ iv) Seja β = {v1, ..., vn} uma base de V . Como T ´e injetora, o
n´umero de vetores de β ´e igual ao n´umero de vetores do conjunto βW =
{T (v1), ..., T (vn)}, ent˜ao para mostrar que βW ´e uma base de W , basta
mos-trar que βW ´e um conjunto linearmente independente. De fato, sejam c1, ..., cn
escalares reais. Escreva
c1T (v1) + ... + cnT (vn) = 0
T ´e linear, ent˜ao T (c1v1+ ... + cnvn) = 0. Mas T tamb´em ´e injetora, portanto
c1v1+ ... + cnvn = 0. Assim, c1 = ... = cn= 0, j´a que {v1, ..., vn} ´e uma base
iv) ⇒ i) Seja w ∈ W . Tome β = {v1, ..., vn} uma base de V . Por hip´otese,
temos que {T (v1), ..., T (vn)} ´e uma base de W . Ent˜ao, podemos escrever w
da seguinte forma, w = c1T (v1) + ... + cnT (vn). Como T ´e linear, temos que
T (c1v1+ ... + cnvn) = w. Portanto, cada w ∈ W ´e imagem de um elemento
de V , ou seja, T ´e sobrejetora.
Corol´ario 1.2. Sejam V e W espa¸cos vetoriais de dimens˜ao finita. Se T : V → W ´e um isomorfismo, ent˜ao dim V = dim W
Demonstra¸c˜ao. T ´e um isomorfismo, ent˜ao Ker(T ) = {0} e Im(T ) = W . Pelo Teorema do N´ucleo e da Imagem, dim V = dim Ker(T ) + dim Im(T ). Logo, dim V = dim W .
Teorema 1.2. Sejam V e W espa¸cos vetoriais. Se T : V → W ´e um isomorfismo, ent˜ao T−1 : W → V ´e uma transforma¸c˜ao linear.
Demonstra¸c˜ao. Sejam w1 e w2 vetores em W e seja c um escalar. Como T ´e
sobrejetora, existem v1 e v2 em V de maneira que
w1 = T (v1) ⇒ T−1(w1) = v1 e w2 = T (v2) ⇒ T−1(w2) = v2 Da´ı, T−1(cw1+ w2) = T−1(cT (v1) + T (v2)) = T−1(T (cv1+ v2)) = cv1 + v2 = cT−1(w1) + T−1(w2) Logo, T−1 ´e linear.
1.2.4
Opera¸
c˜
oes com Transforma¸
c˜
oes Lineares
Dadas T : V → W e S : V → W transforma¸c˜oes lineares. Temos, por Hoffman (1971), que a soma de T e S, ou a fun¸c˜ao T + S : V → W , ´e dada por:
Sejam T : V → W transforma¸c˜ao linear e λ ∈ R. O produto de λ por T, ou fun¸c˜ao λT : V → W , ´e dada por:
(λT )(v) = λT (v); ∀v ∈ V. (1.2) Note que as fun¸c˜oes T + S e λT s˜ao transforma¸c˜oes lineares. De fato, sejam v1, v2 ∈ V e c ∈ R, temos: (T + S)(v1+ cv2) = T (v1+ cv2) + S(v1 + cv2) = T (v1) + cT (v2) + S(v1) + cS(v2) = [T (v1) + S(v1)] + c[T (v2) + S(v2)] = (T + S)(v1) + c(T + S)(v2) e, ainda (λT )(v1+ cv2) = λT (v1+ cv2) = λ[T (v1) + cT (v2)] = λT (v1) + cλT (v2) = (λT )(v1) + c(λT )(v2).
Comumente, o conjunto de todas as transforma¸c˜oes lineares de V em W ´e denotado por L(V, W ). Assim, perceba que as opera¸c˜oes descritas nas equa¸c˜oes (1.1) e (1.2) definem uma adi¸c˜ao e multiplica¸c˜ao por escalar em L(V, W ), o que nos garante que esse cojunto ´e um espa¸co vetorial (HEFEZ, 2012).
Na composi¸c˜ao de duas transforma¸c˜oes lineares T : V → W e S : W → U devemos usar, de acordo com Hoffman (1971), a composi¸c˜ao usual de fun¸c˜oes, ou seja, tomando v ∈ V temos:
(S ◦ T )(v) = S(T (v)).
Observe que (S ◦ T ) tamb´em ´e uma transforma¸c˜ao linear. De fato, to-mando v1, v2 ∈ V e c ∈ R, temos:
(S ◦ T )(v1+ cv2) = S(T (v1+ cv2)) = S(T (v1) + T (cv2)) = S(T (v1) + cT (v2)) = S(T (v1)) + S(cT (v2)) = S(T (v1)) + cS(T (v2)) = (S ◦ T )(v1) + c(S ◦ T )(v2).
1.2.5
Matriz de uma Transforma¸
c˜
ao Linear
Sejam V e W espa¸cos vetoriais de dimens˜ao finita e T : V → W uma transforma¸c˜ao linear. Dadas α = {v1, v2, ..., vn} base de V e β = {w1, w2, ...,
wm} base de W , o vetor T (vj), para cada j = 1, 2, ..., n, pode ser escrito de
modo ´unico como combina¸c˜ao linear dos vetores de β:
T (vj) = a1jw1+ a2jw2+ ... + amjwm (1.3)
Considere v ∈ V . Assim, podemos escrever v = c1v1+ c2v2+ ... + cnvn, com
c1, c2, ..., cn ∈ K. Como T ´e uma transforma¸c˜ao linear, pela equa¸c˜ao (1.3),
podemos escrever: T (v) = c1T (v1) + c2T (v2) + ... + cnT (vn) = c1(a11w1+ a21w2+ ... + am1wm) + c2(a12w1+ a22w2+ ... + am2wm)+ ... + cn(a1nw1+ a2nw2+ ... + amnwm) = (a11c1+ a12c2+ ... + a1ncn)w1+ (a21c1+ a22c2+ ... + a2ncn)w2+ ...+ (am1c1+ am2c2+ ... + amncn)wm. Portanto, [T (v)]β = a11c1+ a12c2+ ... + a1ncn a21c1+ a22c2+ ... + a2ncn .. . am1c1+ am2c2+ ... + amncn = a11 a12 ... a1n a21 a22 ... a2n .. . ... ... ... am1 am2 ... amn c1 c2 .. . cn Ou seja, [T (v)]β = [T ]αβ · [v]α. (1.4)
A matriz [T ]αβ ´e chamada de matriz associada `a T em rela¸c˜ao `as bases α e β (HEFEZ, 2012).
Seja I : V → V uma transforma¸c˜ao linear tal que I(v) = v, ∀v ∈ V . Se α e β s˜ao bases de V, ent˜ao a matriz [I]α
β ´e chamada de matriz mudan¸ca de
base (HEFEZ, 2012).
1.2.6
Algebra das Transforma¸
´
c˜
oes Lineares e Matrizes
Sejam T e S transforma¸c˜oes lineares de V em W . Sejam α = {v1, v2, ..., vn}
base de V e β = {w1, w2, ..., wm} base de W . Iremos verificar se existe rela¸c˜ao
entre as matrizes [T + S]α
β , [T ]αβ e [S]αβ. Todos os resultados apresentados
nessa se¸c˜ao podem ser encontrados na referˆencia (HEFEZ, 2012).
Proposi¸c˜ao 1.5. Sejam T e S transforma¸c˜oes lineares de V em W , com V e W de dimens˜ao finita. Se α e β s˜ao bases de V e W , respectivamente, ent˜ao
[T + S]αβ = [T ]αβ + [S]αβ
Demonstra¸c˜ao. Sejam T e S transforma¸c˜oes lineares de V em W . Sejam α = {v1, ..., vn} e β = {w1, ..., wm} bases de V e W , respectivamente. Se
1 ≤ j ≤ n, ent˜ao
[(T + S)(vj)]β = [T (vj) + S(vj)]β = [T (vj)]β + [S(vj)]β,
Ou seja, a j-´esima coluna de [T + S]α
β ´e a soma da j-´esima coluna de [T ]αβ com
a j-´esima coluna de [S]α
β. O que prova o resultado desejado.
Proposi¸c˜ao 1.6. Seja T : V → W uma transforma¸c˜ao linear, onde V e W tem dimens˜ao finita. Se α e β s˜ao bases de V e W , respectivamente, e λ ∈ R, ent˜ao
[λT ]αβ = λ[T ]αβ
Demonstra¸c˜ao. Seja T transforma¸c˜ao linear de V em W . Sejam α = {v1, ..., vn}
e β = {w1, ..., wm} bases de V e W , respectivamente. Se 1 ≤ j ≤ n, ent˜ao
Ou seja, a j-´esima coluna de [λT ]αβ ´e a multiplica¸c˜ao da j-´esima coluna de [T ]αβ pelo escalar λ, o que prova o resultado desejado.
Proposi¸c˜ao 1.7. Sejam T : V → W e S : W → U transforma¸c˜oes lineares, em que V, W e U s˜ao espa¸cos vetoriais de dimens˜ao finita. Se α, β e γ s˜ao bases de V, W e U , respectivamente, ent˜ao
[S ◦ T ]αγ = [S]βγ· [T ]α
β (1.5)
Veja Figura 1.1.
Figura 1.1: Composi¸c˜ao de Tranforma¸c˜oes Lineares
Demonstra¸c˜ao. Seja α = {v1, ..., vn}. Denotemos por Cj(M ) a j-´esima coluna
de uma matriz M arbitr´aria. Tomando A e B matrizes de forma que a matriz AB esteja definida, segue que:
Cj(AB) = A · Cj(B). (1.6)
Para comprovar a validade de (1.5) devemos provar que, para cada j, com 1 ≤ j ≤ n, temos Cj([S ◦ T ]αγ) = Cj([S]βγ · [T ]αβ). Fixemos, ent˜ao, um ´ındice
j. De (1.6), Cj([S]βγ· [T ] α β) = [S] β γ· Cj([T ]αβ) = [S] β γ · [T (vj)]β.
Por outro lado,
Cj([S ◦ T ]αγ) = [(S ◦ T )(vj)]γ = [S]βγ[T (vj)]β,
Teorema 1.3. Seja T : V → W um isomorfismo, onde V e W s˜ao espa¸cos vetoriais de dimens˜ao finita. Se α ´e uma base de V e β ´e uma base de W , ent˜ao
[T−1]βα = ([T ]αβ)−1.
Demonstra¸c˜ao. Como T−1 ´e a inversa de T , temos que T−1 ◦ T ´e a fun¸c˜ao identidade I em V . Pela equa¸c˜ao (1.5), temos:
[I]αα = [T−1◦ T ]α α = [T
−1
]βα· [T ]α
β. (1.7)
Se dimV = n, temos que [I]α
α ´e a matriz identidade de ordem n. Assim, de
(1.7), segue que [T ]α
β ´e invert´ıvel e sua inversa ´e a matriz [T −1]β
α.
Corol´ario 1.3. Seja T : V → W uma transforma¸c˜ao linear, onde V e W s˜ao espa¸cos vetoriais de mesma dimens˜ao finita. Sejam α e β bases de V e W , respectivamente. Temos que T ´e invert´ıvel se, e somente se, a matriz [T ]α
β ´e invert´ıvel.
Demonstra¸c˜ao. Se T ´e invert´ıvel (isomorfismo), por (1.7), temos que a ma-triz [T ]α
β ´e invert´ıvel. A outra implica¸c˜ao resulta do fato que a transforma¸c˜ao
linear L(V, W ) −→ Mnxn, onde n = dimV = dimW , ´e sobrejetora e
trans-forma composi¸c˜ao de transforma¸c˜oes lineares em produto de matrizes. Teorema 1.4. Sejam α e β duas bases de um espa¸co de dimens˜ao finita V . Temos que a matriz [I]βα ´e invert´ıvel e sua inversa ´e a matriz [I]αβ. Ou seja,
([I]βα)−1 = [I]αβ.
Demonstra¸c˜ao. Como I ´e um isomorfismo linear e I−1 = I, o resultado segue do Teorema 1.3.
Teorema 1.5. Sejam α e β duas bases de um espa¸co de dimens˜ao finita V . Se T ´e um operador linear em V , ent˜ao
[T ]αα = P−1· [T ]ββ· P (1.8) com P = [I]α
Figura 1.2: Composi¸c˜ao com a Transforma¸c˜ao Identidade
Demonstra¸c˜ao. Sejam α e β duas bases do espa¸co vetorial de dimens˜ao finita V e T um operador sobre V . Com as matrizes mudan¸ca de base podemos obter uma rela¸c˜ao entre as matrizes [T ]α
α e [T ] β
β. De fato, como T = I ◦ T ◦ I,
segue da Proposi¸c˜ao 1.7, que
[T ]αα = [I ◦ T ◦ I]αα = [I]βα· [T ]ββ · [I]α β,
ou seja,
[T ]αα = [I]βα· [T ]ββ· [I]αβ. (1.9) Mas, pelo Teorema 1.4, temos que [I]β
α ´e a inversa de [I]αβ. Assim, denotando
[I]α
β por P , a equa¸c˜ao (1.9) pode ser reescrita como
[T ]αα= P−1· [T ]ββ · P.
A rela¸c˜ao expressa na equa¸c˜ao (1.8) ´e muito importante de modo que esta recebe uma nomenclatura. Se A e B s˜ao matrizes de mesma ordem, diremos que B ´e semelhante a A quando existir uma matriz invert´ıvel P tal que B = P−1AP . ´E f´acil perceber que se B ´e uma matriz semelhante a A, ent˜ao A tamb´em ´e semelhante a B, por isso ´e comum dizer simplesmente que A e B s˜ao matrizes semelhantes.
Cap´ıtulo 2
Diagonaliza¸
c˜
ao de Operadores
Lineares
Vimos no Cap´ıtulo 1 que se V e W s˜ao espa¸cos vetoriais de dimens˜ao finita e T ´e uma transforma¸c˜ao linear de V em W , podemos representar T por uma matriz. Neste cap´ıtulo, veremos as transforma¸c˜oes lineares de um espa¸co vetorial nele mesmo. As transforma¸c˜oes lineares T : V −→ V s˜ao denominadas de operadores lineares (LIMA, 2009).
Vamos verificar se os operadores lineares podem ser representados por uma matriz diagonal. Ser´a que sempre existe uma base de V tal que a matriz [T ]β, do operador linear T : V −→ V , seja uma matriz diagonal?
A partir desse momento, vamos considerar V um espa¸co vetorial de di-mens˜ao n.
2.1
Autovalores e Autovetores
Seja T um operador linear sobre V . Um escalar λ ´e um autovalor de T se existe um vetor n˜ao nulo v ∈ V tal que T (v) = λv. O vetor v ´e denominado de autovetor de T associado ao autovalor λ (LIMA, 2009).
Dados um operador linear T sobre V e uma base α de V , segundo Hefez (2012), se A = [T ]α ´e a matriz associada a T em rela¸c˜ao `a base α, um
escalar λ ´e um autovalor de A se existir um vetor n˜ao nulo v ∈ V tal que A[v]α = λ[v]α, sendo [v]α as coordenadas de v em rela¸c˜ao `a base α. O vetor
v ´e o autovetor associado ao autovalor λ. Assim, determinar os autovalores e autovetores de um operador linear T em V ´e fixar uma base α de V e encontrar os autovalores e autovetores da matriz A = [T ]α.
O conjunto formado pelos autovetores de T e o vetor nulo, isto ´e, Vλ =
{v ∈ V ; T (v) = λv} ´e denominado autoespa¸co de V . Vλ ´e um subespa¸co de
V . De fato, sejam v1, v2 ∈ Vλ e a ∈ R, assim T (v1+ av2) = T (v1) + T (av2) =
T (v1) + aT (v2) = λv1+ aλv2 = λ(v1+ av2), logo v1 + av2 ∈ Vλ e, portanto,
Vλ ´e subespa¸co de V (HEFEZ, 2012).
Na pr´oxima se¸c˜ao, encontraremos uma maneira pr´atica de encontrar os autovalores e autovetores.
2.2
Polinˆ
omio caracter´ıstico de um Operador
linear
Seja T um operador linear sobre V . Segundo Lipschutz (2011), o po-linˆomio caracter´ıstico de T , indicado por ∆(t), ´e o determinante (ver Apˆendice A) dado por:
∆(t) = |tIn− A| (2.1)
onde A ´e uma representa¸c˜ao matricial de T e Ina matriz identidade de ordem
n. Podemos dizer que ∆(t) ´e o polinˆomio caracter´ıstico da matriz A.
Proposi¸c˜ao 2.1. Matrizes semelhantes possuem o mesmo polinˆomio carac-ter´ıstico.
Demonstra¸c˜ao. De fato, sejam A e B matrizes semelhantes. Ent˜ao, existe uma matriz invers´ıvel P tal que A = P−1BP . Ent˜ao:
Calculando o determinante, temos: |A − λI| = |P−1BP − λI| = |P−1BP − P−1λIP | = |P−1(B − λI)P | = |P−1||(B − λI)||P | = |B − λI|.
Logo, |A − λI| = |B − λI|. Portanto, A e B tˆem o mesmo polinˆomio carac-ter´ıstico.
Sendo assim, o polinˆomio caracter´ıstico de T independe da escolha da base na qual calculamos a representa¸c˜ao matricial de T.
Definimos f (T ), com T sendo um operador linear, da mesma forma que para matrizes (ver Apˆendice B), isto ´e:
f (T ) = anTn+ ... + a1T + a0I
com I representando o operador identidade. Se f (T ) = 0, onde 0 ´e o operador nulo, dizemos que T ´e raiz do polinˆomio.
As potˆencias de T podem ser definidas pela composi¸c˜ao, ou seja, T2 = T ◦ T, T3 = T2◦ T, ...
Observa¸c˜ao 2.1. De acordo com Lipschutz(2011), se A ´e a representa¸c˜ao matricial de T, ent˜ao f(A) ´e a representa¸c˜ao matricial de f(T) e, em parti-cular, f(T)=0 se, e somente se, f(A)=0.
Teorema 2.1 (Cayley-Hamilton). Um operador linear T ´e uma raiz de seu polinˆomio caracter´ıstico.
Demonstra¸c˜ao. Sejam A uma representa¸c˜ao matricial de T e ∆(t) seu po-linˆomio caracter´ıstico, digamos:
Denotemos por B(t) a adjunta cl´assica da matriz tI − A. Os elementos de B(t) s˜ao os cofatores da matriz tI − A e, portanto, polinˆomios em t de grau, no m´aximo, n − 1. Assim,
B(t) = Bn−1tn−1+ ... + B1t + B0
onde os Bi, (0 ≤ i ≤ n − 1) denotam matrizes quadradas de ordem n sobre o
corpo K que n˜ao dependem de t. Pela propriedade fundamental da adjunta, temos:
(tI − A)B(t) = |tI − A|I
(tI − A)(Bn−1tn−1+ ... + B1t + B0) = (tn+ ... + a1t + a0)I
Desenvolvendo, obtemos:
Bn−1tn−ABn−1tn−1+...+B1t2−AB1t+B0t−AB0 = tnI+an−1tn−1I+...+a1tI+a0I
Igualando as potˆencias correspondentes de t, obtemos: Bn−1= I −ABn−1+ Bn−2= an−1I .. . −AB1+ B0 = a1I −AB0 = a0I
Multiplicando essas equa¸c˜oes por An, An−1, ..., A, I, respectivamente, resulta:
AnBn−1 = An −AnB n−1+ An−1Bn−2 = an−1An−1 .. . −A2B1+ AB0 = a1A −AB0 = a0I
Somando essas equa¸c˜oes matriciais, obtemos:
0 = An+ an−1An−1+ ... + a1A + a0I = ∆(A)
Assim, ∆(A) = 0. Portanto, ∆(T ) = 0. Logo, T ´e raiz de seu polinˆomio caracter´ıstico.
Teorema 2.2. Seja T um operador linear. As afirma¸c˜oes dadas s˜ao equiva-lentes:
i) O escalar λ ´e um autovalor de T ii) O operador λI − T ´e singular iii) O escalar λ ´e uma raiz de ∆(t)
Demonstra¸c˜ao. Seja A uma matriz do operador T sobre V em rela¸c˜ao a uma base α. Suponha que λ ´e um autovalor de T , ent˜ao existe um vetor n˜ao nulo v ∈ V tal que A[v]α = λ[v]α. Segue que A[v]α = λIn[v]α, sendo In a matriz
identidade de ordem n. Da´ı, podemos escrever λIn[v]α− A[v]α = 0. Segue
que (λIn − A)[v]α = 0. Como v ´e um vetor n˜ao nulo, temos que λIn− A
´
e singular (n˜ao invers´ıvel). Temos tamb´em que |λIn − A| = 0. Como o
polinˆomio caracter´ıstico de T ´e dado por ∆(t) = |tIn− A|, λ ´e raiz de ∆(t).
Assim, valem as equivalˆencias das condi¸c˜oes i), ii), iii).
Teorema 2.3. Uma matriz quadrada A de ordem n ´e semelhante a uma matriz diagonal D se, e somente se, A tem n autovetores linearmente in-dependentes. Neste caso, os elementos da diagonal de D s˜ao os autovalores correspondentes e D = P−1AP , onde P ´e a matriz cujas colunas s˜ao os autovetores.
Demonstra¸c˜ao. Suponhamos que A tem n autovetores linearmente indepen-dentes v1, v2, ..., vn com os correspondentes autovalores λ1, λ2, ..., λn. Seja
P a matriz cujas colunas s˜ao v1, v2, ..., vn. Ent˜ao P ´e n˜ao singular.
Ob-serve que, as colunas da matriz AP s˜ao Av1, Av2, ..., Avn. Mas Avk = λkvk.
Logo, as colunas de AP s˜ao λ1v1, λ2v2, ..., λnvn. Por outro lado, seja D =
diag(λ1, λ2, ..., λn), isto ´e, a matriz diagonal cujos elementos diagonais s˜ao λk.
Ent˜ao P D ´e tamb´em uma matriz cujas colunas s˜ao dadas por λkvk. Ent˜ao
AP = P D e, da´ı, D = P−1AP .
Reciprocamente, suponhamos que exista uma matriz n˜ao singular para a qual P−1AP = diag(λ1, λ2, ..., λn) = D e, assim, AP = P D. Sejam v1, v2, ..., vn
os vetores colunas de P . Ent˜ao as colunas de AP s˜ao Avk e as colunas de
disso, como P ´e n˜ao-singular, v1, v2, ..., vn s˜ao n˜ao nulos e, portanto, s˜ao
au-tovetores de A associados aos autovalores que s˜ao os elementos diagonais de D. Tamb´em temos que v1, v2, ..., vn s˜ao linearmente independentes.
Seja T um operador sobre o espa¸co vetorial V . Dizemos que T ´e dia-gonaliz´avel se existe uma base de V formada por autovetores (HOFFMAN, 1971).
De modo an´alogo, se A = [T ]α ´e uma matriz do operador T sobre V
em rela¸c˜ao `a base α, dizemos que A ´e diagonaliz´avel se existe uma base β de V formada de autovetores tal que [T ]β ´e uma matriz diagonal em que os
elementos da diagonal principal s˜ao autovalores de T (LIPSCHUTZ, 2011). Teorema 2.4. Suponha que v1, v2, ..., vn sejam autovetores de um operador
linear T associados a autovalores distintos λ1, λ2, ...λn. Ent˜ao v1, v2, ..., vn
s˜ao linearmente independentes.
Demonstra¸c˜ao. Vamos supor que o teorema seja falso. Seja v1, ..., vs um
con-junto m´ınimo de vetores para o qual o teorema seja falso. Assim, s > 1 j´a que v1 6= 0 por ser autovetor. Tamb´em, pela condi¸c˜ao de minimalidade,
po-demos afirmar que o conjunto {v2, ..., vs} ´e linearmente independente. Assim,
podemos escrever:
v1 = a2v2+ a3v3+ ... + asvs. (2.2)
Da´ı,
T (v1) = T (a2v2+ a3v3+ ... + asvs) = a2T (v2) + a3T (v3) + ... + asT (vs) (2.3)
Como vj ´e autovetor associado a λj, a ´ultima equa¸c˜ao pode ser reescrita na
forma
λ1v1 = a2λ2v2+ a3λ3v3+ ... + asλsvs. (2.4)
Multiplicando a equa¸c˜ao (2.2) por λ1 obtemos
λ1v1 = a2λ1v2+ a3λ1v3 + ... + asλ1vs. (2.5)
Igualando os lados direitos das equa¸c˜oes (2.4) e (2.5), resulta
Mas {v2, ..., vs} ´e linearmente independente. Logo, os coeficientes de (2.6)
devem ser todos nulos, ou seja,
a2(λ1− λ2) = 0, a3(λ1 − λ3) = 0, ..., as(λ1− λs) = 0.
Por´em, como os λi s˜ao distintos, temos que λ1 − λj 6= 0, para 2 ≤ j ≤ s.
Assim, obtemos a2 = a3 = ... = as = 0. O que contradiz o fato de existir
algum ak 6= 0.
Teorema 2.5. Seja T um operador linear sobre V. Suponha que o polinˆomio caracter´ıstico ∆(t) de T seja um produto de n fatores distintos, digamos, ∆(t) = (t − λ1)(t − λ2) · · · (t − λn). Ent˜ao T pode ser representado pela matriz
diagonal D = diag(λ1, λ2, ..., λn).
Demonstra¸c˜ao. Seja A uma matriz quadrada de ordem n associada ao opera-dor T . Sejam v1, v2, ..., vnautovetores associados aos autovalotes λ1, λ2, ..., λn,
respectivamente. Ent˜ao os n autovetores vi s˜ao linearmente independentes,
de acordo com o Teorema 2.4 e, assim, formam uma base de V . Dessa forma, A ´e diagonaliz´avel, ou seja, semelhante a uma matriz diagonal D = diag(λ1, λ2, ..., λn).
Se λ ´e um autovalor de um operador T (ou, equivalentemente, da matriz A, associada `a T ), definimos multiplicidade alg´ebrica de λ como sendo a multiplicidade de λ como raiz do polinˆomio caracter´ıstico e a multiplicidade geom´etrica de λ ´e a dimens˜ao do autoespa¸co Vλ (LIPSCHUTZ, 2011).
Teorema 2.6. A multiplicidade geom´etrica de um autovalor λ de T n˜ao ´e maior do que a multiplicidade alg´ebrica.
Demonstra¸c˜ao. Suponhamos que a multiplicidade geom´etrica de λ seja r. Assim, o autoespa¸co Vλ deve conter r autovetores linearmente independentes
v1, ..., vr. Considere a base {v1, ..., vr, w1, ..., ws} (extens˜ao da base de Vλ) de
T (v1) = λv1 T (v2) = λv2 .. . T (vr) = λvr T (w1) = a11v1+ ... + a1rv2+ b11w1+ ... + b1sws T (w2) = a21v1+ ... + a2rv2+ b21w1+ ... + b2sws .. . T (ws) = as1v1+ ... + asrv2+ bs1w1 + ... + bssws.
Logo, a matriz de T nessa base ´e M = λI A
0 B
, onde A = [aij]T e B =
[bij]T. Sendo M uma matriz diagonal em blocos, podemos afirmar que o
polinˆomio caracter´ıstico (t−λ)rdo bloco λI divide o polinˆomio caracter´ıstico de M e, portanto, de T . Logo, a multiplicidade alg´ebrica de λ para T ´e, no m´ınimo, r.
2.3
Polinˆ
omio m´ınimo de um operador linear
O polinˆomio m´ınimo m(t) de um operador linear T ´e definido como o polinˆomio mˆonico de menor grau para o qual T seja uma raiz (LIMA, 2009). Seja A uma matriz quadrada associada ao operador T . Segundo Lipschutz (2011), o polinˆomio m´ınimo da matriz A ´e definido de forma an´aloga ao po-linˆomio m´ınimo de T .
Teorema 2.7. O polinˆomio m´ınimo m(t) de um operador linear T divide qualquer polinˆomio que tenha T como raiz. Em particular, m(t) divide o polinˆomio caracter´ıstico ∆(t) de T.
Demonstra¸c˜ao. Seja f (t) um polinˆomio tal que f (T ) = 0. Pelo algor´ıtimo da divis˜ao existem polinˆomios q(t) e r(t) tais que f (t) = m(t)q(t)+r(t) e r(t) = 0 ou, ent˜ao, o grau de r(t) ´e menor do que o grau de m(t). Substituindo t=T
temos:
f (T ) = m(T )q(T ) + r(T ) 0 = 0q(T ) + r(T ) 0 = r(T ).
Sendo r(T ) = 0, obrigatoriamente teremos r(t) = 0. Se r(t) 6= 0, r(t) seria um polinˆomio de grau menor do que m(t) e que tem T como raiz, o que contraria a defini¸c˜ao de polinˆomio minimo para m(t). Assim, r(t) = 0 e f (t) = m(t)q(t), ou seja, m(t) divide f (t).
Afirma¸c˜ao 2.1. Seja m(t) o polinˆomio m´ınimo de uma matriz quadrada A de ordem n. Temos que o polinˆomio caracter´ıstico ∆(t) de A divide [m(t)]n. Demonstra¸c˜ao. Suponha m(t) = tr + c1tr−1 + ... + cr−1t + cr. Considere a
matriz identidade I de ordem n e as matrizes Bj de ordem n definidas da
seguinte forma: B0 = I ⇒ I = B0 B1 = A + c1I ⇒ c1I = B1− A = B1− AB0 B2 = A2+ c1A + c2I ⇒ c2I = B2− A(A + c1I) = B2− AB1 .. . Br−1 = Ar−1+ c1Ar−2+ ... + cr−1I ⇒ cr−1I = Br−1− ABr−2.
Multiplicando a ´ultima equa¸c˜ao por (−A) e, em seguida, somando (+crI −
crI), obtemos:
−ABr−1 = −(Ar+ c1Ar−1+ ... + cr−1A) + crI − crI
= crI − (Ar+ c1Ar−1+ ... + cr−1A + crI)
= crI − m(A)
= crI.
(tI − A)(B(t)) = (tI − A)(tr−1B0+ tr−2B1+ ... + tBr−2+ Br−1)
= (trB0+ tr−1B1+ ... + tBr−1) − (tr−1AB0+ tr−2AB1+ ... +
+ABr−1)
= trB0+ tr−1(B1− AB0) + tr−2(B2 − AB1) + ... + t(Br−1+
−ABr−2) − ABr−1.
Mas vimos que cr−1I = Br−1− ABr−2, assim, temos:
(tI − A)(B(t)) = trI + c1tr−1I + c2tr−2I + ... + cr−1tI + crI
= m(t)I.
Tomando o determinante de ambos os lados, obtemos: |tI − A||B(t)| = |m(t)I| = [m(t)]n.
Como |B(t)| ´e um polinˆomio, |tI − A| divide [m(t)]n, ou seja, o polinˆomio
caracter´ıstico de A divide a [m(t)]n.
Teorema 2.8. O polinˆomio caracter´ıstico e o polinˆomio m´ınimo de um ope-rador linear T tˆem os mesmos fatores irredut´ıveis.
Demonstra¸c˜ao. Seja f (t) um polinˆomio irredut´ıvel. Se f (t) divide m(t), ent˜ao f (t) divide a ∆(t), pois m(t) divide a ∆(t). Por outro lado, se f (t) divide ∆(t), ent˜ao pela Afirma¸c˜ao 2.1, f (t) tamb´em divide [m(t)]n. No
en-tanto, f (t) ´e irredut´ıvel, portanto f (t) tamb´em divide m(t). Assim, m(t) e ∆(t) tˆem os mesmos fatores irredut´ıveis.
Teorema 2.9. Um escalar λ ´e um autovalor de um operador linear T se, e somente se, λ ´e uma raiz do polinˆomio m´ınimo m(t) de T.
Demonstra¸c˜ao. Visto que λ ´e um autovalor se, e somente se, ´e raiz do po-linˆomio caracter´ıstico ∆(t) e que o polinˆomio m´ınimo m(t) possui os mesmos fatores irretut´ıveis de ∆(t), temos que ∆(λ) = 0 se, e somente se, m(λ) = 0, o que equivale a dizer que λ ´e um autovalor se, e somente se, ´e raiz do polinˆomio m´ınimo.
Teorema 2.10. Seja M uma matriz diagonal em blocos com blocos diagonais A1, A2, ...Ar. Ent˜ao o polinˆomio m´ınimo de M ´e igual ao m´ınimo m´ultiplo
comum (MMC) dos polinˆomios m´ınimos dos blocos diagonais Ai.
Demonstra¸c˜ao. Seja
M = A1 0 ... 0 0 A2 ... 0 .. . ... . .. ... 0 0 ... Ar
com Aimatrizes quadradas. Sejam h1(t), h2(t), ..., hr(t) os polinˆomios m´ınimos
de A1, A2, ..., Ar respectivamente. Como m(t) ´e o polinˆomio m´ınimo de M,
temos: m(M ) = m(A1) 0 ... 0 0 m(A2) ... 0 .. . ... . .. ... 0 0 ... m(Ar) = 0.
Logo m(A1) = m(A2) = ...m(Ar) = 0. Como hi ´e polinˆomio m´ınimo de Ai,
ent˜ao hi divide m(t). Assim, m(t) ´e m´ultiplo de h1(t), h2(t), ..., hr(t).
Seja, agora, f(t) um m´ultiplo qualquer de h1(t), h2(t), ..., hr(t), ent˜ao (pela
Afirma¸c˜ao B.1): f (M ) = f (A1) 0 ... 0 0 f (A2) ... 0 .. . ... . .. ... 0 0 ... f (Ar) = 0.
No entanto, m(t) ´e o polinˆomio m´ınimo de M, de modo que m(t) divide f(t). Assim, m(t) ´e o m´ınimo m´ultiplo comum (MMC) dos polinˆomios m´ınimos h1(t), h2(t), ..., hr(t).
Os exemplos a seguir d˜ao uma breve no¸c˜ao de como utilizar o que foi apresentado neste cap´ıtulo.
Exemplo 2.1. Considere a matriz A = 3 −5 2 −3 . Assim, ∆(t) = |tI − A| = t − 3 −5 2 t + 3
= (t−3)(t+3). Logo, ∆(t) = t2+1. Se A for uma matriz sobre
nem autovalores nem autovetores e, portanto, n˜ao ´e diagonaliz´avel. Por outro lado, se A for uma matriz sobre o corpo dos complexos (C), ent˜ao ∆(t) = (t− i)(t + i) tem duas ra´ızes, i e −i. Assim, A possui dois autovalores distintos, o que nos garante que A tamb´em possui dois autovetores LI’s. Portanto, nesse caso vai existir uma matriz P n˜ao singular sobre C tal que P AP−1 = i 0
0 −i
. Logo A ´e diagonaliz´avel sobre C.
Exemplo 2.2. Seja T : R3 −→ R3 definido por T (x, y, z) = (2x+y −2z, 2x+
3y − 4z, x + y − z). Para encontrar os autovalores, primeiramente devemos encontrar a matriz [T ]. Podemos encontrar a matriz de T na base canˆonica escrevendo os coeficientes de x, y, z como linhas. Assim, [T ] =
2 1 −2 2 3 −4 1 1 −1 . Como ∆(t) = |tI − [T ]|, desenvolvendo os c´alculos de determinante, obtemos ∆(t) = t3− 4t2+ 5t − 2 = (t − 1)2(t − 2) e, portanto, λ = 1 e λ = 2 s˜ao
au-tovalores de T .Os autovetores linearmente independentes de cada autoespa¸co de T s˜ao:
i) Subtraindo λ = 1 das entradas diagonais de [T ] obtemos: M = |[T ] − λI| = 1 1 −2 2 2 −4 1 1 −2
. Vamos ent˜ao, encontrar uma base para o sistema
homogˆeneo M X = 0, onde X = x y z
, (esses vetores da base s˜ao au-tovetores linearmente associados de [T] associados a λ). Assim, temos: x + y − 2z = 0 2x + 2y − 4z = 0 x + y − 2z = 0
, que corresponde a x+y−2z = 0, ou ainda, x = 2z−y. H´a, ent˜ao, duas vari´aveis livres, portanto existem dois autovetores associados a λ = 1. Podemos considerar, por exemplo, os vetores (1, −1, 0) e (2, 0, 1). ii) Da mesma forma que fizemos em i), devemos fazer para λ = 2. As-sim, temos: M = |[T ] − λI| =
0 1 −2 2 1 −4 1 1 −3 . Fazendo M X = 0 obtemos: y − 2z = 0 2x − y − 4z = 0 x + y − 3z = 0
seja, z ´e a ´unica vari´avel livre. Da´ı, uma solu¸c˜ao poss´ıvel ´e (1, 2, 1).
Logo, como T tem trˆes autovetores LI’s, podemos afirmar que se trata de um operador diagonaliz´avel. Precisamente, se escolhermos β = {(1, −1, 0), (2, 0, 1), (1, 2, 1)} como base, ent˜ao [T ]β =
1 0 0 0 1 0 0 0 2
Exemplo 2.3. Seja T : V −→ V , onde V ´e um espa¸co vetorial complexo de dimens˜ao 4 e [T ]αα = 0 1 0 0 −1 0 0 0 0 0 1 1 0 0 0 1
onde α ´e uma base de V . Ent˜ao, desenvolvendo os c´alculos do determinante ∆(t) = |tI − A|, obtemos que o polinˆomio caracter´ıstico de T ´e ∆(t) = (t − i)(t + i)(t − 1)2, logo seus autovalores s˜ao λ
1 = i, λ2 = −i, λ3 = 1 (com
multiplicidade 2). Por´em, n˜ao ´e poss´ıvel encontrar dois autovetores LI’s para λ3 = 1, pois 0 1 0 0 −1 0 0 0 0 0 1 1 0 0 0 1 x y z w = 1 x y z w nos d´a o sistema: y = x −x = y z + w = z w = w , ou seja, y = x = w = 0. Logo, os
autovetores associados ao autovalor λ3 = 1 s˜ao do tipo (0, 0, z, 0) pertencentes
ao espa¸co vetorial em quest˜ao. Assim, T n˜ao ´e diagonaliz´avel.
Cap´ıtulo 3
Forma Canˆ
onica de Jordan
3.1
Invariˆ
ancia
Seja T um operador linear sobre o espa¸co vetorial V . Dizemos que um subespa¸co W de V ´e invariante por T ou, ent˜ao, T-invariante se T levar W em si mesmo, ou seja, se para todo v ∈ W tivermos T (v) ∈ W . Neste caso, a restri¸c˜ao de T a W define um operador linear de W (LIPSCHUTZ, 2011). Teorema 3.1. Sejam T um operador linear sobre V e f (t) um polinˆomio. Ent˜ao, o n´ucleo de f (T ) ´e invariante por T .
Demonstra¸c˜ao. Suponha que v ∈ Ker(f (T )), ou seja, (f (T ))(v) = 0. De-vemos mostrar que T (v) tamb´em pertence ao n´ucleo de f (T ), ou seja, que (f (T ))(T (v)) = (f (T ) ◦ T )(v) = 0. Como f (t)t = tf (t), temos f (T ) ◦ T = T ◦ f (T ). Assim, resulta: (f (T ) ◦ T )(v) = (T ◦ f (T ))(v) = T ((f (T ))(v)) = T (0) = 0.
Teorema 3.2. Seja W um subespa¸co invariante por T : V −→ V . Ent˜ao, existe uma representa¸c˜ao matricial de T com uma matriz em blocosA B
0 C
, sendo A a representa¸c˜ao matricial da restri¸c˜ao H de T a W . (H : W −→ W definido por H(v) = T (v))
es-tendˆe-la para uma base {w1, w2, ..., wr, v1, v2, ..., vs} de V . Temos: H(w1) = T (w1) = a11w1+ ... + a1rwr H(w2) = T (w2) = a21w1+ ... + a2rwr .. . H(wr) = T (wr) = ar1w1+ ... + arrwr T (v1) = b11w1+ ... + b1rwr+ c11v1 + ... + c1svs T (v2) = b21w1+ ... + b2rwr+ c21v1 + ... + c2svs .. . T (vs) = bs1w1+ ... + bsrwr+ cs1v1+ ... + cssvs
Como a matriz de T nessa base ´e a transposta da matriz de coeficientes desse sistema de equa¸c˜oes, decorre que essa matriz ´e da forma: A B
0 C
, sendo A a transposta da matriz de coeficientes do subsistema ´obvio. Pelo mesmo argumento, A ´e a matriz de H em rela¸c˜ao `a base {w1, w2, ..., wr} de W.
3.2
Decomposi¸
c˜
ao em Somas Diretas
Invari-antes
Segundo Hoffman (1971), um espa¸co vetorial V ´e dito soma direta dos su-bespa¸cos W1, W2, ..., Wn, se cada vetor v ∈ V puder ser escrito de maneira
´
unica na forma:
v = w1+ w2+ ... + wn,
com wi ∈ Wi.
Teorema 3.3. Sejam W1, W2, ..., Wr subespa¸cos de V e considere
B1 = {w11, w12, ..., w1n1}, ..., Br = {wr1, wr2, ..., wrnr}
bases de W1, W2, ..., Wr, respectivamente. Assim, V ´e a soma direta dos Wi
se, e somente se, B = B1∪ B2∪ ... ∪ Br ´e uma base de V .
Demonstra¸c˜ao. Escolha B uma base de V. Ent˜ao, para cada vetor v de V, temos:
v = a11w11+ ... + a1n1w1n1 + ... + ar1wr1+ ... + arnrwrnr
com wi = ai1wi1+ ... + ainiwini ∈ Wi. Para mostrar a unicidade, suponha
agora que
v = w10 + w20 + ... + w0r,
com w0i ∈ Wi. Como {wi1, ..., wini} ´e uma base de Wi, temos w
0
i = bi1wi1+
... + biniwini, e portanto,
v = b11w11+ ... + b1n1w1n1+ b21w21+ ... + b2n2w2n2+ ... + br1wr1+ ... + brnrwrnr
Sendo B base de V, temos aij = bij, para cada i e cada j. Logo, wi = w0i, e
portanto, a soma de v ´e ´unica. Assim, temos que V ´e soma direta dos Wi.
Suponha, agora, que V seja a soma direta dos Wi. Ent˜ao, para cada v ∈ V
teremos v = w1 + ... + wr, onde wi ∈ Wi. Como {wij} ´e uma base de Wi,
cada wi ´e uma combina¸c˜ao linear dos wij, e, portanto, v ´e uma combina¸c˜ao
linear dos elementos de B. Assim, B gera V. Devemos ent˜ao verificar se B ´e linearmente independente. Suponha
a11w11+ ... + a1n1w1n1 + ... + ar1w1r1 + ... + arnrwrnr = 0
Observe que ai1wi1+...+ainiwini ∈ Wi. Tamb´em temos que 0 = 0+0+...+0 ∈
Wi. Como 0 deve ser escrito de forma ´unica,
ai1wi1+ ... + ainiwini = 0,
para i = 1, ..., r. A independˆencia das bases {wiji} implica que todos os
coeficientes a s˜ao nulos. Assim, B ´e linearmente independente e, portanto, uma base de V.
Teorema 3.4. Seja T um operador linear sobre V e suponha que V seja a soma direta de subespa¸cos T-invariantes, digamos, W1, W2, ..., Wr. Se Ai ´e a
representa¸c˜ao matricial da restri¸c˜ao de T a Wi ent˜ao T pode ser representado
pela matriz diagonal em blocos
M = diag(A1, A2, ..., Ar).
Demonstra¸c˜ao. Denotemos por Hi a restri¸c˜ao de T a Wi, isto ´e, Hi : Wi −→
base de Wi. Assim, H1(w11) = a1.11w11+ a1.12w12+ ... + a1.1n1w1n1 .. . H1(w1n1) = a1.n11w11+ a1.n12w12+ ... + a1.n1n1w1n1 H2(w21) = a2.11w21+ a2.12w22+ ... + a2.1n2w2n2 .. . H2(w2n2) = a2.n21w21+ a2.n22w22+ ... + a2.n2n2w2n2 Continuando para i > 2 ... Hr(wr1) = ar.11wr1+ ar.12wr2 + ... + ar.1nrwrnr .. . Hr(wrnr) = ar.nr1w11+ ar.nr2wr2+ ... + ar.nrnrwrnr
Seja Ai a representa¸c˜ao matricial de Hi dada pela transposta da
ma-triz dos coeficientes dos subsistemas apresentados. Note que, de fato, se M ´e a representa¸c˜ao matricial de T na base B, podemos escrever M = diag(A1, ..., Ar).
3.3
Decomposi¸
c˜
ao prim´
aria
O objetivo dessa se¸c˜ao ´e enunciar e demonstrar o Teorema da Decom-posi¸c˜ao Prim´aria, que, como veremos, ´e consequˆencia direta dos dois seguin-tes teoremas.
Teorema 3.5. Sejam T um operador linear sobre V e f (t) = g(t)h(t) um polinˆomio tal que f (T ) = 0, com g(t) e h(t) polinˆomios primos entre si, ou seja, n˜ao existindo nenhum polinˆomio n˜ao-constante que divida ambos. Ent˜ao V ´e a soma direta dos subespa¸cos T-invariantes U = Ker g(T ) e W = Ker h(T ).
Demonstra¸c˜ao. Note que, de acordo com o Teorema 3.1, U e W s˜ao T-invariantes. Sendo g(t) e h(t) polinˆomios primos entre si, existem r(t) e s(t)
tais que:
r(t)g(t) + s(t)h(t) = 1 Logo,
r(T )g(T ) + s(T )h(T ) = I (3.1) Seja v ∈ V , aplicando v ∈ V `a equa¸c˜ao (3.1) obtemos:
r(T )g(T )v + s(T )h(T )v = v Mas r(T )g(T )v pertence a W , pois
h(T )r(T )g(T )v = r(T )g(T )h(T )v = r(T )f (T )v = r(T )0v = 0 Analogamente, s(T )h(T )v pertence a U , porque
g(T )s(T )h(T )v = s(T )g(T )h(T )v = s(T )f (T )v = s(T )0v = 0
Assim, como qualquer vetor v ∈ V pode ser escrito como soma de uma parcela pertencente a U com outra parcela pertencente a W , temos que V ´e a soma de U e W .
Para mostrar que V = U ⊕ W , devemos mostrar que uma soma v = u + w, com u ∈ U e w ∈ W , ´e determinada de modo ´unico por v. Aplicando o operador r(T )g(T ) a v = u + w, e usando que g(T )u = 0, obtemos
r(T )g(T )v = r(T )g(T )u + r(T )g(T )w = r(T )g(T )w Aplicando a equa¸c˜ao (3.1) `a w e usando o fato de h(T )w = 0, temos
w = r(T )g(T )w + s(T )h(T )w = r(T )g(T )w
Juntando esses dois ´ultimos resultados, temos que w = r(T )g(T )w = r(T )g(T )v e, portanto, w esta determinado de modo ´unico por v. De forma an´aloga, ob-temos que u est´a determinado de modo ´unico por v. Assim, V = U ⊕ W . Teorema 3.6. No Teorema 3.5, se f(t) ´e o polinˆomio m´ınimo de T, e g(t) e h(t) s˜ao mˆonicos, ent˜ao g(t) e h(t) s˜ao os polinˆomios m´ınimos das restri¸c˜oes de T a U e W, respectivamente.
Demonstra¸c˜ao. Suponha m1(t) e m2(t) os polinˆomios m´ınimos de T1 e T2,
restri¸c˜oes de T a U e W , respectivamente. Observe que g(T1) = 0 e h(T2) = 0,
porque U = Ker g(T ) e W = Ker h(t). Assim, temos que m1(t) divide g(t)
e m2(t) divide h(t). Assim, pelo Teorema 3.5, f (t) ´e o m´ınimo m´ultiplo
comum de m1(t) e m2(t). No entanto, m1(t) e m2(t) s˜ao primos entre si, pois
g(t) e h(t) s˜ao primos entre si. Assim, f (t) = m1(t)m2(t). Tamb´em temos
f (t) = g(t)h(t). Todos esses resultados nos d˜ao g(t) = m1(t) e h(t) = m2(t),
lembrando que todos os polinˆomios envolvidos s˜ao mˆonicos.
Teorema 3.7 (Teorema da Decomposi¸c˜ao Prim´aria). Seja T : V −→ V um operador linear com polinˆomio m´ınimo
m(t) = f1(t)n1f2(t)n2 · · · fr(t)nr
em que os fi(t) s˜ao polinˆomios mˆonicos irredut´ıveis distintos. Ent˜ao V ´e a
soma direta dos subespa¸cos T-invariantes W1, W2, ..., Wr, sendo Wi o n´ucleo
de fi(T )ni. Al´em disso, fi(t)ni ´e o polinˆomio m´ınimo da restri¸c˜ao de T a Wi.
Demonstra¸c˜ao. Essa demonstra¸c˜ao ser´a feita por indu¸c˜ao. Para r = 1, a verifica¸c˜ao da tese ´e trivial. Suponha que o teorema seja v´alido para r − 1. Pelo primeiro Teorema 3.5, podemos escrever V como a soma direta de subespa¸cos T-invariantes W1 e V1, em que W1 ´e o n´ucleo de f1(T )n1 e V1 ´e o
n´ucleo de f2(T )n2 · · · fr(T )nr. Pelo Teorema 3.6, os polinˆomios m´ınimos das
restri¸c˜oes de T a W1 e V1 s˜ao f1(t)n1 e f2(t)n2 · · · fr(t)nr, respectivamente.
Denotemos por T1 a restri¸c˜ao de T a V1. Pela hip´otese de indu¸c˜ao, V1 ´e
a soma direta de subespa¸cos W2, ..., Wr de maneira que Wi ´e o n´ucleo de
fi(T1)ni e fi(t)ni ´e o polinˆomio m´ınimo da restri¸c˜ao de T1 a Wi. Mas o n´ucleo
de fi(T )ni com i = 2, ..., r necessariamente est´a contido em V1, pois fi(t)ni
divide f2(t)n2 · · · fr(t)nr. Assim, o n´ucleo de fi(T )ni ´e igual ao n´ucleo de
fi(T1)ni, que ´e Wi. Tamb´em, a restri¸c˜ao de T a Wi ´e igual a restri¸c˜ao de
T1 a Wi (com i = 2, ..., r). Logo, fi(t)ni ´e tamb´em o polinˆomio m´ınimo da
restri¸c˜ao de T a Wi. Assim, V = W1 ⊕ W2 ⊕ ... ⊕ Wr ´e a decomposi¸c˜ao
procurada de T.
Teorema 3.8. Um operador linear T sobre V ´e diagonaliz´avel se, e s´o se, o polinˆomio m´ınimo m(t) de T ´e um produto de polinˆomios lineares distintos.
Demonstra¸c˜ao. Suponhamos que m(t) seja um produto de polinˆomios linea-res distintos
m(t) = (t − λ1)(t − λ2) · · · (t − λr)
em que os λis˜ao escalares distintos. Do Teorema da Decomposi¸c˜ao Prim´aria,
sabemos que V ´e soma direta de subespa¸cos W1, ..., Wr, sendo Wi = Ker(T −
λiI). Assim, se v pertence a Wi, ent˜ao (T − λiI)(v) = 0, logo, T (v) = λiv.
Ou seja, cada vetor de Wi ´e um autovetor associado ao autovalor λi. Pelo
Teorema 3.3 a uni˜ao das bases dos subespa¸cos W1, ..., Wr ´e uma base de V.
Visto que essa base consiste em autovetores de T, podemos concluir que T ´e diagonaliz´avel.
Agora, suponhamos que T seja diagonaliz´avel, isto ´e, que V possua uma base constitu´ıda de autovetores de T . Sejam λ1, ..., λs os autovalores distintos de
T. Assim, o operador
f (T ) = (T − λ1I)(T − λ2I) · · · (T − λsI)
leva cada vetor da base em 0. Assim, f (T ) = 0 e, portanto, o polinˆomio m´ınimo m(t) de T divide o polinˆomio
f (t) = (t − λ1)(t − λ2) · · · (t − λs).
Logo, m(t) ´e o produto de polinˆomios lineares distintos.
3.4
Operadores Nilpotentes
De acordo com Lipschutz (2009), um operador linear T sobre V ´e con-siderado nilpotente se Tn = 0, para algum n inteiro positivo. O ´ındice de
nilpotˆencia de T ´e r se Tr = 0 e Tr−1 6= 0. De maneira an´aloga, temos que
uma matriz A ´e nilpotente se An = 0 para algum n inteiro positivo, e que
seu ´ındice ´e r se Ar = 0 e Ar−1 6= 0. ´E f´acil ver que o polinˆomio m´ınimo de um operador ou matriz nilpotente de ´ındice k ´e m(t) = tk e, portanto, 0 ´e seu ´unico autovalor.
Duas defini¸c˜oes fundamentais para este trabalho s˜ao a da matriz denomi-nada bloco de Jordan e a da matriz bloco de Jordan nilpotente. Um bloco de
Jordan associado ao autovalor λ, consiste de entradas iguais a λ na diagonal principal, 1 nas entradas acima da diagonal e 0 nas demais entradas, ou seja
J(λ) = λ 1 ... 0 0 0 λ ... 0 0 .. . ... . .. ... ... 0 0 ... λ 1 0 0 ... 0 λ .
Um bloco de Jordan nilpotente ´e formado por entradas 1 na linha acima da diagonal e 0 nas demais entradas, isto ´e
N = N(r) = 0 1 ... 0 0 0 0 ... 0 0 .. . ... . .. ... ... 0 0 ... 0 1 0 0 ... 0 0
onde N = N (r) ´e nilpotente de ´ındice
r.
Observe que J(λ) = λI + N
Mais a frente, mostraremos que qualquer operador linear T admite de-composi¸c˜ao em dois operadores, os quais s˜ao compostos pela soma de um operador escalar com um operador nilpotente.
O Teorema 3.9 esclarece um resultado muito importante relacionado `a operadores nilpotentes.
Afirma¸c˜ao 3.1. Seja T : V −→ V um operador linear. Suponha que, para v ∈ V , tenhamos Tk(v) = 0, mas Tk−1(v) 6= 0. Assim, valem as seguintes afirma¸c˜oes:
i) O conjunto S = {v, T (v), ..., Tk−1(v)} ´e linearmente independente.
ii) O subespa¸co W gerado por S ´e T − invariante. iii) A restri¸c˜ao T1 de T a W ´e nilpotente de ´ındice k.
iv) Em rela¸c˜ao `a base {Tk−1(v), ..., T (v), v} de W , a matriz de T
1 ´e uma
matriz quadrada de ordem k dada pelo bloco de Jordan nilpotente Nk de
´ındice k.
Demonstra¸c˜ao. i) Suponha
av + a1T (v) + a2T2(v) + ... + ak−1Tk−1(v) = 0 (3.2)
Se aplicarmos Tk−1 na equa¸c˜ao (3.2) e usarmos o fato de que Tk(v) = 0, obteremos aTk−1(v) = 0, e como Tk−1(v) 6= 0, ent˜ao a = 0. Agora aplicando
Tk−2 `a equa¸c˜ao (3.2) e usando Tk(v) = 0 e a = 0, obtemos a1Tk−1(v) = 0
e, portanto, a1 = 0. Aplicando Tk−3 `a equa¸c˜ao (3.2) e usando Tk(v) = 0 e
a = a1 = 0, obtemos a2Tk−1(v) = 0 e, portanto, a2 = 0. Continuando esse
processo, iremos verificar que todos os ai s˜ao nulos. Assim, S ´e linearmente
independente.
ii) Seja v ∈ W . Ent˜ao
v = bv + b1T (v) + b2T2(v) + ... + bk−1Tk−1(v).
Usando o fato de que Tk(v) = 0, obtemos:
T (v) = bT (v) + b1T2(v) + ... + bk−2Tk−1(v) ∈ W.
Logo, W ´e invariante por T .
iii) Por hip´otese, temos que Tk(v) = 0. Assim, para i = 0, ..., k − 1,
T1k(Ti(v)) = Tk+i(v) = 0. Ou seja, se aplicarmos Tk
1 a cada gerador de W obtemos 0. Logo, T1k = 0,
do que podemos concluir que T1 ´e nilpotente de ´ındice k, no m´aximo. Mas
T1k−1(v) = Tk−1(v) 6= 0, ou seja, T1 ´e nilpotente de ´ındice k.
iv) Considerando a base {Tk−1(v), Tk−2(v), ..., T (v), v} de W , temos: T1(Tk−1(v)) = Tk(v) = 0 T1(Tk−2(v)) = Tk−1(v) T1(Tk−3(v)) = Tk−2(v) .. . T1(T (v)) = T2(v) T1(v) = T (v) .
Assim, a matriz de T1 nessa base ´e uma matriz quadrada de ´ındice k, dada
pelo bloco de Jordan nilpotente Nk.
Afirma¸c˜ao 3.2. Seja T : V −→ V um operador linear e denotemos U = Ker(Ti) e W = Ker(Ti+1). Assim:
i) U ⊆ W ii) T(W) ⊆ U