• Nenhum resultado encontrado

ÁLGEBRA LINEAR. Daniele Corradetti

N/A
N/A
Protected

Academic year: 2021

Share "ÁLGEBRA LINEAR. Daniele Corradetti"

Copied!
29
0
0

Texto

(1)

ÁLGEBRA LINEAR

Daniele Corradetti

(2)

Conteúdo

1 Espaços vectoriais 3

1.1 Introdução . . . 3

1.1.1 Espaço vectorial . . . 3

1.1.2 Dependência linear . . . 4

1.1.3 Bases de um espaço vectorial . . . 4

1.1.4 Fórmula de Grassmann e soma directa . . . 5

1.2 Transformações lineares . . . 5

1.2.1 Definições fundamentais . . . 5

1.2.2 Isomorfismos entre espaços vectoriais . . . 6

1.3 Dualidade . . . 7

2 Endomorfismos e formas canónicas 9 2.1 Elementos fundamentais . . . 9

2.1.1 Mudança de base . . . 9

2.1.2 Subespaços invariantes, valores e vectores próprios. . . 10

2.1.3 Polinómio característico . . . 10

2.2 Forma normal de Jordan . . . 11

2.2.1 Forma de Jordan no caso de V um espaço indecomponível . . . . 12

2.2.2 Forma de Jordan no caso geral . . . 14

2.3 Forma normal simétrica . . . 14

3 Formas bilineares e quadráticas 17 3.1 Formas bilineares . . . 17

3.2 Formas sesquilineares . . . 18

3.3 Formas quadráticas . . . 19

3.4 Espaços unitários e euclidianos . . . 20

3.4.1 Bases ortogonais e projectores . . . 21

3.4.2 Ortogonalização de Gram-Schmidt . . . 21

3.5 Uma aplicação . . . 22

A Notações e Símbolos 27

(3)

Preâmbulo

Esta exposição constitui um resumo da primeira parte do curso da Álgebra Linear no âmbito do Programa de Formação Avançada do ano lectivo 2015/16 efectuado na Uni-versidade do Algarve. Esta primeira parte do curso introduz as noções fundamentais da Álgebra Linear i.e.: os espaços vectoriais, as transformações lineares e as formas bilineares. Portanto estas notas serão desenvolvidas primariamente em três capítulos dedicados aos três assuntos principais apresentados neste contexto:

• Espaços vectoriais: no primeiro capítulo definimos os espaços vectoriais, as noções de dependência e independência linear, de base de um espaço, assim como de transformação linear. Introduzimos também o espaço dual de um espaço. Nos nossos estudos consideramos só os espaços vectoriais, de dimensão finita, sobre o corpo dos números reaisR ou complexos C. Alguns espaços vectoriais de di-mensão infinita serão estudados noutros apontamentos.

• Transformações lineares: o segundo capítulo é a apresentação de duas formas canó-nicas dos endomorfismos dos espaços complexos, i.e. a forma normal de Jordan e a forma normal simétrica. Consideramos os subespaços invariantes, os vecto-res próprios, o polinómio característico e todas as ferramentas necessárias para o desenvolvimento das duas formas.

• Formas bilineares: no terceiro capítulo são estudadas as formas bilineares e sesqui-lineares tais como as formas quadráticas. A última secção é dedicada a aplicação das formas quadráticas na classificação das Álgebras de Lie simples sobre o corpo dos números complexos.

(4)

Capítulo 1

Espaços vectoriais

Neste capítulo apresentaremos as noções fundamentais dos espaços vectoriais. Na sec-ção de introdusec-ção trataremos das definições e dos enunciados dos teoremas funda-mentais que iremos utilizar nas secções dos capítulos subsequentes. O objectivo da se-gunda secção consiste na introdução da noção de transformação linear o que é essencial no teorema de isomorfismo dos espaços vectoriais de dimensão finitas. Enfim a última parte do capítulo é destinada à apresentação do espaço dual e da base canónica dual. A exposição foi desenvolvida sobre um corpoK que será R ou C e os espaços vectoriais estudados serão sempre de dimensão finita, sendo o caso de dimensão infinita tratado nos outros apontamentos.

1.1

Introdução

1.1.1

Espaço vectorial

Definição 1. (ESPAÇO VECTORIAL) Diz-se espaço vectorial ou espaço linear sobre o corpo

K um conjunto não vazio V com duas operações binárias: uma adição de elementos de V e uma multiplicação de elementos do corpo K por elementos de V chamada multiplicação escalar com as seguintes propriedades:

1. V é um grupo abeliano para a adição, i.e. a soma de qualquer par de elementos de Vpertence a V eu, v, wVe possuem as seguintes características:

Existência de zero: v+0 =v; (1.1) Associatividade da adição: u+ (v+w) = (u+v) +w; (1.2) Existência de simétricos : v+ (−v) = 0; (1.3) Commutatividade da adição: v+w=w+v. (1.4) 2. e a multiplicação escalar com as seguintes propriedades: ∀v, wVe∀λ, µK

Distributividade: λ(v+w) =λv+λw; (µ+λ)v =µv+λv; (1.5)

Associatividade: λ(µv) = (λµ)v; (1.6)

Existência da identidade: 1v=v; (1.7)

Elemento absorvente: 0v=0. (1.8)

Os elementos deK são chamados escalares e vectores os elementos de V.

(5)

CAPÍTULO 1. ESPAÇOS VECTORIAIS 4

1.1.2

Dependência linear

Definição 2. (SUBESPAÇO) Seja V um espaço vectorial sobre K. Diz-se que W é um

subespaço vectorial de V se W é um subconjunto de V que é ele próprio um espaço vec-torial sobre K com as mesmas operações de adição e multiplicação escalar do espaço V.

Definição 3. (SUBESPAÇO GERADO) Sejam v1, .., vkvectores de V. Definimos como

su-bespaço gerado de v1, .., vk indicado por span(v1, .., vk), o subespaço vectorial de V for-mado por todas as combinações lineares dos vectores v1, .., vk, i.e.

span(v1, .., vk) = n

wV| λ1v1+..+λnvn =w, ∀λi ∈K

o

. (1.9) Definição 4. (DEPENDÊNCIA E INDEPENDÊNCIA LINEAR) Diz-se que um subconjunto

S de elementos de um espaço vectorial é linearmente independente se as únicas ções lineares finitas de elementos de S que são iguais ao vector nulo são as combina-ções lineares com coeficientes escalares nulos, i.e., quaisquer que sejam os elementos v1, .., vn ∈ S, a equação

λ1v1+..+λnvn =0, (1.10)

implica λi =0 para i =1, ..., n. Um subconjunto de V que não é linearmente indepen-dente diz-se linearmente depenindepen-dente.

1.1.3

Bases de um espaço vectorial

Definição 5. (BASE E DIMENSÃO DE UM ESPAÇO) Seja V um espaço vectorial. Então

qualquer subconjunto linearmente independenteE ={ei}iI de V, que gera o espaço Vé chamado base do espaço vectorial. Se um espaço vectorial V tem uma base que é um conjunto finito então o espaço V diz-se de dimensão finita ou dimensão nula se V = {0}

e a cardinalidade da base é chamada dimensão de V sobreK, indicada por dimK(V)ou

dim(V). Caso contrario diz-se que V possui dimensão infinita.

Sendo que por hipótese os vectores da base E geram todo o espaço vectorial V, então dado un vector vV e uma baseE é possível escrever univocamente v como combinação linear dos elementos da base. Os coeficientes escalares que permitem de escrever essa combinação linear são chamados de coordenadas ou componentes do vector na base.

Definição 6. (COORDENADAS) Sejam vVeE uma base de V. Chamamos de coor-denadas de v na base E , i.e. [v]E = (ξ1, .., ξn), os coeficientes escalares ξ1, .., ξn ∈ K da

combinação linear v= n

i=1 ξiei. (1.11)

Por conseguinte se considerarmos um vector v no espaço vectorial V e duas bases do espaço E e F , então o mesmo vector v possui duas representações distintas[v]E e

[v]F nas basesE e F respectivamente.

Seja a matriz de mudança de base CE F a matriz cujos elementos cij são os escalares que em cada coluna contêm as coordenadas dos vectores da baseE na base F i.e.:

ej =

n

i=1

(6)

CAPÍTULO 1. ESPAÇOS VECTORIAIS 5

Nesse caso a mudança entre a baseE e a base F implica uma mudança nas coor-denadas do vector nas duas bases, i.e. [v]E = (ξ1, .., ξn)e[v]F = (η1, .., ηn), segundo a

seguinte fórmula: v= n

j=1 ξjej =

i, j ξjcijfi = n

i=1 ηifi. (1.13) Explicitando a mudança de base directamente pelas coordenadas na base F a partir da baseE obtemos ηi = n

j=1 ξjcij, (1.14)

que exprime as novas coordenadas por meio da matriz de mudança de base CE F.

1.1.4

Fórmula de Grassmann e soma directa

Se considerarmos dois espaços vectoriais V1e V2a intersecção V1∩V2é um subespaço vectorial dos dois, mas em geral a união V1∪V2 não conserva a estrutura de espaço vectorial. Resulta portanto útil a seguinte definição:

Definição 7. (SOMA E SOMA DIRECTA) Sejam V1, V2subespaços vectoriais de V.

Cha-mamos soma entre espaços vectoriais o espaço vectorial

V1+V2 ={vV|v=v1+v2, onde v1∈ V1, v2∈ V2}. (1.15) Ademais se V1∩V2 ={0}chamamos a soma de soma directa e indicamos com V1⊕V2. Observação 8. SeB1eB2são dois bases respectivamente de V1e V2entãoB =B1∪B2 é uma base por V1⊕V2.

Teorema 9. (FÓRMULA DE INTERSECÇÃO DEGRASSMANN) Sejam V1, V2espaços vecto-riais de V. Então é verdadeira a seguinte fórmula:

dim(V1) +dim(V2) = dim(V1∩V2) +dim(V1+V2). (1.16) Se um espaço vectorial é soma directa de m subespaços, ou seja V= ⊕m

i=1Vi, dizemos

que V é decomponível em soma direita de subespaços. Se um espaço V não é decomponí-vel chamamos de indecomponídecomponí-vel.

1.2

Transformações lineares

As transformações lineares são as aplicações que preservam a estrutura linear entre espaços. Essa definição permite definir os isomorfismos e portanto classificar todos os espaços vectoriais de dimensão finita sobre um corpoK.

1.2.1

Definições fundamentais

Definição 10. (TRANSFORMAÇÃO LINEAR) Sejam V e W dois espaços vectoriais sobre

K. Chamamos de transformação linear uma função A entre V e W tal que possui as seguintes propriedades:

(7)

CAPÍTULO 1. ESPAÇOS VECTORIAIS 6

Uma vez escolhidas duas bases para os espaços vectoriais V e W, fica definida uma correspondência biunívoca entre transformações lineares A entre V e W e as matrizesn, onde m e n são as dimensões de V e W respectivamente. O conjunto de todas as transformações lineares A entre V e W forma um espaço vectorial sobre o corpoK. Indicamos esse espaço vectorial como Hom(V, W).

Definição 11. (NÚCLEO E CONTRADOMÍNIO) Seja A uma transformação linear entre V

e W. Então chama-se núcleo da transformação linear ker(A)o subconjunto de V ker(A) = {vV |A(v) = 0}, (1.18) por enquanto indica-se com Im(A) ou A(V) o contradomínio ou imagem do transfor-mação linear, i.e o subconjunto de W

Im(A) ={wW |w =A(v)}. (1.19) Ademais ker(A) é um subespaço vectorial de V cuja dimensão chamamos nulidade de A e indicamos nul(A). Analogamente Im(A) é um subespaço vectorial de W cuja dimensão chamamos de característica de A e indicamos com rank(A).

Teorema 12. (TEOREMA DO RANK-NUL) Seja A uma transformação linear então dim(V) =

rank(A) +nul(A).

1.2.2

Isomorfismos entre espaços vectoriais

Definição 13. (ISOMORFISMO) Uma transformação linear A ∈ Hom(V, W) diz-se in-jectiva se o núcleo é o vector nulo, i.e. ker(A) = {0}, e diz-se sobrejectiva se o con-tradomínio da aplicação coincide com o codomínio da aplicação, i.e. Im(A) = W. Uma transformação linear que seja injectiva e sobrejectiva, i.e. bijectiva, denomina-se isomorfismo.

Definição 14. (INVERSA) Sejam V e W dois espaços vectoriais e seja A uma

transfor-mação linear entre V e W. Então A diz-se invertível se existe uma função B entre W e V tal que B◦A =idVe A◦B =idW. Ademais B chama-se inversa de A e indica-se como

A−1.

Observação 15. Uma aplicação possui uma inversa a esquerda, i.e. B◦ A = idV se e

somente se é injectiva por enquanto possui uma inversa à direita, i.e. A◦B = idW se

e somente se é sobrejectiva. Portanto uma transformação linear A possui uma inversa se e somente se é um isomorfismo com a imagem.

Teorema 16. Sejam V e W dois espaços vectoriais de dimensão finita sobre o mesmo corpoK. Então os espaços são isomorfos se e só se dim(V) =dim(W).

Demonstração. Provamos que se os espaços são isomorfos então a dimensão dos es-paços é a mesma. Se V e W são isomorfos então existe uma transformação linear A entre V e W que seja injectiva e sobrejectiva. Sendo dà sobrejectividade de A que Im(A) ⊃ Wentão a dimensão da imagem é a dimensão de W, i.e. rank(A) = dim(W)

e sendo que A é injectiva o núcleo é o vector nulo e portanto nul(A) = 0. Então pelo teorema do Rank-Nul as dimensões de V e W são as mesmas, i.e.:

(8)

CAPÍTULO 1. ESPAÇOS VECTORIAIS 7

Reciprocamente se as duas dimensões de V e W são as mesmas podemos encontrar uma base E = {ei}1≤i≤n de V e uma base F = {fi}1≤i≤nde W. Sobre essas bases definimos uma transformação linear sobrejectiva e injectiva A que associa para cada elemento v em V de coordenadas[v]E = (ξ1, .., ξn), o elemento w em W com as

mes-mas coordenadas [w]F = (ξ1, .., ξn). Claramente a transformação é linear e possui

uma inversa A−1 que é a aplicação que para cada [w]F = (ξ1, .., ξn) em W associa o

vector com as mesmas coordenadas em V, i.e. [v]E = (ξ1, .., ξn). Tivendo uma inversa

e sendo a aplicação sobrejectiva, A é portanto um isomorfismo entre V e W.

1.3

Dualidade

Nesta secção introduziremos a noção de dualidade para definirmos o espaço dual e de um espaço vectorial. Paralelamente iremos definir a base canónica dual e achare-mos como corolário o teorema de isomorfismo entre espaços de dimensão finitas e os espaços duais.

Definição 17. Seja V um espaço vectorial sobre um corpoK. Chamamos de espaço dual V∗ o espaço Hom(V,K) ou seja o espaço das transformações lineares entre o espaço vectorial V e o corpo escalar K. Tais transformações lineares com valores no corpo escalar são também chamadas de formas lineares como de funcionais lineares.

Teorema 18. Dado um espaço vectorial V sobre um corpoK, de dimensão finita e com uma baseE ={ei}1≤i≤n podemos definir uma base no espaço dual V∗de funcionais linearesE∗ = ei

1≤i≤n tais que:

ei(ej) =δij. (1.21)

Demonstração. Pela linearidade dos funcionais lineares, dada uma baseE ={ei}1≤i≤n do espaço vectorial V, para definirmos completamente o funcional só é preciso especi-ficar os valores que ele possui sobre a base. Portanto definimos eios funcionais lineares que assumem os valores:

ei : V −→ K e ei(ej) =

(

1 se i= j

0 se i6= j . (1.22) Precisamos provar que os funcionais ei 1in constituem uma base para V∗. Se con-siderarmos um funcional linear f ∈ V∗, pela linearidade de f , podemos escrever para cada[v]E = (ξ1, .., ξn)em V que f(v) = n

i=1 ξif(ei), (1.23) portanto chamando os coeficientes escalares

ηi = f(ei), (1.24)

podemos escrever o funcional f na base canónicaei 1in como f =

n

i=1

(9)

CAPÍTULO 1. ESPAÇOS VECTORIAIS 8

Observação 19. Seja o vector v de coordenadas [v]E = (ξ1, .., ξn) na base E e seja o

funcional f com coordenadas[f]E∗ = (η1, .., ηn) na base dual canónica. Então o valor

do funcional f em v é dado por f(v) = n

i, j=1 ξiηjei(ej) = n

i=1 ξiηi. (1.26)

Corolário 20. Seja Vo espaço dual do espaço vectorial V de dimensão finita. Então dim(V) =

(10)

Capítulo 2

Endomorfismos e formas canónicas

Neste capítulo apresentaremos os endomorfismos, i.e. transformações lineares de um espaço vectorial V em si próprio. Portanto na primeira secção trataremos as noções fundamentais dos endomorfismos tais como representação matricial, a mudança de base no caso dos endomorfismos, assim como a noção de subespaços invariantes, de polinómio característico e, enfim, de valores próprios e vectores próprios de um endo-morfismo. Nas últimas duas secções apresentaremos duas formas canónicas para os endomorfismos sobre o corpo dos números complexosC, i.e. a forma normal de Jordan e a forma normal simétrica.

2.1

Elementos fundamentais

Definição 21. (ENDOMORFISMO) Um endomorfismo L : VVé uma transformação linear entre um espaço vectorial V e si próprio. O espaço vectorial dos endomorfismos ou HomK(V, V)é designado por End(V).

Uma transformação linear pode ser representada em forma matricial uma vez es-colhidas duas bases, i.e. uma base do domínio e uma base do codomínio. Um endo-morfismo é em particular uma transformação linear e sendo V o espaço do domínio e do codomínio, pode ser representado em forma matricial uma vez escolhida uma base pelo espaço vectorial V. No específico se E = {ei}1≤i≤n for uma base do espaço V, o endomorfismo L é representado na base E dà matriz A ∈ Mnn(K) que possui nas colunas as coordenadas das imagens dos vectores da baseE . Consequentemente dado um vector vV com coordenadas na base[v]E = (ξ1, .., ξn) podemos representar a

acção do endomorfismo L sobre o vector v por:

E[L]E[v]E = A[v]E =      a11 a12 . . . a1n a21 a22 . . . a2n .. . ... . . . ... an1 a2n . . . ann           ξ1 ξ2 .. . ξn      . (2.1)

2.1.1

Mudança de base

ConsideramosF ={fi}1inuma nova base do espaço V, e CE F a matriz de mudança de base com nas colunas as coordenadas dos vectores da baseE na base F , i.e.:

ej = n

i=1 cijfi. (2.2) 9

(11)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 10

Paralelamente consideramos a matriz que designamos por CF E =C−E F1 com coeficien-tes dije que permite exprimir os vectores da baseF em vectores da base E , i.e.:

fj=

n

i=1

dijei. (2.3)

Se quisermos representar o endomorfismo L, já representado dà matriz A na base E , numa nova base F , este endomorfismo será representado por uma nova matriz B relacionada à precedente por

F[L]F =B =CE F−1 ACE F . (2.4) Sendo um mesmo endomorfismo representado diferentemente dàs matrizes A e B em acordo com duas diferentes escolhas da base do mesmo espaço V, definimos a seguinte noção:

Definição 22. (ENDOMORFISMOS SIMILARES) Dois endomorfismos lineares representa-dos por matrizes A ∈ Mnn(K) e B ∈ Mnn(K) dizem-se similares se existe uma matriz M ∈Mnn(K)não singular tal que

A =M−1BM. (2.5)

2.1.2

Subespaços invariantes, valores e vectores próprios.

Definição 23. (SUBESPAÇO INVARIANTE) Um subespaço SV diz-se invariante pelo endomorfismo L ou simplesmente subespaço invariante, quando a transformação já for univocamente especificada, se as imagens por L dos vectores em S permanecem em S, i.e. L(S) ⊂ S.

Definição 24. (VALOR E VECTOR PRÓPRIO) Dado L ∈ End(V)diz-se que um escalar λ

é um valor próprio de L se existe um vector diferente de zero vVtal que Lv =λv. O

vector v diz-se que é um vector próprio associado ao valor próprio.

2.1.3

Polinómio característico

A investigação sobre os vectores próprios definidos como Lv =λvleva à consideração

do sistema de equações obtido considerando uma representação matricial A ∈Mnn(K)

do endomorfismo, i.e.

(A−λ1)v =0. (2.6)

Para que o sistema possa ser resolvido um vector v não nulo, precisamos que o deter-minante da matriz(A−λ1)seja nulo, i.e.

det(A−λ1) =0. (2.7)

Chamamos a aplicação RL(λ) = (L−λ·id)de aplicação resolvente.

Definição 25. Seja uma matriz A ∈ Mnn(K). O polinómio de grau n na variável λ com coeficientes no corpoK definido por pA(λ) = det(A−λ1) é chamado polinómio característico da matriz A.

Para falarmos de polinómio característico de um endomorfismo, é preciso de demonstrar que tal polinómio não seja subjecto a mudanças por mudanças de bases do espaço vectorial. Resulta portanto necessário o seguinte teorema:

(12)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 11

Teorema 26. Duas matrizes similares A e B possuem o mesmo polinómio característico, i.e. pA(λ) = pB(λ).

Demonstração. Se considerarmos o polinómio característico da matriz B relacionada com a matriz A por uma mudança de base, i.e.

B= M−1AM, (2.8)

então podemos notar que

det(B−λ1) = det(M−1AM−λM−1M), (2.9)

mas isso pela regra de Binêt dos determinantes é igual a

det(M−1)det(A−λ1)det(M) =det(A−λ1), (2.10)

ou seja ao polinómio característico de A.

SejaK o corpo dos números complexos C. Sendo K um corpo algebricamente fe-chado, podemos escrever o polinómio característico de um endomorfismo L como

p(λ) = (−1)n(λλ1)m1. . .(λλk)mk, (2.11) onde os λisão chamados os valores próprios do endomorfismo e as mi as multiplicidades algébricas dos valores próprios λi.

Ademais podemos observar que para cada λia equação matricial

(A−λi1)v=0, (2.12)

pode ser resolvida enquanto o determinante det(A−λi1) é nulo. Isso significa que

para cada λi existe pelo menos um vector próprio contido num subespaço invariante pelo endomorfismo A.

2.2

Forma normal de Jordan

O objectivo desta secção é demonstrar que cada endomorfismo A ∈ End(V)existe uma base chamada base de Jordan e uma representação matricial do endomorfismo chamada forma normal de Jordan. Doravante indicaremos por A o endomorfismo e por [A]B a representação matricial de A na baseB.

Teorema 27. (FORMA NORMAL DE JORDAN): Seja V espaço vectorial de dimensão finita.

Seja A ∈ End(V)então existe uma decomposição de V em soma directa de subespaços invari-antes indecomponíveis:

V =V1⊕...⊕Vk, (2.13) onde para cada Vi , i = 1, ..., k com dimensão ni = dim(Vi) existe uma base chamada de JordanBi =ej 1≤j≤ni onde ( (A−λi·id)e1=0 (A−λi·id)ej =ej−1 1 <j ≤ni. (2.14)

(13)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 12

Observação 28. Se V é decomponível em V = V1V2 eB1 eB2 são bases de V1, V2 então a baseB =B1∪B2é uma base de V e nessa base um endomorfismo A toma a seguinte forma matricial[A]B:

[A]B =  A11 A12 A21 A22  , (2.15)

onde A12 = 0 se e só se V2 é invariante por A e A21 = 0 se e somente se V1 é um subespaço invariante pelo endomorfismo A.

Corolário 29. Na base deB = ∪

1≤i≤kBio endomorfismo A tem uma representação matricial:

[A]B =      J1 0 . . . 0 0 J2 0 .. . . . . ... 0 0 · · · Jk      , (2.16)

onde os Jisão chamados blocos de Jordan:

Ji =         λ 1 0 · · · 0 0 λ 1 0 0 0 λ . . . ... .. . ... . . . 1 0 0 0 · · · λ         . (2.17)

Para demonstrarmos o Teorema em primeiro lugar encontraremos a base da forma de Jordan no caso de V indecomponível em subespaços invariantes pelo endomor-fismo A e sucessivamente analisaremos o caso geral.

2.2.1

Forma de Jordan no caso de V um espaço indecomponível

Teorema 30. Seja V um espaço indecomponível em subespaços invariantes pelo endomorfismo A, então existe uma base de Jordan em V.

Antes de proceder à prova do Teorema é preciso demonstrar alguns Lemas e Defini-ções. Consideramos um espaço vectorial V que não seja decomponível em subespaços invariantes pelo endomorfismo A. Seja λ um valor próprio de A e seja Rλ a aplicação

resolvente(A−λ·id).

Se considerarmos os núcleos Ns(λ) = ker (Rλ)

s

, temos uma cadeia ascendente de subespaços

N1(λ) ⊂... ⊂Nm(λ) ⊂...Nq(λ), (2.18)

dado que a dimensão de V é finita, a cadeia alcançará um elemento maximal Nq(λ),

i.e. para cada λ existe um q tal que Nq(λ) = Nm(λ)para cada m>q.

Definição 31. (VECTOR PRÓPRIO GENERALIZADO) Um vector chama-se de vector

pró-prio generalizado de ordem q se

v 6=0, (A−λ·id) v 6=0, .. . (A−λ·id)q−1 v 6=0, (A−λ·id)q v=0. (2.19)

(14)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 13

Lema 32. Nas hipóteses precedentes existe portanto um específico qN tal que o espaço

vec-torial V decompõe-se em soma directa do núcleo e da imagem de(Rλ)

q , i.e.V=ker (Rλ) q ⊕ Im (Rλ) q.

Demonstração. Em primeiro lugar precisamos demonstrar que a intersecção do núcleo e da imagem por q é o vector nulo, i.e.

ker (Rλ)

q

∩Im (Rλ)

q

={0}, (2.20)

e depois o teorema segue pelo Teorema do Rank-Nul e pelos Teoremas 8 e 15. Supondo que v ∈ ker (Rλ)

q

∩ Im (Rλ)

q, demonstraremos que é o vector nulo. Dado que v∈ ker (Rλ)

q temos que

(Rλ)

q v=

0, (2.21)

mas também dado que v∈ Im (Rλ)

q e portanto existe um w V

tal que

v=Rqλw . (2.22)

Isto que dizer que

Rqλ Rqλw

= (Rλ)

2qw =

0, (2.23)

o que demonstra que w ∈ ker(Rλ)

2q

. Mas dà construção precedente sabemos que ker (Rλ)

q

= ker(Rλ)

2q

e portanto w pertence ao núcleo de (Rλ)

q

também, i.e. w∈ ker(Rqλ), e portanto v =Rqλw=0.

Tendo demonstrado o precedente lema, agora sabemos que existe um q por maio do qual o espaço V pode ser decomposto na forma V = ker (Rλ)

q

⊕Im (Rλ)

q. Agora é preciso demonstrar que estes subespaços vectoriais, são também subespaços invariantes pelo endomorfismo A.

Lema 33. Os núcleos e as imagens das (Rλ)

q

, i.e. ker (Rλ)

q e Im ( Rλ)

q, são subespaços invariantes de V pelo endomorfismo A.

Demonstração. De facto se considerarmos A· (Rλ)

q

podemos notar que as duas aplica-ções comutam i.e.

A(A−λ·id)q = (A−λ·id)qA. (2.24)

Portanto se o vector v pertence ao núcleo de (Rλ)

q

, i.e. (Rλ)

q(v) = 0

, então também A(v)está no mesmo núcleo de(Rλ)

q dado que (Rλ) q (A(v)) = A (Rλ) q (v) =0, (2.25) e portanto ker (Rλ) q ⊃ A ker (Rλ) q . (2.26) Similarmente se um vector v pertence à imagem de(Rλ)

q , i.e. v= (Rλ) q(w) , então, dado que A (Rλ) q (w) = (Rλ) q (A(w)), (2.27) o vector A(v)também pertence à imagem de(Rλ)

q e portanto Im (Rλ) q ⊃ A Im (Rλ) q . (2.28)

(15)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 14

Demonstração. Seja q o menor inteiro positivo que satisfaz as condições precedentes. Considerando os lemas e dado que V é indecomponível em subespaços invariantes pelo endomorfismo A pelas hipóteses iniciais, então o espaço V ou está constituído inteiramente pelo núcleo de Rqλ ou pelo contrario o espaço é inteiramente represen-tado dà imagem de(Rλ)

q

. Todavia dado que existe pelo menos um vector próprio do endomorfismo A associado ao valor próprio λ então o núcleo de(Rλ)

q

não é só o vec-tor nulo e portanto é todo o espaço V. Portanto pelos V indecomponíveis a aplicação resolvente Rλ = (A−λ·id)é nilpotent dado que(Rλ)

q

=0.

O núcleo de Rqλ por hipótese é diferente da o núcleo de Rqλ−1, i.e. ker(Rqλ) 6=

ker(Rqλ−1) e portanto podemos escolher v o vector próprio generalizado de ordem q sobre V. Consideramos então a cadeia chamada cadeia de Jordan definida como as ima-gens do vector próprio generalizado pelas potências da resolvente, i.e.

B =nv,(A−λ·id)v, ...,(A−λ·id)q−1v

o

. (2.29)

A cadeia de Jordan forma uma base de V e nessa base o endomorfismo A assume a forma de um bloco de Jordan:

[A]B =         λ 1 0 · · · 0 0 λ 1 0 0 0 λ . . . ... .. . ... . . . 1 0 0 0 · · · λ         . (2.30)

2.2.2

Forma de Jordan no caso geral

Para podermos completar a demonstração, precisamos demonstrar que seja possível encontrar uma decomposição de Jordan em qualquer espaço vectorial V.

Procedemos por indução sobre a dimensão. Se dim(V) =1 a demonstração é trivial, portanto supondo a hipótese valida por dim(V) ≤ n−1 vamos demonstrar que está valida por dim(V) = n. Se V é indecomponível pelo endomorfismo A, então não há nada de demonstrar porque já tratámos o caso em que V seja indecomponível. No caso em que V seja decomponível em subespaços invariantes pelo endomorfismo A, então podemos então decompor V = W1⊕W2 onde W1, W2 são subespaços invariantes pelo endomorfismo A com 0 <dim(W1), dim(W1) <n . Pela hipótese indutiva temos então uma forma de Jordan pelo endomorfismo A sobre W1 e W2 fornecida das bases B1 e B2. Portanto a base B = B1 ∪B2 é a base que queríamos encontrar e que completa o teorema.

2.3

Forma normal simétrica

O resultado dessa secção será a demonstração do Teorema que cada Endomorfismo entre espaços complexos admite uma base onde a sua representação matricial assume uma forma chamada de forma normal simétrica.

Teorema 34. (FORMA NORMAL SIMÉTRICA): Seja V espaço vectorial sobre o corpo C com

(16)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 15

subespaços A-invariantes:

V =V1⊕...⊕Vk, (2.31) onde para cada Vi, i=1, ..., k , sendo ni=dim(Vi), existe uma baseSi =ej

1≤j≤ni tal que

na baseB = ∪

1≤i≤kSio endomorfismo A tem uma representação matricial:

[A]B =      S1 0 . . . 0 0 S2 0 .. . . . . ... 0 0 · · · Sk      , (2.32)

onde os Si são blocos da forma

λi1+1 2           0 1 1 0 1 1 . . . 0 0 . . . 11 0 1 1 0           − ı 2           0 −1 0 −1 0 1 . .. 1 −1 . .. −1 0 1 0 1 0           , (2.33)

onde ı é a unidade imaginária e λio valor próprio do endomorfismo associado ao bloco Si. Demonstração. Considerando o teorema de decomposição em subespaços indecom-poníveis que utilizamos para provar a existência da forma de Jordan podemos nos restringir ao caso de Vλi espaço indecomponível em suma direita de subespaços

in-variantes pelo endomorfismo A. Nesse caso utilizamos a base Bi = {b1, ..., bn} = n

v,(A−λi·id)v, ...,(A−λi·id)q−1v o

a base que encontramos pela forma de Jordan e onde o endomorfismo assume a forma

[A]Bi =         λi 1 0 · · · 0 0 λi 1 0 0 0 λi . . . ... .. . ... . . . 1 0 0 0 · · · λi         . (2.34)

Agora consideramos a matriz de permutação

V =             0 0 1 . .. 1 0 . .. . .. . .. . .. 0 1 . .. 1 0 0             , (2.35)

e definimos as matrizes de mudança de coordenadas T =1n−ıV e T−1= 1

(17)

CAPÍTULO 2. ENDOMORFISMOS E FORMAS CANÓNICAS 16

Definimos portanto a nova baseSi ={s1, ..., sn}obtida a partir destas transformações, i.e. sj = n

i=1 tijbi, (2.37)

onde os coeficientes tijrepresentam os coeficientes das matrizes de mudança de base T, i.e. T =tij.

Na nova base, considerando que a matriz J pode ser decomposta numa parte dia-gonal λi1n e numa parte sobrediagonal H, i.e. J =λi1n+H a representação matricial

do endomorfismo A na baseSi assume a seguinte forma:

[A]Si =T−1JT = =T−1(λi1n +H)T =T−11n+T−1HT = =λi1n+1 2(1n+ıV)H(1−ıV) = =λi1n+1 2(H+V HV) − ı 2(HV−V H), (2.38) que é a forma que queríamos demonstrar.

(18)

Capítulo 3

Formas bilineares e quadráticas

Neste capítulo apresentaremos as formas bilineares e quadráticas. Portanto na pri-meira secção trataremos os conceitos fundamentais das formas bilineares, quais a mu-dança de base no caso das formas bilineares, as formas bilineares simétricas e antisimé-tricas etc.. Na segunda secção a teoria será desenvolvida sobre o corpo dos números complexos e nesse contexto apresentaremos as formas sesquilineares com uma atenção especial sobre as formas sesquilineares hermitianas. Na terceira secção passaremos às formas quadráticas e as fórmulas de polarização para deduzir as formas bilineares ou sesquilineares correspondentes quando este for possível. A quarta secção é dedicada ao enunciado de alguns resultados fundamentais sobre os espaços unitários e euclidia-nos, enfim na última secção exibiremos uma aplicação do utilizo das formas bilineares na classificação das Álgebras de Lie simples sobre o corpo dos números complexos.

3.1

Formas bilineares

Definição 35. (FORMAS BILINEARES) Seja uma aplicação A(v, w) : V×V −→ K.

En-tão chamamos a aplicação A(v, w) de forma bilinear se é uma forma linear em cada variável, i.e. para cada v0, w0 ∈ V fixos as A(·, w0) e A(v0,·) são funcionais lineares A(·, w0), A(v0,·) ∈V∗ .

Pela definição de forma bilinear, dada uma baseE ={ei}1≤i≤ndo espaço vectorial Ve os vectores de coordenadas[v]E = (ξ1, .., ξn) e[w]E = (η1, .., ηn)na baseE

pode-mos notar que o valor da forma bilinear resulta univocamente definido uma vez que for definido o valor que essa forma assume sobre a base, i.e. A(ei, ej) = aij. De facto pela linearidade em cada variável da forma bilinear obtemos que

A(v, w) = A( n

i=1 ξiei, n

j=1 ηjej) = n

i, j=1 ξiηjA(ei, ej) = n

i, j=1 ξiηjaij. (3.1) Portanto escolhendo uma base sobre o espaço V podemos representar a forma bi-linear nesse espaço por meio de uma matriz A com coeficientes no corpo escalar, i.e.

[A(·,·)]E = A= (aij) ∈Mnn(K)onde

aij = A(ei, ej). (3.2) Se considerarmos F = {fi}1≤i≤n uma nova base do espaço V, e CF E =

 dij a matriz de mudança de base tal que

fj = n

i=1 dijei . (3.3) 17

(19)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 18

Na nova base a forma bilinear assume uma representação matricial dada por

[A(·,·)]F = (bij), (3.4) onde para cada i e cada j os coeficientes são determinados da os valores da forma sobre a nova base, i.e.

bij = A(fi, fj). (3.5) Se quisermos encontrar a relação com os coeficientes da forma na baseE , i.e.[A(·,·)]E = (aij)então podemos utilizar as propriedades da linearidade e escrever

A(fi, fj) = A( n

p=1 dpiep, n

q=1 dqjeq) = n

p, q=1 dipdqjapq, (3.6) que em outra forma exprime a relação de mudança de base

[A(·,·)]F =CF ET [A(v, w)]ECF E. (3.7) Definição 36. (FORMA BILINEAR SIMÉTRICA) Seja A(·,·) uma forma bilinear sobre o

corpoK. Essa diz-se de simétrica se A(v, w) = A(w, v)para cada v, wV.

Uma consequência da definição é que uma forma bilinear diz-se simétrica se e só se a representação da forma bilinear numa qualquer base é uma matriz A ∈Mnn(K)tal que

A= AT, (3.8)

o que implica que os coeficientes das matrizes são idênticos se permutarmos os indices, i.e. para cada i, j∈ {1...n}

aij =aji. (3.9)

Definição 37. (FORMA BILINEAR ANTISIMÉTRICA) Seja A(·,·)uma forma bilinear sobre o corpoK. Essa diz-se de antisimétrica se A(v, w) = −A(w, v)para cada v, w∈ V .

Nesse caso uma representação da forma bilinear numa qualquer base é uma matriz A ∈Mnn(K)tal que:

A = −AT, (3.10)

o que implica que os coeficientes das matrizes são idênticos se permutarmos os indices, i.e. para cada i, j∈ {1...n}

aij = −aji. (3.11)

3.2

Formas sesquilineares

Nessa secção iremos generalizar as formas bilineares definindo as formas sesquiline-ares por espaços sobre os números complexos. Portanto nesta secção consideremos o corpoK como o corpo dos números complexos C e a involução neste corpo que leva o escalar complexo λ no complexo conjugado λC.

Definição 38. Seja V um espaço vectorial sobreC e A(·,·)uma forma bilinear. Então a forma denomina-se forma sesquilinear se é linear numa variável e anti-linear na outra, i.e. se para cada v, wVe para cada λC as seguintes relações estão validas

A(λ(v1+v2), w) = λA(v1, w) +λA(v2, w) ANTI-LINEARIDADE, (3.12) A(v, λ(w1+w2)) =λA(v, w1) +λA(v, w2) LINEARIDADE. (3.13)

(20)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 19

Definição 39. (APLICAÇÃO ADJUNTA) A involução dada da conjugação complexa

de-fine uma aplicação entre o espaço das transformações sesquilineares e si mesmo que chama-se aplicação adjunta e é designada por o símbolo∗definida como

A(v, w) −→ A∗(v, w) = A(w, v). (3.14) Definição 40. (HERMITIANA) seja V um espaço vectorial sobre C e A(·,·) uma forma

sesquilinear, então A(·,·)diz-se Hermitiana se

A(·,·) = A∗(·,·), (3.15) i.e. que para cada v e w em V os valores da forma possuem a simetria hermitiana, i.e.

A(v, w) = A(w, v). (3.16) Com poucas variações podemos repetir o discurso desenvolvido pela mudança de base nas formas bilineares. De facto se considerarmos F = {fi}1≤i≤n uma nova base do espaço V, e CF E a matriz de mudança de base tal que

fj =

n

i=1

dijei , (3.17)

na nova base a forma sesquilinear assume uma representação matricial dada por

[A(·,·)]F =CF ET [A(v, w)]ECF E ≡C∗F E[A(v, w)]ECF E. (3.18)

3.3

Formas quadráticas

Dada A(v, w)uma forma bilinear ou sesquilinear resulta natural definir uma aplicação chamada de forma quadrática associada à forma obtida considerando o valor que a forma assume sobre o mesmo vector v, i.e. A(v, v).

Definição 41. (FORMA QUADRÁTICA) Seja A(·,·) uma forma bilinear ou sesquilinear hermitiana então definimos uma aplicação A entre V e o corpo escalar C chamada forma quadrática associada à forma definida para cada v em V

A(v) = A(v, v). (3.19) No caso em que A(v, w) seja uma forma bilinear naturalmente a aplicação definida não é linear, mas é homogénea do segundo grau, i.e.

A(λv) =λ2A(v). (3.20)

Ademais é verdade que no caso geral

A(v+w) = A(v) + A(w) +A(v, w) +A(w, v). (3.21) Analogamente no caso em que A(v, w)seja uma forma sesquilinear então

A(λv) =λλA(v), (3.22)

e também

A(v+w) = A(v) + A(w) +A(v, w) +A(w, v). (3.23) A analise das formas quadráticas associadas às formas bilineares ou sesquilineares pode nos permitir de encontrar algumas fórmulas para deduzir as formas originais. Essas fórmulas são chamadas fórmulas de polarização. De facto o estudo deA(λv+µw)

(21)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 20

1. A(v) forma quadrática associada a uma forma bilinear simétrica: Dada a fór-mula geral para cada λ, µC

A(λv+µw) = λ2A(v) +µ2A(w) +λµA(v, w) +λµA(w, v), (3.24)

no caso de uma forma bilinear simétrica, i.e. onde A(v, w) = A(w, v)obtemos:

A(λv+µw) = λ2A(v) +µ2A(w) +2λµA(v, w). (3.25)

Pondo λ =µ =1 obtemos a primeira fórmula de polarização:

A(v, w) = 1

2(A(v+w) − A(v) − A(w)). (3.26) Observação 42. Uma outra fórmula de polarização é obtida pondo λ = 1, µ = −1 e as vezes é chamada segunda fórmula de polarização.

Observação 43. Existe uma correspondência biunívoca entre formas bilineares simétricas e formas quadráticas associadas.

2. A(v) forma quadrática associada a uma forma sesquilinear: Dada a fórmula geral obtida a partir dà linearidade e antilinearidade na primeira e segunda variável respectivamente, i.e.

A(λv+µw) =λλA(v) +µµA(w) +λµA(v, w) +λµA(w, v), (3.27)

e pondo λ =µ =1, obtemos

A(v, w) +A(w, v) = A(v+w) − A(v) − A(w). (3.28) Pondo λ =ı, µ =1 e subtraindo o resultado à fórmula precedente obtemos:

A(v, w) = 1

2(A(v+w) −ıA(ıv+w) − (1−ı)A(v) − (1−ı)A(w)). (3.29) Observação 44. Existe uma correspondência biunívoca entre forma sesquilinear e formas quadráticas associadas. Em particular a forma quadrática determina completamente a forma sesquilinear.

3.4

Espaços unitários e euclidianos

Definição 45. (PRODUTO INTERNO) Seja V um espaço vectorial sobreC e seja A uma

forma sesquilinear hermitiana semidefinida positiva, i.e. A(v, v) ≥0 e que seja A(v, v) =

0 se e somente se v é o vector nulo. Então A(·,·)diz-se produto interno e indica-se com

h·,·i.

Observação 46. Seja h·,·i um produto interno então podemos definir uma norma cha-mada norma induzida pelo produto interno definida a partir dà forma quadrática do pro-duto interno, i.e.

kvk =

q

hv, vi. (3.30)

De facto a aplicação assim definida possui as propriedades das normas, i.e.:

HOMOGENEIDADE kλvk = |λ| kvk, (3.31)

TRIANGULARIDADE kv+wk ≤ kvk + kwk, (3.32) POSITIVIDADE kvk ≥ 0. (3.33)

(22)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 21

Definição 47. (ESPAÇO UNITÁRIO) Seja V espaço vectorial, seja h·,·i um produto

in-terno sobre V, então o espaço chama-se espaço unitário.

Um produto interno definido sobre um espaço vectorial não define só uma norma sobre o espaço, mas automaticamente define uma noção de ângulo e de distância tam-bém. De facto um produto interno define:

(NORMA) uma norma definida comokvk =phv, vi;

(ÂNGULO) um ângulo entre vectores v e w dado por cos(θ) = kvhvk·k,wwik;

(DISTÂNCIA) uma distância entre vectores d(v, w) = kvwk.

Observação 48. É preciso notar no caso em que o espaço vectorial V for definido sobre o corpo dos números reaisR, o espaço será chamado espaço euclidiano e a norma será chamada norma euclidiana.

3.4.1

Bases ortogonais e projectores

Definição 49. (BASES ORTOGONAIS E ORTONORMAIS) Seja h·,·i um produto interno sobre o espaço vectorial V com corpo escalares C, e seja E = {ei}1in uma base do espaço V. Então a baseE diz-se ortogonal respeito ao produto interno se para cada i 6= j

ei, ej

=0. (3.34)

Ademais a baseE diz-se ortonormal se ei, ej

=δij. (3.35)

Se a baseE é uma base ortonormal, então a representação matricial do produto in-terno no respeito da base é a matriz identidade.

Definição 50. (PROJECTORES) Sejah·,·ium produto interno no espaço vectorial V sobre o corpoC. Chamamos projector sobre um subespaço WV as transformações lineares pW de V em W onde se W é o espaço gerado das vectores linearmente independentes

{e1, .., em}então pW(v) = m

i=1 hv, eii hei, eii ei. (3.36)

Observação 51. Seja pW uma projecção sobre um subespaço WV, temos então as

propriedades seguintes:

pW(pW(v)) = pW(v) e hpW(v), ui = hv, pW(u)i. (3.37)

3.4.2

Ortogonalização de Gram-Schmidt

Teorema 52. (PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT) Seja h·,·i um produto interno sobre o espaço unitário V. Então cada conjunto linearmente independente de vectores F = {vi}1in pode ser transformado num conjunto de vectores ortogonais E = {ei}1≤i≤nao produto interno com as seguintes propriedades:

1. os espaços gerados porE e F são iguais;

(23)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 22

O teorema é obtido por indução definindo o primeiro vector da base ortonormal E como o primeiro vector da baseF , i.e.

e1=v1, (3.38)

e os seguintes definidos para cada k =2, ..., n como ek =vk− k−1

i=1 hei, vki hei, eii ei. (3.39)

Utilizando a indução é imediato verificar que os vectores deE são ortogonais e que o espaço gerado estes vectores é o mesmo do espaço gerado os vectores de F . Ade-mais dividendo os vectores da baseE por oportunos escalares é fácil demonstrar que é sempre possível encontrar uma base que não seja somente ortogonal, mas também ortonormal.

Enfim se o conjuntoF = {vi}1≤i≤n for uma base pelo espaço V, então analisando a matriz CE F = (cij)pela mudança de base entre a baseF e a nova base E ={ei}1≤i≤n podemos facilmente notar que essa é uma matriz triangular superior, i.e.

CE F =         1 c12 c13 . . . c1n 0 1 c23 c2n 0 0 1 . . . ... .. . . . . cnn−1 0 0 0 . . . 1         . (3.40)

Para cada forma sesquilinear hermitiana A(·,·) é possível encontrar uma baseE ob-tida com o precedente processo onde a matriz que representa a forma toma a seguinte forma diagonal [A(·,·)]E =        λ1 0 0 . . . 0 0 λ2 0 0 0 0 λ3 0 .. . . . . ... 0 0 0 . . . λn        =CE FT ACE F . (3.41)

3.5

Uma aplicação

As formas quadráticas são amplamente utilizadas em diferentes áreas da Matemática, e.g. Geometria, Mecânica Racional, etc.. Nesta secção fazemos uma revisão breve da utilização das formas quadráticas na classificação das Álgebras de Lie simples sobre os números complexos.

Uma Álgebra de Lie g, sobre o corpoC, é um espaço vectorial com uma operação binária[·,·]chamada de parenteses de Lie que é bilinear, e para cada x, y , z ∈ gpossui as seguintes propriedades:

[x, x] =0, (3.42)

(IDENTIDADE DEJACOBI) [x,[y, z] + [y,[z, x]] + [z,[x, y]] =0. (3.43) Uma álgebra g diz-se simples se não possui ideais próprios.

(24)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 23

A representação adjunta de uma Álgebra de Lie g é um homomorfismo de g no conjunto dos próprios endomorfismos gl(g)que para cada a em g dada por

ada(x) = [a, x], ∀x∈ g. (3.44) A forma bilinear simétrica definida por

ha, bi =Tr(adaadb) ∀a, b ∈g, (3.45) chama-se forma de Killing e numa Álgebra de Lie simples não é degenerada.

Cada Álgebra de Lie simples g tem uma sub-álgebra de Cartan h e admite a decom-posição, chamada de decomposição de Cartan,

g =hM

α∈Φ

Ceα, (3.46)

ondeCeα são h-módulos unidimensionais tais que

[h, eα] =α(h)eα α(h) ∈C, (3.47)

para cada h ∈ h e portanto α pertence ao espaço dual h∗ = Hom(h,C). Cada repre-sentação unidimensional α de h é chamada raiz de g. O conjunto das raízes de g é designado porΦ. Assim,

dim(g) =dim(h) +|Φ|. (3.48) O sistema de raízesΦ tem numerosas propriedades entre as quais mencionamos as seguintes: se α ∈ Φ então −α ∈ Φ, o conjunto Φ gera o espaço h∗, mas Φ não é

line-armente independente. É possível escolher um subconjunto de Φ que é linearmente independente, chamado de sub-conjunto de raízes simplesΠ e tal que cada elemento de Φ se pode representar como uma combinação linear destas raízes simples com coefici-entes inteiros com mesmo sinal. Portanto quandoΠ for escolhido tem-se Φ =Φ+∪Φ−

ondeΦ− = −Φ+eΦ+eΦ−são conjuntos das raízes positivas e negativas respectiva-mente.

Definimos h∗Rcomo as combinações lineares reais das raízes simples, i.e.

h∗R =spanR(Π). (3.49)

Ainda mais tem-se

dimR(h∗R) = dimC(h) = l, (3.50) onde l é a ordem da álgebra g. Consequentemente, utilizando a relação (3.48), a di-mensão da álgebra g é dada por dim(g) =l+|Φ|.

Mostra-se que a forma de Killing restringida a h∗R torna este espaço num espaço Euclidiano.

SejaΠ={α1, ..., αl}o conjunto das raízes simples. A matriz de Cartan define-se por Aij =2 αi, αj hαi, αii ∈Z, (3.51)

onde Aii =2 e Aij 60 para i 6= j. Mais ainda, definem-se os coeficientes nij = AijAji =2 αi, αj hαi, αii ·2 αj, αi αj, αj . (3.52)

(25)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 24

Usando considerações geométricas conclui-se que os valores admissíveis de nij são nij =0, 1, 2, 3. É importante observar que quando nij =2 então existem duas possibili-dades Aij = −1 e Aji = −2, (3.53) ou, Aij = −2 e Aji = −1. (3.54) Da definição (3.51) tem-se Aij Aji = αj, αj hαi, αii . (3.55)

Assim, no primeiro caso (3.53) concluí-se que αi é a raiz longa e αj é a raiz curta, i.e.

hαi, αii >

αj, αj , e no segundo caso (3.54) tem-sehαi, αii <

αj, αj . De forma análoga estuda-se o caso nij =3.

Em h∗Rdefine-se uma forma quadrática Q(x1, x2, ..., xl) = 2 l

i=1 xi2−

i6=j pnijxixj. (3.56) Evidentemente, Q(x1, x2, . . . , xl) =2 * l

i=1 xi αi p hαi, αii , l

j=1 xj αj q αj, αj + =2hy, yi, (3.57) onde y = l

i=1 xip αi hαi, αii

. Assim demonstramos que Q(x1, x2, . . . , xl) é definida po-sitiva. A representação gráfica destas formas quadráticas, e consequentemente dos sistemas de raízes das Álgebras de Lie simples, é feita pelos diagramas de Dynkin conexos.

Antes de apresentar a classificação das Álgebras de Lie simples em termos de dia-gramas de Dynkin, como um exemplo consideramos as Álgebras de Lie de ordem dois, i.e. l = 2. Neste caso existem três sistemas de raízes não equivalentes que correspon-dem às álgebras A2, B2 e G2. O sistema de raízes da álgebra A2 contem seis raízes e é explicitado na figura seguinte

(26)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 25

A forma quadrática (3.56) neste caso é dada por

Q(x1, x2) =2(x12+x22) −2x1x2. (3.58) O respectivo diagrama de Dynkin tem dois vértices unidos por uma aresta

O sistema de raízes da álgebra B2constituído por oito raízes, quatro longas e quatro raízes curtas, e é dado na figura seguinte

Neste caso, a forma quadrática correspondente é Q(x1, x2) =2(x21+x22) −2

2x1x2. (3.59) O diagrama de Dynkin correspondente é constituído por dois vértices unidos por dois arcos cujo ponto inicial é a raiz longa e o ponto terminal é a raiz curta

Doze raízes constituem o sistema de raízes da álgebra G2, seis raízes longas e seis curtas, como representado na figura

(27)

CAPÍTULO 3. FORMAS BILINEARES E QUADRÁTICAS 26

A forma quadrática correspondente é dada por Q(x1, x2) =2(x21+x22) −2

3x1x2. (3.60) Assim, o diagrama de Dynkin da álgebra G2é

Baseando-se nos argumentos relacionados com a forma quadrática (3.56) mostra-se que a classificação das Álgebras de Lie simples é dada pelos seguintes diagramas de Dynkin conexos

(28)

Apêndice A

Notações e Símbolos

V as letras maiúsculas em negrito representam espaços vectoriais. v as letras minúsculas e os números em negrito representam vectores.

λ as letras gregas representam escalares.

ı unidade imaginária.

span(v1, .., vk) sub espaço gerado das combinações lineares dos vectores v1, .., vk. E as letras maiúscula representam bases do espaço vectorial.

Vespaço dual do espaço linear V.

[·]E representação do vector na baseE .

L as letras maiúsculas representam transformações lineares.

E[L]F representação da transformação linear com baseE no domínio e F no co-domínio.

CE F matriz de mudança de coordenadas entre abaseF e a base E . Im(L) imagem da transformação linear L.

ker(L) núcleo da transformação linear L. idV aplicação idêntica de V em V.

1n matriz idêntica de dimensão n por n.

Mmn (K) espaço das matriz de m linhas e n colunas no corpoK. Hom(V, W) espaço das transformações lineares entre V e W. End(V) espaço dos endomorfismos de V.

T1,1 espaço das formas sesquilinear. A(v, w) forma bilinear.

h·,·i produto interno.

A(v) forma quadrática associada à forma bilinear A(·,·). 27

(29)

APÊNDICE A. NOTAÇÕES E SÍMBOLOS 28

pW(·) projecção sobre o subespaço W.

Referências

Documentos relacionados

As resistências desses grupos se encontram não apenas na performatividade de seus corpos ao ocuparem as ruas e se manifestarem, mas na articulação micropolítica com outros

Also due to the political relevance of the problem of repressing misguided employment relationships, during the centre-left Prodi Government (2006-2008) and the

ambiente e na repressão de atitudes conturbadas e turbulentas (normalmente classificadas pela escola de indisciplina). No entanto, as atitudes impositivas da escola

O objetivo principal desta ação será tornar o material pedagógico utilizado e as dinâmicas mais próximas às deficiências de aprendizado apresentadas pelos alunos,

Além desta verificação, via SIAPE, o servidor assina Termo de Responsabilidade e Compromisso (anexo do formulário de requerimento) constando que não é custeado

Nesse contexto, o presente trabalho busca investigar a distorção idade-série na escola em questão, bem como compreender que ações são mobilizadas pela equipe gestora e pelos

Pensar a formação continuada como uma das possibilidades de desenvolvimento profissional e pessoal é refletir também sobre a diversidade encontrada diante

ACP - Análise de Componentes Principais AVC - Acidente Vascular Cerebral CEP - Comitê de Ética e Pesquisa DCNT - Doenças Crônicas Não Transmissíveis EER - Necessidade