• Nenhum resultado encontrado

Vectores temporais, espaciais e nulos

No documento RELATIVIDADE RESTRITA E ESPAÇO-TEMPO PLANO (páginas 37-45)

A express˜ao que d´a o produto interno de um 4-vector por si pr´oprio,

η(X, X) = X · X = −(X0)2+ (X1)2+ (X2)2+ (X3)2, (1.42)

fornece o an´alogo do quadrado do comprimento do um vector de um espa¸co euclidiano 3-dimensional. Mas ao contr´ario do que acontece em <3, η(X, X) pode ser positivo,

negativo ou nulo, em particular η(X, X) = 0 n˜ao implica que as componentes de X s˜ao nulas. A express˜ao (1.42) permite-nos classificar os vectores de T.(M) em trˆes tipos.

Fixamos o ponto O do espa¸co-tempo de Minkowski M4

0 como sendo a sua origem.

Ent˜ao a cada ponto P corresponde unicamente um vector U = P − O, e a classifi- ca¸c˜ao dos vectores de T.(M) fornece-nos uma classifica¸c˜ao dos acontecimentos de M04

relativamente `a origem.

Sejam U = P − O e X = Q − O dois 4-vectores aplicados em O, sendo O a origem de um sistema de coordenadas inerciais. Se P se situa sobre o eixo do tempo (x0)

desse sistema, ent˜ao o vector U = P − O tem componentes (U0, 0, 0, 0) e, por isso, da

Eq.(1.42) conclu´ımos que η(U, U) < 0. Chamamos a todos os vectores para os quais η(U, U) < 0, vectores temporais (ou tipo tempo).

Exerc´ıcio 4 Dado um vector temporal mostre que ´e sempre poss´ıvel encontrar um sistema de coordenadas inerciais no qual ele s´o tem componente temporal.

u

k X

O

Figura 1.13: Cone de luz e vectores U (temporal), k (tipo luz) e X (espacial), todos com origem no acontecimento O.

Igualmente, os 4-vectores para os quais η(X, X) > 0, ser˜ao designados espaciais (ou do tipo espa¸co). Para estes vectores tamb´em existe um sistema de coordenadas onde eles s˜ao representados unicamente pelas suas componentes espaciais. ´E claro, os acon- tecimentos (O, P ) formam um par temporal e os acontecimentos (O, Q) formam um par espacial. Neste ´ultimo caso, ´e poss´ıvel encontrar um sistema de coordenadas onde tO= tQ e diz-se ent˜ao que os acontecimentos O e Q s˜ao s´ıncronos. Na realidade, dado

um acontecimento O pertencente a uma linha do Universo de um observador, temos uma classe de equivalˆencia de acontecimentos que s˜ao s´ıncronos com O. Essa classe de equivalˆencia forma um plano 3-dimensional que passa por O.

Os 4-vectores que verificam a rela¸c˜ao η(K, K) = 0 s˜ao chamados nulos (ou do tipo luz). O conjunto de todos os vectores nulos aplicados em O formam o cone de luz com v´ertice em O.

Recorde a discuss˜ao anterior sobre a estrutura causal dos acontecimentos no espa¸co- tempo de Minkowski e relacione com a classifica¸c˜ao dos 4-vectores que acab´amos de apresentar.

Se dois acontecimentos A e B formam um par tipo-tempo ent˜ao o vector X = B − A ´e um vector temporal: η(X, X) < 0. E existe sempre um observador que os vˆe ocorrer no mesmo ponto do espa¸co. Mas se a separa¸c˜ao espacial entre os acontecimentos aumenta continuamente, ent˜ao X come¸ca por se tornar nulo e depois do tipo espa¸co e, neste caso, o observador n˜ao poder´a estar presente em ambos acontecimentos sucessivamente.

Pontos cujo intervalo do Universo ´e do tipo tempo est˜ao em comunica¸c˜ao causal, pois ´e sempre poss´ıvel enviar um sinal de um para outro; por´em o mesmo j´a n˜ao acontece para um par de acontecimentos do tipo espa¸co.

De acordo com a teoria da relatividade se A e B constituem um par do tipo espa¸co, isto ´e, se η(X, X) > 0, ent˜ao n˜ao h´a nada que possa acontecer em A que tenha uma influˆencia causal directa sobre o que acontece em B.

Um sub-espa¸co S de T.(M) diz-se:

• tipo-espa¸co se todos os seus vectores s˜ao do tipo espa¸co; • tipo-tempo se cont´em um vector do tipo tempo.

O sub-espa¸co S de T.(M) diz-se nulo se cont´em um vector tipo luz K tal que η(K, U) =

0, para todo o U ∈ S. Os vectores U e K dizem-se ortogonais. Portanto um sub- espa¸co nulo n˜ao pode ser do tipo espa¸co. Mostraremos, mais adiante, que um vector do tipo tempo n˜ao pode ser ortogonal a um vector do tipo luz, logo um sub-espa¸co nulo tamb´em n˜ao pode ser do tipo tempo. Assim todo o sub-espa¸co S de T.(M) s´o

pode ser uma das trˆes coisas seguintes: tipo-espa¸co, nulo ou tipo-tempo.

Seja U um vector arbitr´ario tipo-tempo. Ent˜ao existe uma base ortonormada de T.(M)

na qual Ua= 0 se a 6= 0. Sejam Ua = (U0, 0, 0, 0) e X um vector qualquer ortogonal a

U : η(X, U) = 0. Ent˜ao se as componentes de X s˜ao Xa = (X0, X1, X2, X3) temos

X · U = −X0U0 = 0, logo X0 = 0,

pois U0 6= 0, e portanto

η(X, X) = (X1)2+ (X2)2+ (X3)2 > 0,

logo X ´e do tipo espa¸co. Confirma-se que um vector tipo-tempo n˜ao pode ser ortogonal a um vector tipo luz ou a um outro vector tipo-tempo.

Exerc´ıcio 5 Mostre que estando qualquer 4-velocidade, Ua = dxa/dτ , normalizada de

acordo com

ηabUaUb = UaUa= −1 (vector temporal)

verifica-se que o 4-vector ac= dUc/dτ , chamado 4-vector acelera¸c˜ao, ´e ortogonal a Ua,

de acordo com o m´etrica de Minkowski, ou seja, U · a = Uca

c= 0

em todos os referenciais inerciais. Daqui se deduz que ac ´e um 4-vector espacial, como

Exerc´ıcio 6 Mostre que dois vectores nulos s˜ao ortogonais se e s´o se s˜ao proporcionais, isto ´e, se s˜ao paralelos.

Seja I o conjunto dos vectores do tipo-tempo de T.(M). Vamos definir uma rela¸c˜ao de

equivalˆencia ↑ sobre I escrevendo para X e Y ∈ I

X ≡ Y (mod ↑) significando η(X, Y) < 0

Formando o conjunto quociente I/ ↑ vemos que cont´em unicamente dois elementos. Seleccionemos um destes elementos e designemo-lo por sentido positivo do tempo. O espa¸co vectorial de Minkowski T.(M) fica assim orientado no tempo. Ao elemento

seleccionado chamamos o futuro e ao outro o passado. Como j´a vimos o conjunto de todos os vectores nulos forma o cone de luz ou cone nulo que ´e, portanto, um sub-espa¸co vectorial nulo de T.(M). Os vectores tipo-tempo dirigidos para o futuro

encontram-se no interior de uma das folhas do cone, chamada a folha do futuro, e os vectores tipo-tempo orientados para o passado encontram-se no interior da outra folha, a folha do passado.

Conven¸c˜ao de soma

Para lidar com quantidades que dependem das coordenadas, e que s˜ao mais complicadas que os vectores e matrizes que encontr´amos at´e agora, ´e conveniente introduzir uma nota¸c˜ao mais compacta que passamos a explicar.

Quando escrevemos por extenso a express˜ao em componentes que representa o valor de um covector α sobre o vector X,

α(X) ≡< α, X >=

3 X

a=0

αcXc, (1.43)

ou quando representamos o produto de uma matriz de Lorentz pelas componentes de um vector para obter as novas componentes desse vector,

Xa0 = 3 X b=0 La0 bXb, (a = 0, . . . , 3), (1.44)

existe sempre um ´ındice de soma que se repete, uma vez em baixo (´ındice covariante) e outra vez em cima (´ındice contravariante), e que se designa por ´ındice mudo. Na ex- press˜ao (1.44) a ´e um ´ındice livre que toma valores entre 0 e 3, mas b ´e um ´ındice mudo, e como tal, aparece repetido. Sempre que exista um ou mais ´ındices de soma omitimos os respectivos somat´orios e escrevemos as express˜oes anteriores respectivamente como

α(X) = αcXc, Xa

0

= La0

Por outras palavras, quando um ´ındice aparece repetido num produto de factores, uma vez covariante e outra contravariante, convenciona-se que ´e um ´ındice de soma, e n˜ao h´a necessidade de incluir o somat´orio para se entender que a soma deve ser efectuada. Esta regra ´e conhecida por conven¸c˜ao de soma de Einstein.

At´e agora foram j´a utilizadas trˆes nota¸c˜oes diferentes: uma nota¸c˜ao geom´etrica in- tr´ınseca, baseada na defini¸c˜ao dos objectos geom´etricos envolvidos, uma nota¸c˜ao ma- tricial em termos das respectivas componentes, mas sem ´ındices, e uma nota¸c˜ao tenso- rial onde as componentes s˜ao caracterizadas pelos seus ´ındices e se usa a conven¸c˜ao de soma. Comparemos as trˆes nota¸c˜oes observando trˆes express˜oes t´ıpicas: um covector aplicado sobre um vector, a m´etrica aplicada a dois vectores, e uma fun¸c˜ao trilinear de trˆes vectores e para a qual n˜ao existe nota¸c˜ao matricial

Nota¸c˜ao

Geom´etrica Matricial Componentes

α(X) αX αcXc

g(X, Y ) XTGY η

abXaYb

Q(X, Y, Z)QabcXaYbZc

Quando se pode utilizar, a nota¸c˜ao matricial ´e perfeitamente equivalente `a nota¸c˜ao em componentes e podemos passar de uma para outra sem dificuldade. A ordem das componentes ´e arbitr´aria, o mesmo n˜ao sendo verdade no que se refere `as matrizes. Observando quais s˜ao os ´ındices mudos que figuravam na nota¸c˜ao em componentes podemos inferir a ordem das matrizes tendo em aten¸c˜ao as regras de multiplica¸c˜ao de matrizes. Assim, n˜ao tendo que nos preocupar com a ordem dos termos na nota¸c˜ao em componentes, os quais s˜ao simplesmente n´umeros, as seguintes express˜oes s˜ao todas equivalentes

ηabXaYb = XaηabYb = XaYbηab.

Consideremos agora a express˜ao que define a 1-forma associada ao vector X ˜

Xb = Xaηab;

´e indiferente escrever Xaη

ab ou Xcηcb, isto ´e, podemos substituir o ´ındice mudo por

qualquer letra. Mas j´a Xaη

ad representa uma outra componente que n˜ao pode ser

igualada a ˜Xa: os ´ındices livres em todos os termos de ambos os membros de um

equa¸c˜ao tˆem de concordar. O nosso ponto de vista ´e que s´o devemos escrever express˜oes em componentes que correspondam a alguma express˜ao geom´etrica. Por esta raz˜ao, uma express˜ao como αa = Xa, embora possa ser entendida sem ambiguidade (pois

significa que α0 = X0, α1 = X1, etc.) deve ser evitada pois seria associada `a express˜ao

sem significado geom´etrica α = X, que identifica dois objectos distintos: um covector a um vector. Portanto, os ´ındices livres devem concordar nas suas posi¸c˜oes.

Finalmente, a conven¸c˜ao de soma tamb´em ´e usada em certos casos em que os termos n˜ao s˜ao s´o componentes como na escrita de um vector numa dada base ea

X = Xae a.

Vimos que em relatividade ´e t˜ao habitual usar η para passar de um vector X ∈ T.(M)

para um covector ˜X = η(X) ∈ T∗

. M, e a fun¸c˜ao inversa η−1 para voltar a X, que nos

habituamos a considerar X e η(X) como duas representa¸c˜oes do mesmo objecto. ´E isso que transparece na escrita em componentes

η(X)a:= ηabXb = Xa

onde se deixou cair o til que distinguia o covector do vector. A posi¸c˜ao do ´ındice evita qualquer confus˜ao com as componentes contra-variantes do vector X.

Inversamente, uma vez introduzido o covector a a express˜ao aa dever´a representar as

componentes do vector contravariante correspondente η−1(a), isto ´e,

aa:= (η−1)aba b.

η−1 e η podem interpretar-se como operadores de subida e descida de ´ındices, respec-

tivamente. Subir e descer ´ındices s˜ao opera¸c˜oes inversas: se subimos e descemos o mesmo ´ındice, voltamos `a situa¸c˜ao original. Podemos fazer subir ou descer ´ındices em qualquer objecto com ´ındices como, por exemplo,

Qabc = (η−1)adQdbc.

Quando discutimos a estrutura do grupo de Lorentz vimos que a matriz da m´etrica η coincide com a sua inversa, pois η2 = I. Assim as componentes do objecto geom´etrico

η−1 s˜ao tamb´em representadas pela matriz η. Contudo, η e η−1 s˜ao geometricamente

distintos pois:

η : T.M → T.∗M, η−1 : T.∗(M) → T.M

Por isso, quando representamos as componentes de η−1, escrevemos estas componentes

na forma ηab, com os ´ındices em cima, enquanto que η

ab indica que estamos a considerar

as componentes de η. Isto tem a vantagem de estar de acordo com a nossa conven¸c˜ao para subir e descer ´ındices, pois (η−1)de ´e simplesmente

ηde = (η−1)da(η−1)ebηab.

Efectivamente, como η ´e uma matriz sim´etrica, vem ηab = ηba, η ab = ηba. e, portanto, ηab = (η−1)ad(η−1)beηde = (η−1)adη de(η−1)eb = (η−1)ab.

Note que n˜ao us´amos η2 = I, pelo que tamb´em em relatividade geral ´e v´alido escrever:

gab = (g−1)ab.

´

E habitual representar as componentes da matriz identidade I pelo s´ımbolo δa

b, conhe-

cido por delta de Kronecker. Assim, δa

b =

(

1 se a = b 0 se a 6= b

Com esta representa¸c˜ao da matriz unidade I a equa¸c˜ao IX = X escreve-se em com- ponentes δa

bXb = Xa, mais geralmente temos

δabQacd = Qbcd.

Note ainda que δa

a significa

P

aδaa= 4, ´e o tra¸co da matriz unidade.

Proposi¸c˜ao: Uma matriz que representa uma transforma¸c˜ao de Lorentz L satisfaz

³

L−1´a

b = L a

b . (1.45)

I-Prova: Atendendo `as conven¸c˜oes de subida e descida de ´ındices L a b = ηebηdaLed = ηadLT e d ηeb = (ηLTη)a b = ³ L−1´a b.

II-Prova: Da equa¸c˜ao de defini¸c˜ao das matrizes de Lorentz, LTηL = η, vem

LT c

a ηcdLdb = ηab

Multiplicando `a direita por ηbe e somando sobre b

LcaηcdLdbηbe = ηabηbe = δae

Multiplicando por (L−1)a

f e somando sobre a obtemos

(L−1)afLca(ηcdLdbηbe) = (L−1)afδae

δ f

e Lce = (L−1)ef

L e

f = (L−1)ef

Para terminar vamos aplicar este resultado `a lei de transforma¸c˜ao dos covectores, α0 =

αL−1, pondo em manifesto o facto j´a discutido que as TL estabelecem uma rela¸c˜ao

entre sistemas de coordenadas diferentes, vem ent˜ao

enquanto que para vectores a lei de transforma¸c˜ao escreve-se, como j´a vimos, Xa0 = La0bXb.

Com estes resultados fica estabelecida a consistˆencia das nossas conven¸c˜oes.

Exerc´ıcio 7 Sendo dados os vectores coluna

X =      1 0 0 1     , Y =      0 1 1 1     

efectue os seguintes c´alculos:

i) XaXa; ii) YaYa; iii) XaYa; iv) XaYb.

Exerc´ıcio 8 Prove as seguintes rela¸c˜oes: i) Se XaY

a= ZaYa para todo o Y ⇒ X = Z.

ii) Se Ta

bXb = 0 para todo o X, ent˜ao Tab = 0.

iii) Se Ta

bXb = Xa para todo o X, ent˜ao Tab− δab = 0.

Exerc´ıcio 9 Uma matriz T = [Ta

b] ´e tal que para todo o X

Ta

bZb = Xa, onde Za= TabXb.

Tendo em aten¸c˜ao as propriedades das matrizes de Lorentz, mostre que T ´e um membro do grupo de Lorentz.

Exerc´ıcio 10 i) Mostre que se TabXaYb = 0 para todos os X e Y , ent˜ao Tab = 0.

ii) Determine uma matriz T n˜ao nula que satisfa¸ca TabXaXb = 0, para todo o X.

1.5

Tensores

J´a vimos que os covectores se definem como aplica¸c˜oes lineares dos vectores sobre a recta real e a m´etrica g(X, Y ) como uma aplica¸c˜ao bilinear (i.e., linear em X e Y ) em <1. Podemos generalizar esta ideia a aplica¸c˜oes multilineares Q(X, Y, . . . , Z) =

Qab...cXaYb. . . Zc de n vectores em <1, linear em cada argumento. Podemos mesmo ir

mais longe e introduzir aplica¸c˜oes multilineares de s vectores e r covectores da forma T (X, Y, . . . , Z, α, β, . . . , ω) = Tab...cde...fXaYb. . . Zcαdβe. . . ωf

em <1. Esta aplica¸c˜ao chama-se um tensor do tipo (ou valˆencia) (r, s) ou de ordem

r + s. Note que r ´e o n´umero de ´ındices superiores e s o n´umero de ´ındices inferiores das componentes do tensor T , as quais especificam o tensor completamente. Exemplos de tensores j´a encontrados:

• Um vector ´e um tensor X de valˆencia (1, 0) e o seu valor sobre um covector α ´e definido por < α, X >= Xcα

c(= α(X));

• A matriz unidade δa

b ´e um tensor do tipo (1, 1), e o seu valor sobre um covector

α e um vector X ´e δb

aαbXa(= α(X));

• A m´etrica inversa g−1 ´e um tensor de valˆencia (2, 0)

g−1(α, β) = gabαaβb.

O conjunto de todos os tensores do tipo (r, s) escreve-se T(r,s)

p M. Tal como a m´etrica,

que ´e um tensor do tipo (0, 2) pode ser considerada uma aplica¸c˜ao linear de TpM →

T∗

pM, escrevendo g(X, Y ) como g(X)(Y ), tamb´em um tensor arbitr´ario pode ser con-

siderado de muitas maneiras. Efectivamente, qualquer fun¸c˜ao multilinear Q :³Tp∗M´r× (TpM)s→ T(r

0,s0)

p M,

associando r covectores e s vectores a um tensor de valˆencia (r0, s0) pode ser vista como

um tensor de valˆencia (r + r0, s + s0).

No documento RELATIVIDADE RESTRITA E ESPAÇO-TEMPO PLANO (páginas 37-45)

Documentos relacionados