• Nenhum resultado encontrado

UNIVERSIDADE FEDERAL DO AMAZONAS - UFAM INSTITUTO DE CIÊNCIAS EXATAS - ICE PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA

N/A
N/A
Protected

Academic year: 2021

Share "UNIVERSIDADE FEDERAL DO AMAZONAS - UFAM INSTITUTO DE CIÊNCIAS EXATAS - ICE PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA"

Copied!
54
0
0

Texto

(1)UNIVERSIDADE FEDERAL DO AMAZONAS - UFAM INSTITUTO DE CIÊNCIAS EXATAS - ICE PROGRAMA DE PÓS-GRADUAÇÃO EM MATEMÁTICA. SUPERFÍCIES COM CURVATURA GAUSSIANA CONSTANTE E VETOR CURVATURA MÉDIA NORMALIZADO PARALELO. JOSÉ ROBERTO GUIMARÃES DE SOUZA. Rio Branco - 2014.

(2) SUPERFÍCIES COM CURVATURA GAUSSIANA CONSTANTE E VETOR CURVATURA MÉDIA NORMALIZADO PARALELO. JOSÉ ROBERTO GUIMARÃES DE SOUZA. Dissertação apresentada ao Programa de Pós-Graduação em Matemática - Mestrado Interinstitucional CAPES/FUNTAC/UFAM/UFAC, como requisito parcial para obtenção do título de Mestre em Matemática, na área de concentração em Geometria Diferencial.. Programa de Pós-Graduação em Matemática - PPGM Orientador: Prof. Dr. José Kenedy Martins. Rio Branco, Junho de 2014.

(3)

(4)

(5) À minha família e, especialmente, ao meu irmão Pepes(in memorian) dedico.. ii.

(6) Peça que Deus abençoe seus planos, e eles darão certo.. . iii. Provérbios 13:03.

(7) Agradecimentos Ao nal deste trabalho, agradeço: • Primeiro a Deus por me dar força e discernimento nos momentos difíceis. • Aos meus pais, Pedro Francisco e Marli de Melo, pelo amor incondicional e por me ensinarem o valor do trabalho. • Às minhas irmãs, Ângela Maria e Rosângela Maria, pelo companheirismo e apoio a ao meu irmão José Pepes (in memoriam), por me ensinar a como se comportar nas adversidades. • À minha esposa, Eliete Margarida, pela compreensão, ajuda e carinho. • Aos meus lhos, Ricardo Augusto e Lilian Campos, por me darem alegrias. • Aos meus amigos de sempre, Edcarlos Miranda e Altemir Braga, pela presteza e incentivos. • Aos professores colaboradores do MINTER, Flávia Morgana, Inês Padilha, Sérgio Brazil e em especial aos professores Renato Tribuzy, José Kennedy Martins e José Ivan por acreditarem neste projeto e nos darem esta oportunidade. • Aos meus colegas de mestrado Cléber Pereira, Márcio Costa, José Genivaldo e Josean da Silva pela companhia nos momentos bons e ruins. • Finalmente a todos que de forma direta ou indireta contribuiram para a concretização deste trabalho. iv.

(8) Resumo O objetivo deste trabalho é mostrarmos que se M é uma superfície analítica, orientada e fechada do espaço euclideano E com curvatura Gaussiana constante e vetor curvatura médio normalizado paralelo, então ou M está em uma hiperesfera de E como uma superfície mínima ou M é uma superfície produto de dois círculos planos. Palavras-chave: Superfície analítica, curvatura Gaussiana, curvatura média, superfície mínima m. m. v.

(9) Abstract The objective of this work is to show that if M is an analytic, oriented, closed surface of the Eucliden space E with constant Gaussian curvature and parallel normalized mean curvature vector , then either M is a hypersphere of E as a minimal surface or M is product of two at circles. Keywords:Analytical surface, Gaussian curvature, mean curvature, minimal surfaces . m. m. vi.

(10) Sumário Introdução. 2. 1 Generalidades. 3. 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8. Variedades Diferenciáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . Métricas Riemannianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conexões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Geodésicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Curvaturas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fibrados Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Imersões Isométricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . As Equações Fundamentais de uma Imersão Isométrica . . . . . . . . . . .. 2 Variedades Analíticas e Superfícies com Seção Mínima Paralela. 3 6 8 10 12 16 17 20 22. 2.1 Variedades Analíticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.2 Superfícies com Seção Mínima Paralela . . . . . . . . . . . . . . . . . . . . 29 2.3 O Teorema de Erbach e o Teorema de Hopf . . . . . . . . . . . . . . . . . 30. 3 Superfícies com curvatura Gaussiana constante e vetor curvatura média normalizado paralelo. 32. Referências Bibliográcas. 43. 3.1 Demonstração dos Lemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.2 Demonstração do Teorema auxiliar: . . . . . . . . . . . . . . . . . . . . . 39 3.3 Demonstração do Teorema Principal . . . . . . . . . . . . . . . . . . . . . 40. vii.

(11) Introdução Para obtermos o resultado pretendido, primeiro estudaremos as superfícies com vetor curvatura média normalizado paralelo que são superfícies em que o vetor curvatura média é não nulo e o vetor unitário dado por esta direção é paralelo no brado normal. Em verdade, vamos mostrar o seguinte teorema auxiliar: "Seja M uma superfície analítica em uma variedade Riemanniana R (c), completa, simplesmente conexa e de curvatura seccional constante igual a c. Se M tem vetor curvatura média normalizado paralelo, então ou M está em uma hiperesfera de R (c) como uma superfície mínima ou M está em uma subvariedade totalmente geodésica de R (c)". Com referência ao teorema auxiliar, em [3] e [12] Chen e Yau provaram que uma superfície M em um espaço m-euclidiano E tem vetor curvatura médio paralelo se, e somente se, M é uma superfície mínima em E , ou uma superfície mínima de uma hiperesfera de E ou uma superfície em E o qual está em E ou uma hiperesfera de E com curvatura média constante. Em [9] ,Leung diz que uma superfície M tem o vetor curvatura média H normalizado paralelo se H não se anula e se o campo é paralelo e prova que existem muitas superfícies analíticas em uma variedade Riemanniana 4-dimensional cujo vetor curvatura médio normalizado seja paralelo. Ainda com relação ao teorema auxiliar, em [8] Eschemburg e Tribuzy mostram que se a variedade é homeomorfa à 2 − esf era o resultado é obtido sem a hipótese de analiticidade. Neste trabalho, é acrescentado ao teorema auxiliar a hipótese que M tem curvatura Gaussiana constante. Mostraremos então o seguinte m. m. m. m. m. m. 4. 3. 4. H |H|. Teorema 0.1. Seja M E m.. Se. M. uma superfície analítica, orientada e fechada do espaço euclidiano. tem curvatura Gaussiana constante e tem vetor curvatura média normalizado. 1.

(12) 2. SUMÁRIO. paralelo, então ou. M. é uma superfície mínima de uma hiperesfera de. superfície produto de dois círculos planos.. Em. ou. M. é uma.

(13) Capítulo 1. Generalidades Neste capítulo vamos exibir denições, resultados e exemplos da teoria básica geral da Geometria Riemanniana, os quais serão utilizados no decorrer desta dissertação. Especicamente, vamos disponibilizar os conceitos de variedades diferenciáveis, métricas, conexões, geodésicas, curvaturas, brados e imersões isométricas. As demonstrações omitidas podem ser vistas nas referências [1] e [3]. 1.1. Variedades Diferenciáveis. Denição 1.1.. Dizemos que um conjunto. Uα ⊂ Rn −→ M. de abertos. Uα ⊂ Rn. M. e uma família de aplicações injetivas. é uma variedade diferenciável de dimensão. xα :. n,. se. satisfazem as seguintes propriedades:. (1). [. xα (Uα ) = M. α. (2). (3). Para todo par. α, β ,. são abertos do. Rn. A família. com. xα (Uα ) ∩ xβ (Uβ ) = W 6= ∅,. e as aplicações. {(Uα , xα )}. x−1 β ◦ xα. os conjuntos. x−1 α (W ). e. x−1 β (W ). são diferenciáveis.. é maximal relativamente às condições. (1). e. (2).. O par (U , x ) com p ∈ x (U ) é chamado uma (ou sistemas de coordenadas) de M em p; x (U ) é então chamada uma em p; Uma família {(U , x )} satisfazendo (1) e (2) é chamada em M . A condição (3) aparece na denição acima por razões técnicas. Vamos agora estender para variedades a noção do Cálculo Diferencial. α. α. α. α. α. parametrização. α. vizinhança coordenada. α. estrutura diferenciável. α. 3.

(14) 4. 1.1. Variedades Diferenciáveis. Denição 1.2. Sejam M1n e M2m variedades diferenciáveis. Uma aplicação ϕ : M1 −→ M2 é diferenciável em. p ∈ M1 ,. y : V ⊂ Rm −→ M2. se dada uma parametrização. x : U ⊂ Rn −→ M1. existe uma parametrização. em. m. tal que. ϕ(p). em. ϕ(x(U )) ⊂ y(V ). e a. aplicação. y −1 ◦ ϕ ◦ x : U ⊂ Rn −→ Rm é diferenciável em. x−1 (p).. Pela condição (2) da denição 1 temos que a denição deda acima independe da escolha das parametrizações e a aplicação y ◦ϕ◦x : U ⊂ R −→ R é chamada de ϕ x y. −1. de. nas parematrizações. Denição 1.3. (−, ) −→ M seja. D. t=0. Seja. M. M. o conjunto das funções de. α0 (0) : D −→ R. Um vetor tangente em. α(0) = p.. p. d(f ◦ α)

(15)

(16)

(17) dt t=0. é o vetor tangente em. Sejam. M1n. e. α : (−, ) −→ M1. dϕp : Tp M1 −→ Tϕ(p) M2 da escolha de. p.. Suponha que. α:. α(0) = p ∈ M , α. O vetor tangente à curva. e. em. dada por. M2m. com. dada por. f ∈ D.. t=0 M. de alguma curva em. p. p ∈ M1. e cada. v ∈ Tp M1 ,. α(0) = p, α0 (0) = v .. dϕp (v) = β 0 (0). α : (−, ) −→ M. será indicado por. variedades diferenciáveis e seja. uma aplicação diferenciável. Para cada diferenciável. M.. diferenciáveis em. O conjunto dos vetores tangentes a. Proposição 1.1.. expressão. uma variedade de diferenciável. Uma aplicação difereciável. é chamada uma curva diferenciável em. é a função. m. e. α0 (0)f =. com. n. Faça. Tp M .. ϕ : M1 −→ M2. escolha uma curva. β = ϕ ◦ α.. A aplicação. é uma aplicação linear que não depende. α.. Denição 1.4.. A aplicação linear. Denição 1.5.. Sejam. M1. e. M2. dϕp. dada acima é chamada de diferencial de. variedades diferenciáveis. Uma aplicação. é um difeomorsmo se é uma bijeção diferenciável com inversa. ϕ−1. ϕ. em. p.. ϕ : M1 −→ M2. diferenciável.. ϕ. é.

(18) 5. 1.1. Variedades Diferenciáveis. um difeomorsmo local em. ϕ : U −→ V. p∈M. se existem vizinhanças. U. de. p. e. V. de. ϕ(p). tais que. é um difeomorsmo.. Provavelmente, o teorema local mais importante mais no Cálculo é o teorema da função inversa. Sendo um teorema local, este se estende naturalmente à variedades diferenciáveis. Teorema da Função Inversa. N. M. Suponha. e. N. variedades diferenciáveis e. uma aplicação diferenciável. Se é invertível em todo ponto. vizinhanças. U ⊂M. p. de. e. V ⊂N. de. ϕ(p). ϕ : U −→ N. tais que. p ∈ M,. ϕ : M −→. então existem. é um difeomorsmo.. Uma importante consequência do teorema da função inversa é o seguinte. Proposição 1.2. são e. ϕ. Suponha que. ϕ : M −→ N. M. e. N. um imersão. Então. sejam variedades diferenciáveis de mesma dimen-. ϕ. é um difeomorsmo local. Se. ϕ. é bijetiva, então. é um difeomorsmo.. Denição 1.6.. Seja. M. uma variedade n-dimensional. O conjunto. T M = (p, v); p ∈ M, v ∈ Tp M. munido com a estrutura diferenciável. (Uα × Rn , γα ). sendo. γα : Uα × Rn → T M. denida. por:. γα (xα1 , . . . , xαn , u1 , . . . , un ). =. Xα (xα1 , . . . , xαn ),. n X. ui. i. onde. S ( α , Xα ). é a estrutura diferenciável de. M , (xα1 , . . . , xαn ) ∈ Uα. ∂  ∂xαi e. (u1 , . . . , un ) ∈ Rn ,. é. chamado brado tangente.. Denição 1.7. M.. Um caminho em uma variedade. ξ. Dizemos que. é um caminho fechado em. o caminho constante. cp : [0, 1] → M. M. é uma aplicação contínua. p∈M. denido por. se. ξ(0) = ξ(1) = p.. cp (s) = p,. para todo. ξ : [0, 1] →. Em particular. s ∈ [0, 1],. é um. caminho fechado.. Denição 1.8. p, q ∈ M ,. Uma variedade. M. é dita conexa quando, dados dois pontos quaisquer. existe sempre um caminho ligando. ξ : [0, 1] → M ,. tal que. ξ(0) = p. e. ξ(1) = q. p. e. q,. isto é, existe uma aplicação contínua.

(19) 6. 1.2. Métricas Riemannianas. Denição 1.9. chado em. M. Uma variedade. Um campo de vetores. X. X. M. em uma variedade diferenciável. M. no brado tangente. X : M −→ T M. é uma cor-. X(p) ∈ Tp M .. associa um vetor tangente. é uma aplicação de. é diferenciável se a aplicação. Lema 1.1. Sejam X e Y M.. X. p 7−→ X(p) que a cada ponto p ∈ M. Em termos de aplicações, que o campo. é chamada simplesmente conexa se todo caminho fe-. puder ser continuamente deformado em um ponto.. Denição 1.10. respondência. M. T M.. Dizemos. é diferenciável.. campos diferenciáveis de vetores em uma variedade diferenciável. Então existe um único campo de vetores. Z. tal que, para todo. f ∈ D, Zf = (XY −. Y X)f .. O campo de vetores Z = [X, Y ] : D −→ D dado por [X, Y ] = XY − Y X é chamado de colchete de X e Y , o qual possui as seguintes propriedades: Proposição 1.3. números reais, e. Se. f, g. X, Y. e. Z. são campos de vetores diferenciáveis em. M , α, β. são. são funções diferenciáveis, então valem as seguintes propriedades:. (a) [X, Y ] = −[Y, X] (anti-comutatividade) (b) [αX + βY, Z] = a[X, Z] + β[Y, Z] (linearidade) (c) [[X, Y ], Z] + [[Y, Z], X] + [[Z, X], Y ] = 0 (identidade. de Jacobi). (d) [f X, gY ] = f g[X, Y ] + f X(g)Y − gY (f )X . 1.2. Métricas Riemannianas. Denição 1.11.. Uma métrica Riemanniana em uma variedade diferenciável. correspondência que. h , ip ,. p 7−→ h , ip. que associa a cada ponto. de coordenadas locais em. D. p,. com. E ∂ ∂ (q), (q) = gij (x1 , . . . , xn ) ∂xi ∂xj q. x : U ⊂ Rn −→ M. x(x1 , . . . , xn ) = q ∈ x(U ). ∂ e ∂x (q) i. é uma. a um produto interno. ou seja, uma forma bilinear simétrica positiva denida, no espaço tangente. que varia diferenciavelmente no seguinte sentido: se. então. p∈M. M. Tp M ,. é um sistema. = dx(0, . . . , 1, . . . , 0),. é uma função diferenciável em. U.. Denição 1.12. Sejam M e N variedade Riemannianas. Um difeomorsmo f : M −→ N é chamado de isometria se:.

(20) 7. 1.2. Métricas Riemannianas. (). hu, vip = hdfp (u), dfp (v)if (p) ,. Denição 1.13. f : M −→ N que. Sejam. M. e. N. para todo. p∈M. ∂ identicado com ∂xi. u, v ∈ Tp M. se existe uma vizinhança. é um difeomorsmo satisfazendo. Exemplo 1.1 (M = Rn ).. e para todos. variedades Riemannianas. Uma aplicação diferenciável. é uma isometria local em. f : U −→ f (U ). p∈M. M = Rn. Considere. ei = (0, . . . , 0),. U ⊂M. de. p. tal. ().. o espaço euclideano de dimensão. então a métrica é dada por. hei , ej i = δij ,. n. com. chamada de. geometria metrica euclideana.. Exemplo 1.2. Sejam M1 e M2 variedades Riemannianas e considere o produto cartesiano M1 × M2. com estrutura diferenciável produto. Sejam. M2 −→ M2. as projeções naturais. Vamos munir. π1 : M1 × M2 −→ M1. M1 × M2. e. π1 : M1 ×. com uma métrica Riemanniana. pondo:. hu, vi(p,q) = hdπ1 (u), dπ1 (v)ip + hdπ2 (u), dπ2 (v)iq para todos. (p, q) ∈ M1 × M2. S1 × S1 = T 2. e. u, v ∈ T(p,q) (M1 × M2 ).. Como exemplo, temos que o toro. S 1 ⊂ R2. tem uma estrutura Riemannianna obtida escolhendo no círculo. a métrica induzida por. R2. e tomando a métrica produto. O toro. T2. com tal métrica é. chamado toro plano.. Denição 1.14.. Uma aplicação. variedade diferenciável. M. c : I −→ M. de um intervalo aberto. I ⊂ R. em uma. chama-se uma curva parametrizada. Observe que uma curva. parametrizada pode admitir auto-intersecções ou pontas.. Denição 1.15. Um campo vetorial V t 7−→ V (t). que a cada. t∈I. ao longo de uma curva. associa um vetor tangente. é diferenciável se para toda função diferenciável função diferenciável em. f. em. c : I −→ M. V (t) ∈ Tc(t) M .. M,. a função. é um aplicação. Dizemos que. t 7−→ V (t)f. V. é uma. I.. ou tangente O campo vetorial dc , indicado por , é chamado de c. A restrição de uma curva c a um intervalo fechado [a, b] ⊂ I chama-se um . Se M é Riemanniana, denimos o comprimento de um segmento por dc dt. d dt. campo velocidade. segmento. lab. Z b s = a.  dc dc , dt. dt dt.

(21) 8. 1.3. Conexões. O teorema a seguir garante a existência de métrica Riemannianas. Teorema 1.1.. Uma variedade diferenciável. M,. a qual satisfaz os axiomas de Hausdor. e da base enumerável, possui uma métrica Riemanniana.. 1.3. Conexões. Nesta seção vamos indicar por X (M ) o conjunto dos campos de vetores de classe C em M e por D(M ) o anel das funçõs reais de classe C denidas em M .. ∞. ∞. Denição 1.16. Uma conexão am ∇ em uma variedade diferenciável M é uma aplicação ∇ : X (M ) × X (M ) −→ X (M ). indicada por. ∇. (X, Y ) −→ ∇X Y. e que satisfaz as seguintes propriedades:. (i) ∇f X+gY Z = f ∇X Z + g∇Y Z , (ii) ∇X (Y + Z) = ∇X Y + ∇X Z , (iii) ∇X (f Y ) = f ∇X Y + X(f )Y , onde. X, Y, Z ∈ X (M ). e. f, g ∈ D(M ).. A seguir, temos a seguinte proposição. Proposição 1.4.. Seja. M. uma variedade diferenciável com uma conexão am. ∇.. Então. existe uma única correspondência. V 7−→ que associa a cada campo de vetores um outro campo de vetores. V. ao longo de. c,. V. DV dt. ao longo de um curva diferenciável. DV ao longo da curva dt. c,. c : I −→ M. denominado derivada covariante de. tal que:. (a). D DV DW (V + W ) = + dt dt dt. (b). D df DV (f V ) = V + f dt dt dt. , onde. função diferenciável em. I.. V. é um campo de vetores ao longo de. c. e. f. é uma.

(22) 9. 1.3. Conexões. (c). Se. V. é induzido por um campo de vetores. então. ou seja,. V (t) = Y (c(t)),. DV = ∇dc/dt Y . dt. Observação 1.1. M. Y ∈ X (M ),. ∇. A Proposição acima mostra que a escolha de uma conexão am. dá origem a uma derivada satisfazendo as condições. (a). e. (b). em. de campos de vetores ao. longo de curvas. A conexão, desta forma, fornece uma forma de derivar vetores ao longo de curvas. Surge de maneira natural a noção de paralelismo.. Denição 1.17. campo vetorial DV dt. = 0,. V. para todo. c : I −→ M. to ∈ I , de. c,. ou seja,. tal que. ∇.. uma variedade diferenciável com uma conexão am. ao longo de uma curva. Proposição 1.5. Seja. M. Seja. c : I −→ M. Um. é chamado campo paralelo quando. t∈I Seja. (M, ∇). uma variedade diferenciável com uma conexão am. uma curva diferenciável em. V0 ∈ Tc(t0 ) M .. M. e. V0. M. um vetor tangente a. Então existe um único campo de vetores paralelo. em. V. ∇.. c(t0 ),. ao longo. V (t0 ) = V0 .. A partir da proposição acima podemos denir o seguinte: Denição 1.18. c : I −→ M. Seja. M. uma variedade diferenciável com uma conexão am. campo de vetores paralelo transporte paralelo de. Denição 1.19.. V. V (t0 ) M. Seja. métrica Riemanniana. e. P0. ao longo de. h , i.. Observação 1.2. Riemanianna. M. α,. ao longo de ao longo de. e. V0. um vetor tangente a. c : I −→ M. tal que. M. V (t0 ) = V0 ,. em. tivermos. c(t0 ).. O. c.. A conexão é dita ser compatível com a métrica. α : I −→ M. Seja. é chamado o. uma variedade diferenciável com uma conexão am. para toda curva diferenciável. P. M. uma curva diferenciável em. ∇.. ∇. h , i,. e uma quando. e quaisquer pares de campos de vetores paralelos. hP, P 0 i = constante.. A proposição a seguir garante que se a conexão. ∇. em uma variedade. é compatível com a métrica, então podemos diferenciar produto interno. pela regra do produto usual, fato que justica a denição dada acima.. Proposição 1.6.. Seja. M. uma variedade Riemanianna. Uma conexão. tível com a métrica se, e somente se, para todo par. V. e. W. ∇. em. M. é compa-. de campos de vetores ao longo.

(23) 10. 1.4. Geodésicas. da curva diferenciável. α : I −→ M. d hV, W i = dt. (1). Corolário 1.1.. Uma conexão. ∇. tem-se:. . DV ,W dt. .   DW + V, , t ∈ I. dt. em uma variedade Riemanniana. M. é compatível com a. métrica se, e somente se,. X hY, Zi = h∇X Y, Zi + hY, ∇X Zi ,. (2). Denição 1.20.. Uma conexão am. ∇. X, Y, Z ∈ X (M ).. em uma variedade diferenciável. M. é dita ser. simétrica quando:. ∇X Y = ∇Y X = [X, Y ]. (3). Observação 1.3. que, para todo. Em um sistema de coordenadas. i, j = 1, . . . , n,. (30 ). ∀X, Y ∈ X (M ).. (U, x),. dizer que. ∇. é simétrica implica. tem-se. ∇Xi Xj − ∇Xj Xi − [Xi , Xj ] = 0,. Xi =. ∂ . ∂xi. O teorema a seguir (teorema de Levi-Civita) é o principal resultado desta seção. Teorema 1.2 (Levi-Civita). M Dada uma variedade Riemanianna. nexão am. ∇. em. M. , existe um única co-. satisfazendo as condições:. (a) ∇. é simétrica.. (b) ∇. é compatível com a métrica. Tal conexão é chamada de conexão de Levi-Civita ou conexão Riemanniana de. 1.4. M.. Geodésicas. Nesta seção, M será uma variedade Riemanniana munida de sua conexão Riemanniana. Denição 1.21. D dx ( dt dt. = 0). Uma curva parametrizada. no ponto t0 . Dizemos que. γ. γ : I → M. é uma geodésica se. é uma geodésica em. γ. t0 ∈ I. for geodésica para todo. se. t∈I.

(24) 11. 1.4. Geodésicas. Observação 1.4.. O comprimento do vetor tangente de uma geodésica. γ : I → M. é. constante, pois:. d dt. . dγ dγ , dt dt. .  =2. O comprimento de arcos de γ de t. 0. ∈I. Z. t. |. s(t) = t0. D dγ dγ ( ), dt dt dt.  =0. a t ∈ I é dado por: dγ | = c(t − t0 ) dt. Portanto, o parâmentro de uma geodésica é proporcional ao comprimrnto de arco. Quando o parâmentro é o próprio comprimento de arco, isto é, quando c = 1, diremos que γ está normalizado. Exemplo 1.3.. Todas as geodésicas do. Rn. são retas parametrizadas proporcionalmente ao. comprimento de arco, pois o espaço tangente a. Rn. em. p. é identicado com o. Rn. e, neste. caso, a derivada covariante coincide com a derivada usual.. Exemplo 1.4. Todas as geodésicas da esfera unitária S n ⊂ Rn+1 são os círculos máximos parametrizados proporcionalmente ao comprimento de arco. De fato, dados vetor unitário. ∈ Tp S n ,. p. v. ponto por. p. e o vetor. odésicas. γ(t). Sn. do plano que contém a origem de. e um. Rn+1 ,. o. é um círculo máximo que pode ser parametrizado como a geodésica. com velocidade. Denição 1.22.. a interseção com. p ∈ Sn. v.. A unicidade segue da proprosição anterior.. Uma variedade Riemanniana. que partem de. p. M. é (geodesicamente) completa se as ge-. estão denidas para todos os valores do parâmetro. t∈R. Observação 1.5. É possível mostrar que toda variedade Riemanniana conexa e compacta é completa (Teorema de Hopf-Rinow). Proposição 1.7. >0. Dado. e uma aplicação. p∈M. existem um aberto. V ⊂ M, p ∈ V ,. números reais. δ>0. e. C∞. γ : (−δ, δ) × U, U = (q, v); q ∈ v, v ∈ Tq M, |v| < . tais que a curva passa por. q. t → γ(t, q, v), t ∈ (−1, 1),. com velocidade. v,. para cada. é a única geodésica de. q∈V. cada. v ∈ Tq M. M. com. que no instante. |v| < . t=0.

(25) 12. 1.5. Curvaturas. 1.5. Curvaturas. Denição 1.23. cia. A curvatura. (X, Y ) −→ K(X, Y ). X (M ) −→ X (M ). K. de uma variedade Riemanniana. que associa a cada par. X, Y ∈ X (M ). ∇. é uma correspondên-. uma aplicação. K(X, Y ) :. dada por. K(X, Y )Z := ∇Y ∇X Z − ∇X ∇Y Z + ∇[X,Y ] Z,. onde. M. é a conexão Riemanniana de. Proposição 1.8.. A curvatura. K. Z ∈ X (M ),. M.. de uma variedade Riemanniana possui as seguintes. propriedades:. (i) K. é bilinear em. X (M ) × X (M ),. ou seja,. K(f X1 + gX2 , Y1 ) = f K(X1 , Y1 ) + gK(X2 , Y1 ). K(X1 , f Y1 + gY2 ) = f K(X1 , Y1 ) + gK(X1 , Y2 ) onde. (ii). f, g ∈ D(M ),. Para todo par. Xi , Yi ∈ X (M ).. X, y ∈ X (M ),. o operador curvatura. K(X, Y ) : X (M ) −→ X (M ). linear, ou seja,. K(X, Y )(Z + W ) = K(X, Y )Z + K(X, Y )W,. K(X, Y )f Z = f K(X, Y )Z, onde. f ∈ D(M ),. Proposição 1.9. Z, W ∈ X (M ).. (Primeira Identidade de Bianchi). K(X, Y )Z + K(Y, Z)X + K(Z, X)Y = 0. é.

(26) 13. 1.5. Curvaturas. Por questões de conveniência, indenticamos o operador quadrilinear hK( · , · ) · , · i : X (M ) × X (M ) × X (M ) × X (M ) −→ R,. que para cada quádrupla (X, Y, Z, W ) ∈ (X (M )) associa o número hK(X, Y )Z, W i, simplesmente por 4. (X, Y, Z, W ) = hK(X, Y )Z, W i .. Proposição 1.10.. O operador denido acima possui as seguintes propriedades:. (a) (X, Y, Z, W ) + (Y, Z, X, W ) + (Z, X, Y, W ) = 0 (b) (X, Y, Z, W ) = −(Y, X, Z, W ) (c) (X, Y, Z, W ) = −(X, Y, W, Z) (d) (X, Y, Z, W ) = (Z, W, X, Y ). No que segue, vamos usar a seguinte notação: dado uma espaço vetorial V , indicaremos por |x ∧ y| a expressão q |x|2 |y|2 − hx, yi2. que representa a área do paralelogramo bi-dimensional determinado pelos vetores x, y ∈ V . Proposição 1.11. e sejam. x, y ∈ σ. Seja. σ ⊂ Tp M. um subspaço de dimensão. 2. do espaço tangente. Tp M. dois vetores linearmente independentes. Então,. k(x, y) =. não depende da escolha dos vetores. (x, y, x, y) |x ∧ y|2. x, y ∈ σ .. A proposição acima permite denirmos o seguinte: Denição 1.24. número real. seccional. Dado um ponto. k(x, y) = k(σ),. de. σ. em. p.. onde. p ∈ M. {x, y}. e um subspaço bi-dimensional. é uma base qualquer de. σ,. σ ⊂ Tp M. é chamado. o. curvatura.

(27) 14. 1.5. Curvaturas. Lema 1.2. 2.. Seja. V. um espaço vetorial munido de um produto interno. h , i,. com. dim V ≥. Sejam. K : V × V × V −→ V. e. aplicações tri-lineares tais que as condições. K 0 : V × V × V −→ V (a), (b), (c). e. (d). da proposição. 9. sejam. satisfeitas para. (x, y, z, t) = hK(x, y)x, yi ,. Se. x, y. são dois vetores linearmente independentes, vamos escrever,. k(σ) =. onde. σ = [x, y]. k 0 (σ),. (x, y, z, t)0 = hK 0 (x, y)x, yi .. então. Lema 1.3.. (x, y, z, t) , |x ∧ y|2. k 0 (σ) =. (x, y, z, t)0 , |x ∧ y|2. é o subespaço bi-dimensional gerado por. x, y .. Se para todo. σ ⊂ V , k(σ) =. K = K 0. Sejam. aplicação tri-linear. M. uma variedade Riemanniana e. K 0 : Tp M × Tp M × Tp M −→ Tp M. p. um ponto de. M.. Dena uma. dada por. hK 0 (X, Y, W ), Zi = hX, W i hY, Zi − hY, W i hX, Zi. para todo se,. X, Y, W, Z ∈ Tm M . Então M. K = kK 0 ,. onde. K. é a curvatura de. tem curvatura seccional constante. k. se, e somente. M.. A seguir vamos apresentar algumas combinações das curvaturas seccionais de uma variedade. Denição 1.25. de. M. v ∈ Tp M ,. Para qualquer vetor unitário qualquer. na direção do vetor. v ∈ Tp M. a curvatura de Ricci. é denida pela média. n−1. n−1. 1 X 1 X k(v, vi ) = hR(v, vi )v, vi i , Ricp (v) = n − 1 i=1 n − 1 i=1 das curvaturas seccionais. k(v, vi ),. onde. {v, v1 , . . . , vn−1 }. é uma base ortonormal de. Tp M ..

(28) 15. 1.5. Curvaturas. Denição 1.26.. A Curvatura Escalar. (ou. média) de. M. no ponto. p∈M. é denida pela. média n n X 1 1X Ricp (vi ) = hR(vi , vj )vi , vj i , K(p) = n i=1 n(n − 1) i,j=1. das curvaturas de Ricci. Observação 1.6.. Ricp (vi ),. onde. {v1 , . . . , vn }. é qualquer base ortonormal de. A seguir, vamos mostrar que as denições acima não dependem da. escolha das parametrizações. Primeiro, vamos denir uma forma bilinear em segue: Sejam. v, w ∈ Tp M. Q. Tm M. como. e faça. Q(v, w) = traço. Temos que. Tp M .. da aplicação. [z −→ K(v, z)w].. é bilinear e, além disso, escolhendo um vetor unitário. tando em uma base ortonormal. {v, v1 , . . . , vn−1 }. Q(v, w) =. n X. de. Tp M. v ∈ Tp M. e comple-. temos que. hK(v, vi )w, vi i. i=1. =. n X. hK(w, vi )v, vi i. i=1. = Q(w, v). ou seja, isso mostra que. Ricp (v) (só bilinear. Q. depende de. em. Tp M. Q(v, w) = Q(w, v). v ∈ Tp M ). e. Q(v, v) = (n − 1) Ricm (v);. isto prova que. é um conceito intrínseco. Por outro lado, a forma. corresponde uma aplicação linear auto-adjunta. hR(v), wi = Q(v, w). R. dada por.

(29) 16. 1.6. Fibrados Vetoriais. {v1 , . . . , vn }. Tomando uma base ortonormal. R =. Traço de. =. de. n X j=1 n X. Tp M ,. temos que. hR(vj ), vj i Q(vj , vj ). j=1. = (n − 1). n X. Ricm (vj ). j=1. = n(n − 1)R(m).. 1 o que prova o que foi armado. A forma bilinear n−1 Q é, algumas vezes, chamada de. tensor de Ricci.. 1.6. Fibrados Vetoriais. Denição 1.27. Sejam E e M diferenciável. Dizemos que. (i) ρ−1 (p) (ii). variedades diferenciáveis e seja. existe uma vizinhança aberta. ρ−1 (q). uma aplicação. ρ é um brado vetorial de dimensão k quando para cada P ∈ M. é um espaço vetorial real de dimensão. cuja restrição. ρ:E→M. U. de. p em M. k;. e. e um difeomorsmo. é um isomorsmo sobre. {q} × Rk ,. φ : ρ−1 (U ) → U ×Rk. para cada. q ∈ U.. Dado um brado vetorial ρ : E → M e um subconjunto F ⊂ E tal que a restrição ρ | : F → M é também um brado vetorial, dizemos que F é um subbrado vetorial de E se a inclusão i : F ,→ E leva (ρ | ) (p) linearmente sobre ρ (p), para todo p ∈ M . Por abuso de linguagem é comum não nos referirmos à aplicação ρ : E → M quando trabalhamos com brados cuja aplicação é natural, mas sim às variedades E e M . F. F. Denição 1.28. espaço. Ep = ρ−1 (p). σ:M →E. tal que. Exemplo 1.5. por. Seja. tangente a. M.. a bra de. ρ. −1. um brado vetorial. Para cada. sobre. p.. p∈M. chamamos o. Uma seção de um espaço brado é uma aplicação. ρ ◦ σ = idM .. Seja. ρ(p, vp ) = p,. ρ:E →M. −1.

(30)

(31) T M = (p, vp )

(32) ∈ M, vp ∈ Tp M . P. A aplicação. é um espaço brado vetorial de classe. C ∞,. ρ : TM → M. dada. chamado o espaço brado.

(33) 17 Uma seção do espaço brado tangente T M é um campo de vetores em M . Assim,um campo de vetores X , é para todos os efeitos,uma aplicação que a cada p ∈ M associa o vetor X(p) ∈ T M. 1.7. Imersões Isométricas. p. Exemplo 1.6. variedade de. Tp N ;. M.. denimos. ρ(p, vp ) = p. Seja. h, i. um métrica Riemanniana em. p ∈ M,. Dado. seja. ω(N ) = (p, vp ); p ∈ N, vp ∈ Tp N ⊥ .. ρ.. o conjunto das seções de. F. X ∈ X (M ).. e todo. 1.7. e seja. Nm ⊂ Mn. uma sub-. o subespaço de vetores normais a. A aplicação. ρ : ω(N ) → N ,. dada por. é um espaço brado vetorial, chamado o espaço brado normal.. Denição 1.29. Sejam ρ : E → M todo. Tp N ⊥ ⊂ Tp M. Mn. um brado vetorial com uma conexão linear. Dizemos que a seção. Um subbrado vetorial. X ∈ X (M ),. tivermos que. ∇ηX. F. σ ∈ Γ(ρ). E. de. é paralela quando. ∇ e Γ(ρ). ∇σX = 0. é dito paralelo se, para toda seção. para. η. de. F.. é uma seção de. Imersões Isométricas. Denição 1.30. renciável para todo. Mn. Sejam. f : M → M p ∈ M.. M. e. m. f (M ) ⊂ M ,. f. M ⊂M. Denição 1.31. nas com métricas. dfp : Tp M → Tf (p) M. é chamdo a codimensão de. homeomorsmo sobre. uma subvariedade de. variedades diferenciáveis. Uma aplicação dife-. é uma imersão se a diferencial. O número. é um mergulho. Se. k=n+m. onde. f (M ). e a inclusão. f.. Se, além disso,. tem a topologia induzida por. i : M ,→ M. é injetiva. M,. f. é um. diz-se que. é um mergulho, diz-se que. M. é. M.. Uma imersão. h , iM. f : Mn → M. h , iM ,. e. k=n+m. entre duas variedades Riemannia-. respectivamente, é chamada imersão isométrica (ou. Riemanniana) se:. hX, Y iM = hdfp (X), dfp (Y )iM para todo. p ∈ M,. e todo par. Proposição 1.12. uma vizinhança. Seja. U ⊂M. X, Y ∈ Tp M. f : M n −→ M de. p. k. uma imersão. Então, para cada. tal que a restrição de. f. a. U. p ∈ M,. é um mergulho sobre. existe. f (U ).. De acordo com a proposição anterior podemos identicar U com f (U ) e cada vetor v ∈ T M , q ∈ U , com df (v) ∈ T M . Usando esta identicação podemos estender um q. q. f (q).

(34) 18 campo local U de vetores de M a um campo local U de vetores de M . Também podemos considerar o espaço tangente de M em p como um subespaço do espaço tangente de M em p e escrever 1.7. Imersões Isométricas. Tp M = Tp M ⊕ (Tp M )⊥ ,. onde (T M ) é o complemento ortogonal de T M em T M . Se v ∈ T M , p ∈ M , então podemos escrever v = v + v , com v ∈ T M e v ∈ (T M ) . Neste caso, denominamos v a componente tangencial de v e v a componente normal de v . Essa decomposição é diferenciável no sentido que as aplicações de T M em T M dadas por p. ⊥. p. T. N. T. T. p. N. p. p. p. ⊥. N. (p, v) 7−→ (p, v T ). e. (p, v) 7−→ (p, v N ). são diferenciáveis. A conexão Riemanniana de M será indicada por ∇. Se X, Y são campos locais de vetores em M , e X, Y são extensões locais a M , denimos ∇ Y = (∇ Y ) . Pelo teorema de existência e unicidade de Levi-Civita, sabemos que esta é a conexão Riemanniana relativa à métrica induzida de M . T. X. Denição 1.32.. Sejam. X, Y. campos locais a. M,. X. então vamos denir uma aplicação. h. da seguinte forma. (1.1) Segue que h(X, Y ) é um campo local em M normal a M e h(X, Y ) não depende das extensões X, Y . Portanto h(X, Y ) está bem denida. Daqui em diante, vamos indicar por X (U ) os campos diferenciáveis em U de vetores normais a f (U ) ≈ U . h(X, Y ) = ∇X Y − ∇X Y. ⊥. Proposição 1.13.. Se. X, Y ∈ X (U ),. a aplicação. h : X (U ) × X (U ) −→ X (U )⊥. dada por. h(X, Y ) = ∇X Y − ∇X Y. é bilinear e simétrica.. Observação 1.7.. Essa aplicação é chamada a segunda forma fundamental de. equação. ∇X Y = ∇X Y + h(X, Y ). f,. onde a. (1.2).

(35) 19. 1.7. Imersões Isométricas. é chamada a fórmula de Gauss.. Note que h(X, Y ) é um campo local em M normal M , pois h(X, Y ) = ∇X Y − ∇X Y = (∇X Y )T + (∇X Y )⊥ − ∇X Y = (∇X Y )⊥. Consideremos agora campos de vetores X de T M e ξ de T M , e denotemos por A X a componente tangencial de −∇ ξ, isto é ⊥. ξ. X. Aξ X = −(∇X ξ)T. . Note que para todo Y ∈ T M , temos . ∇X ξ, Y + ξ, ∇X Y. = (∇X ξ)T + (∇X ξ)⊥ , Y + hξ, ∇X Y + h(X, Y )i. X hξ, Y i =. = h−Aξ X, Y i + hξ, h(X, Y )i = 0. Assim, hAξ X, Y i = hh(X, Y ), ξi. Portanto ca bem denida a aplicação A : T M × T M → T M dada por A(X, ξ) = A X , que é bilinear sobre o anel D(M ) das funções C ,pois a aplicação h e a métrica são bilineares sobre D(M ). Sendo h simétrica a aplicação A : T M → T M também é simétrica e, além disso, é linear sobre D(M ). A aplicação A é chamada Operador de Weingarten. A componente normal de ∇ ξ que denotamos por ∇ ξ, dene uma conexão compatível sobre o brado normal T M . Dizemos que ∇ é a conexão normal de f e assim obtemos a fórmula de Weingarten ⊥. ∞. ξ. ξ. ξ. ⊥ X. X. ⊥. ⊥. ∇X ξ = −Aξ X + ∇⊥ Xξ. (1.3).

(36) 20. 1.8. As Equações Fundamentais de uma Imersão Isométrica. Observação 1.8.. Para a segunda forma. h. a derivação covariante pode ser estendida de. maneira natural da seguinte forma. (1.4).  ∇X h (Y, Z) = ∇⊥ X (h(Y, Z)) − h(∇X Y, Z) − h(Y, ∇X Z). Denição 1.33. se para todo. Dizemos que uma imersão. ξ ∈ Tp M ⊥. geodésica em todo. temos. Aξ ≡ 0. em. f :M →M p.. é geodésica em um ponto. A imersão. f. p∈M. é totalmente geodésica se é. p ∈ M.. Denição 1.34. O vetor curvatura média de uma imersão isométrica f : M n → M k=n+m no ponto. p ∈ M. {X1 , . . . , Xn }. é o vetor normal a. M,. é um referencial ortonormal tangente a. fundamental de. 1 n. Hp =. denido por. M. em. p. e. Pn. i=1. h. h(Xi , Yi ),. onde. é a segunda forma. f. Observação 1.9.. Uma subvariedade é dita mínima se. Hp ≡ 0. para todo ponto. p. da. subvariedade.. 1.8. As Equações Fundamentais de uma Imersão Isométrica. O objetivo desta seção é apresentar as equações de Gauss, Ricci e Codazzi. Proposição 1.14.. Seja. f : Mn → M. m+n. uma imersão isométrica. Então são válidas as. seguintes equações:. (a). Equação de Gauss:. K(X, Y )Z, W = hK(X, Y )Z, W i − hh(Y, W ), h(X, Z)i + hh(X, W ), h(Y, Z)i .. (1.5). onde. K(X, Y ). e. K(X, Y ). denotam as curvaturas seccionais de. gerado pelos vetores ortonormais. (b). M. e. M. do plano. X, Y ∈ Tp M. Equação de Ricci:. . K(X, Y )ξ, η − K ⊥ (X, Y )ξ, η = h[Aξ , Aη ](X), Y i ,. (1.6).

(37) 1.8. As Equações Fundamentais de uma Imersão Isométrica. para todo. (c). X, Y ∈ T M. e. ξ, η ∈ T M ⊥. onde. 21. [Aξ , Aη ] = Aξ ◦ Aη − Aη ◦ Aξ .. Equação de Codazzi:. ⊥ (K(X, Y )Z)⊥ = (∇⊥ Y h)(X, Z) − (∇X h)(Y, Z). Para todoX, Y, Z. (1.7). ∈ T M.. As equações de Gauss e de Ricci são expressões que relacionam, respectivamente, as curvaturas dos brados tangente e normal com a segunda forma fundamental da imersão. Uma relação não algébrica é dada pela equação de Codazzi. Neste caso, precisamos "derivar"a segunda forma fundamental considerada como tensor. A importância das equações de Gauss, Ricci e Codazzi é que, no caso em que o espaço ambiente tem curvatura seccional constante, elas desempenham um papel análogo ao das equações de compatibilidade na teoria das superfícies..

(38) Capítulo 2. Variedades Analíticas e Superfícies com Seção Mínima Paralela Neste capítulo apresentaremos alguns conceitos e resultados que serão utilizados nas demonstrações feitas na capítulo 3. 2.1. Variedades Analíticas. Denição 2.1.. Uma variedade complexa. M. de dimensão (complexa). n. é uma variedade. diferenciável 2n-dimensional (dimensão real), munida de um atlas formado por cartas. ϕα : Uα → Cn ≈ R2n. satisfazendo a seguinte condição: sempre que. mudança de coordenadas. n. a. ϕβ ◦ϕ−1 α : ϕα (Uα ∩Uβ ) → ϕβ (Uα ∩Uβ ) é uma função holomorfa de. variáveis complexas. Nesse caso, cada. ϕα : Uα → Cn. ou ainda um sistema de coordenadas complexas em complexo de. Uα ∩ Uβ 6= ∅,. é uma carta coordenada holomorfa. M,. e o conjunto das. 0. ϕαs. é um atlas. M.. Toda variedade complexa é, de fato, uma variedade analítica real; ademais, se ϕ : U → C é uma carta coordenada holomorfa em M com ϕ = (z , . . . , z ) e z = x + iy , para 1 ≤ j ≤ n, então ϕ(x , y , . . . , x , y ) é uma carta coordenada analítica de M , vista como variedade analítica real. n. 1. 1. Observação 2.1.. 1. n. n. i. j. j. n. As variedades anlíticas complexas de dimensão. 1. são as superfícies de. Riemann.. Podemos então identicar a parametrização (x, y) em U ⊂ M , onde M representa uma 22.

(39) 23 superfície de Riemann, com o parâmetro complexo z = x + iy e denotarmos por T M o plano tangente complexicado de T M . Assim, dado um parâmetro z = x + iy podemos denir campos de vetores em U por: 2.1. Variedades Analíticas. C p. p. ∂ 1 := ∂z 2. . ∂ ∂ −i ∂x ∂y. . ∂ 1 := ∂z 2. . ∂ ∂ +i ∂x ∂y. . de modo que { , } é uma base de T M . Denimos a base dual de { , } como sendo as 1-formas complexas locais ∂ ∂z. ∂ ∂z. C p. ∂ ∂z. ∂ ∂z. dz := dx + idy. dz := dx − idy. . Uma função f : M → C será dita holomorfa se, e somente se, = 0 para toda parametrização local de M . Seja então M uma superfície analítica conexa em uma variedade Riemanniana analítica R . Considere ∇ e ∇ as derivadas covariantes de M e R respectivamente. Sejam X e Y campos vetoriais tangentes em M . Então por (1.1) e (1.2) temos que a segunda forma fundamental h é dada por ∂f ∂z. 0. m. (2.1) Sabemos que h(X, Y ) é um campo vetorial normal em M e que h é simétrico em X e Y . Considere um campo vetorial normal qualquer ξ em M e escrevamos: ∇0X Y = ∇X Y + h(X, Y ). (2.2) onde −A (X) e ∇ ξ denotam respectivamente os componetes tangencial e normal do vetor ∇ ξ, então obtemos hA (X), Y i = hh(X, Y ), ξi (2.3) ∇0X ξ = −Aξ (X) + ∇⊥ Xξ. ξ. ⊥ X. 0 X. ξ.

(40) 24 onde h, i denota a métrica riemanniana de R. Diz-se que um campo normal ξ em M é paralelo no brado normal se ∇ ξ ≡ 0 para cada campo tangente X ∈ Γ(T M ) o vetor curvatura média H é denido por: 1 (2.4) H = trh 2 2.1. Variedades Analíticas. ⊥ X. Denição 2.2. Se para todo sistema de vizinhanças coordenadas cobrindo a variedade M , existe um número nito de vizinhanças coordenadas que cobrem toda a variedade, então a variedade. m. é dita compacta.. Proposição 2.1. em. N. Seja. Mn. N m.. uma subvariedade de. é at se, e somente se, existem. (m − n). Então a conexão normal. ∇⊥. de. M. campos ortonormais e paralelos no brado. normal.. Temos ∇ = 0 para j = 1, ..., m − 2 para todo X ∈ X (M ). Logo P f ξ de M . Então temos: = 0. Dado qualquer campo normal. Demonstração.. RN (X, Y )ξj. ⊥ ξj. (⇐). n j=1. ⊥ RN (X, Y ) = ∇⊥ X ∇Y. m−2 X. ! fj ξj. ⊥ − ∇⊥ Y ∇X. j=1. =. j j. m−2 X. ! fj ξj. − ∇⊥ [X,Y ]. j=1. m−2 X. m−2 X. j=1. j=1. [(XY − Y X)fj ]ξj −. ([X, Y ]fj )ξj = 0. m−2 X. ! fj ξj. j=1. (2.5). Portanto, a conexão normal ∇ é at. (⇒) Assumamos que ∇ é at. Então para quaisquer conjunto de (m−n) campos normais ortonormais ξ de M , temos: ⊥. ⊥. i. ⊥ ⊥ ⊥ ⊥ ∇⊥ X ∇Y ξj − ∇Y ∇X ξj − ∇[X,Y ] ξj = 0, ∀X, Y ∈ X (M ). Denindo ∇. ⊥ X ξj. =. Pn. i=1. ωji (X)ξi. , temos ω. i j. = −ωij. e também. ( ) n X X X 0= [Xωij (Y ) − Y ωij (X) − ωij ([X, Y ])]ξj + [ωik (Y )ωkj (X) − ωik (X)ωki (Y )] ξj j=1. ou seja, dω. j. j i. =−. P. ωik ∧ ωkj. eω. j i. = −ωji. k. . É possível então obter uma matriz de ordem.

(41) 25. 2.1. Variedades Analíticas. (m − n), A = (aji ). de funções a satisfazendo: j i. (2.6). dA = −AΩ, AT = A−1. onde Ω = (ω ). Esta equação (2.6) tem a expressão local: j i. daki =. X. aji ωkj = −. X. (2.7). aji ωjk. colocando ξi0 =. X. (2.8). aji ξj. j. os campos ξ são também m − n campos ortonormais. Usando (2.7) e (2.8) obtemos: ω a = da + a ω = 0, onde ω são denidos por ∇ ξ = ω ξ . Isto prova que cada ξ é paralelo no brado normal. 0 i. 0j k i j. k i. j i. 0j i. k j. ⊥ 0 i. 0j 0 i j. 0 i. . Proposição 2.2.. Seja. M. uma subvariedade. m-dimensional. de uma variedade riemanni-. n-dimensional N . Sejam {ξi } e {ξi0 } conjuntos de (n−m) campos normais ortonormais P M , ambos conjuntos de campos paralelos no brado normal. Se tivermos ξi0 = j aji ξj. ana de. em uma componente de interseção dos domínios de denição dos campos, então as funções. aji. são todas constantes. Em particular, se cada. ξi = ξi0. em um ponto, então. (aji ) = (δij ).. A proposição acima é consequência imediata da denição de campos paralelos. É possível escolher um sistema de coordenadas isotérmicas {x , x } cobrindo M . O tensor métrica induzida g tem a seguinte forma: 1. g = E{(dx1 )2 + (dx2 )2 }.. 2. (2.9). A seguir, façamos X = ∂/∂x e consideremos, i. i. L = h(X1 , X1 ), M = h(X1 , X2 ), N = h(X2 , X2 ).. (2.10).

(42) 26. 2.1. Variedades Analíticas. Para as coordenadas isotérmicas x , x com tensor métrico dado por (2.9), veremos que X (E) X (E) δ , Γ = Γ = −Γ = , Γ = Γ = −Γ = (2.11) g = E 2E 2E em que os Γ são dados por ∇ X =Γ X . (2.12) De fato, como g(X , X ) = E = g(X , X ), obtemos: 1. ij. 1 11. ij. 2 12. 2. 1. 1 22. 2 22. 1 12. 2 11. 2. h ji. Xj. 1. 1. 2. i. h ji. h. 2. 1 1 1 1 1 X1 (E) = X1 [g(X1 , X1 )] = [2g(∇X1 X1 , X1 )] = [g(Γ111 X1 + Γ211 X2 , X1 )] = 2EΓ111 ⇒ 2 2 2 2 2 ⇒ Γ111 =. X1 (E) ; 2E. 1 1 1 1 X2 (E) X2 (E) = [2g(∇X2 X1 , X1 )] = [2g(Γ112 X1 + Γ212 X2 , X1 )] = 2EΓ112 ⇒ Γ112 = ; 2 2 2 2 2E. 1 1 1 1 X1 (E) X1 (E) = [2g(∇X1 X2 , X2 )] = [2g(Γ112 X1 + Γ212 X2 , X2 )] = 2EΓ212 ⇒ Γ212 = ; 2 2 2 2 2E 1 1 1 X2 (E) 1 X2 (E) = [2g(∇X2 X2 , X2 )] = [2g(Γ122 X1 + Γ222 X2 , X2 )] = 2EΓ222 ⇒ Γ222 = ; 2 2 2 2 2E. E ainda, g(X1 , X2 ) = 0 ⇒ g(∇X1 X1 , X2 ) + g(X1 , ∇X1 X2 ) = 0 ⇒ EΓ211 + EΓ112 = 0 ⇒ Γ112 = −Γ211 g(X1 , X2 ) = 0 ⇒ g(∇X2 X1 , X2 ) + g(X1 , ∇X2 X2 ) = 0 ⇒ EΓ212 + EΓ122 = 0 ⇒ Γ212 = −Γ122. Pela equação de Codazzi, temos (∇. X1 h)(X2 , X1 ). = (∇X2 h)(X1 , X1 ). e pela equação.

(43) 27. 2.1. Variedades Analíticas. (1.4), tem-se (∇X1 h)(X2 , X1 ) = ∇⊥ X1 (h(X2 , X1 )) − h(∇X1 X2 , X1 ) − h(X2 , ∇X1 X1 ),. e (∇X2 h)(X1 , X1 ) = ∇⊥ X2 (h(X1 , X1 )) − h(∇X2 X1 , X1 ) − h(X1 , ∇X2 X1 ). Logo, ⊥ ∇⊥ X2 M − h(∇X1 X2 , X1 ) − h(X2 , ∇X1 X1 ) = ∇X2 L − h(∇X2 X1 , X1 ) − h(X1 , ∇X2 X1 ). Devido h ser bilinear e simétrica e ∇. X2 X1. = ∇X1 X2. , temos. ⊥ ∇⊥ X2 L − ∇X2 M = h(∇X2 X1 , X1 ) − h(X2 , ∇X1 X1 ). = h(Γ112 X1 + Γ212 X2 , X1 ) − h(X2 , Γ111 X1 + Γ211 X2 ) = Γ112 h(X1 , X1 ) + Γ212 h(X2 , X1 ) − Γ111 h(X2 , X1 ) − Γ211 h(X2 , X2 ). Mas, Γ. 2 12. = Γ111. eΓ. 1 12. = −Γ211. , daí. ⊥ 1 ∇⊥ X2 L − ∇X2 M = Γ12 [h(X1 , X1 ) + h(X2 , X2 )].. Uma vez que 2. 1 1X 1 g(h(Xi , Xi ), Xi ) = [g(h(X1 , X1 ), X1 ) + g(h(X2 , X2 ), X2 )] ⇒ H = trh = 2 2 i=1 2 1 1 1 H = [ h(X1 , X1 ) + h(X2 , X2 )] ⇒ h(X1 , X1 ) + h(X2 , X2 ) = 2EH 2 E E. eΓ. 1 12. =. X2 (E) 2E. , temos. ⊥ ∇⊥ X2 L − ∇X1 M =. X2 (E) X2 (E) [h(X1 , X1 ) + h(X2 , X2 )] = 2EH = X2 (E)H. 2E 2E. (2.13).

(44) 28. 2.1. Variedades Analíticas. Analogamente, −X1 (E) [h(X1 , X1 ) + h(X2 , X2 )] = −X1 (E)H. 2E. ⊥ ∇⊥ X2 M − ∇X1 N =. (2.14). Pela denição de vetor curvatura média H , temos ⊥ ⊥ ⊥ ∇⊥ Xi (EH) = E∇Xi H+Xi (E)H ⇒ Xi (E)H = −E∇Xi H+∇Xi [E.. ⇒ Xi (E)H = −E∇⊥ Xi H +. 1 (h(X1 , X1 )+h(X2 , X2 ))] ⇒ 2E.  1 ⊥ ∇⊥ Xi L + ∇Xi N . 2. Substituindo X (E)H em (2.13) e (2.14), obtemos: i. ∇⊥ X2 L. −. ∇⊥ X1 M. 1 (L + N ) ⇒ ∇⊥ + ∇⊥ X2 2 X2. =. −E∇⊥ X2 H. =. 1 ⊥ E∇⊥ X1 H − ∇X1 (L+N ). . L−N 2. . ⊥ − ∇⊥ X1 M = −E∇X2 H. (2.15). e ⊥ ∇⊥ X2 M −∇X1 N. 2. ⇒. ∇⊥ X1. .  L−N ⊥ +∇⊥ X2 M = E∇X1 H. 2. (2.16). Assim, temos o seguinte: Lema 2.1.. Seja. M. curvatura constante. Se existe uma seção isoperimétrica paralela.  ϕ(ξ) =. z = x1 + ix2. é analítica em uma seção. ξ. M. com. H . ϕ. em. M,. M. de. então a função. (2.17).  − hM, ξii. x1 , x2 ,. onde. signica um campo vetorial normal unitário denido. M1 (ξ) = 21 trAξ =constante. o vetor curvatura média. é analítica em. L−N ,ξ 2. ξ. para todo conjunto de coordenadas isotérmicas. isoperimétrica em. globalmente em. m-dimensional. uma superfície em uma variedade Riemanniana. e. h, i. signica. ge(, ).. Em particular, se. é paralelo e não-nulo, então a função. H |H|. z = x1 + ix2 .. .  =. L−N H , 2 |H|. .   H − M, i |H|. (2.18).

(45) 29. 2.2. Superfícies com Seção Mínima Paralela. 2.2. Superfícies com Seção Mínima Paralela. Denição 2.3.. Seja. M. uma subvariedade n-dimensional em uma variedade. campo normal unitário de vetores. ξ. é chamada uma seção mínima de. M;. de. M. em. N,. se temos. Aξ. se o tensor segunda forma. ξ. é chamada uma seção umbílica-livre de. é não nulo, então. ξ. é chamada uma seção não degenerada; e se. ξ. Para um. M1 (ξ) = 21 trAξ ≡ 0,. identidade, então. nulo, então. N.. M;. então. não é proporcional à. se o determinante de. Aξ. ξ. Aξ. não é identicamente. é chamada seção não geodésica.. Proposição 2.3.. Seja. M. E4. uma superfície fechada em um 4-espaço euclideano. M. a curvatura Gaussiana de. não muda de sinal. Então. M. tal que. é o produto de dois círculos. planos se e somente se existe uma seção mínima não degenerada em. M. Se a curvatura gaussiana é nula em M , então temos o seguinte resultado local. Proposição 2.4. Seja M. uma superfície em um espaço euclidiano 4-dimensional. curvatura Gaussiana nula. Então. M. E4. com. é um subconjunto aberto da superfície produto de dois. circulos planos se, e somente se, existe uma seção minimal paralela não geodésica em. Lema 2.2. (Yau-1974).. Seja. M2. uma superfície com vetor curvatura média paralelo em. uma variedade com curvatura constante. Então ou subvariedade umbílica de. N. M.. M2. é uma superfície mínima de uma. ou a segunda forma fundamental de. M 2 pode ser diagonalizada. simultaneamente.. Teorema 2.1.. (Chen, 1973c; Yau, 1973) Seja. M. uma superfície em uma forma espacial. Rm (c) de dimensão m com curvatura constante c. Se o vetor curvatura média H no brado normal, então. M. é paralelo. é uma das seguintes superfícies:. Rm (c). •. (i) Uma superfície mínima de. •. (ii) Uma superfície mínima de uma pequena hiperesfera de. •. (iii) Uma superfície com curvatura média. H. Rm (c),. constante em uma. ou. 3-esfera. de. Rm (c).

(46) 30. 2.3. O Teorema de Erbach e o Teorema de Hopf. 2.3. O Teorema de Erbach e o Teorema de Hopf. Nesta seção apresentaremos o eo que serão usados nas demonstrações do capitulo 3.Antes, porém, de enunciá-los, faremos algumas denições. Teorema de Erbach. Denição 2.4.. Seja. Ω. C2. se é de classe. Ω. em. uma região em. Ω. C.. Uma função. Teorema de Hopf. u:Ω→R. diz-se harmônica em. e verica a equação de Laplace:. ∂ 2u ∂ 2u ∆u = + =0 ∂x2 ∂y 2 em todo ponto de. Ω.. Como o operador de Laplace é linear, o conjunto das funções harmônicas nuna dada região Ω é um espaço vetorial que denotaremos por H(Ω). Usando os operadores diferenciais e. 1 ∂ = ∂z 2. . ∂ 1 = ∂z 2. . vemos que. ∂ ∂ − ∂x ∂y. . ∂ ∂ +i ∂x ∂y. . 1 ∂ 2u = ∆u ∂z∂z 4. Assim, outra forma de escrever a equação de Laplace ∆u = 0 é ∂ 2u =0 ∂z∂z. Teorema 2.2 (Teorema de Hopf). pacta e conexa. Seja. f. Seja. M. uma variedade Riemanniana orientável, com-. uma função diferenciável em. tante. Em particular, as funções harmônicas em são constantes.. M,. ∆f ≥ 0.Então f. é cons-. isto é, aquelas para as quais. ∆f = 0. M. tal que.

(47) 31. 2.3. O Teorema de Erbach e o Teorema de Hopf. Denição 2.5.. Seja. f. espaço normal de. f : Mm → M. em. p∈M. n. uma imersão isométrica. Denimos o primeiro. por. N1f (p) = {h(X, Y ); X, Y ∈ Tp M }. .. Claramente N (p) é um subespaço vetorial de T M e portanto dimN (p) ≤ n − m. O primeiro espaço normal também pode ser descrito como f 1. p. f 1. ⊥. N1f (p) = {ξ ∈ Tp M ⊥ ; Aξ ≡ 0}⊥. Proposição 2.5. (. Teorema de Erbach). .. Considere. métrica de uma variedade riemanniana conexa emanniana. n+p. (n + p)-dimensional M c. espaço normal. N1 (x). (n + l)-dimensional Ln+l. Denição 2.6. Seja M E. n-dimensional M n. uma imersão iso-. em uma variedade ri-. de curvatura seccional constante. c.. Se o primeiro. é invariante por transporte paralelo com respeito à conexão no -. brado normal e a dimensão de. dimensional e. n+p. ψ : Mn → M c. N1. é constante igual a. totalmente geodésica de. uma variedade. ξ. de. E. então existe uma subvariedade. , tal que. ψ(M ) ⊂ Ln+l .. n-dimensional de uma variedade Riemanniana m-. um subbrado do brado normal. normal se, para toda seção. n+p. Mc. l,. e todo vetor. T ⊥ M . Então E. X. tangente a. é dito paralelo no brado. M,. tivermos. ∇X ξ ∈ E .. Combinando a denição (2.6) e a proposição (2.5) temos o seguinte: Corolário 2.1. Seja M uma subvariedade de uma variedade Riemanniana m-dimensional Rm (c). completa, simplesmente conexa e de curvatura seccional constante. subbrado normal normal então. Nx1 ,. M. Rm (c).. E. de dimensão. gerado por. l. c.. Se existe um. que é paralelo no brado normal e o primeiro espaço. {h(X, Y ); X, Y ∈ Tx M },. está contido em. está contida em uma subvariedade totalmente geodésica. Ex. para cada. x ∈ M,. (n + l)-dimensional. de.

(48) Capítulo 3. Superfícies com curvatura Gaussiana constante e vetor curvatura média normalizado paralelo Este capítulo é reservado à demonstração do teorema principal. Mas primeiro faremos a demonstração o teorema auxiliar. 3.1. Demonstração dos Lemas. Nesta seção apresenteremos alguns resultados e demostraremos os lemas que serão utilizados na demonstração do teorema auxiliar. Seja M uma superfície analítica em uma variedade riemanniana R (c) completa, simplesmente conexa e de curvatura seccional constante c. Então é bem sabido que R (c) é analítica e é isométrica a uma das formas espaciais construidas em [3] [pag. 21 e 22]. Considere K , K, K os tensores curvaturas associados com ∇ , ∇ e ∇ . Vimos em (1.5) e (1.6) que para quaisquer campos de veotores tangentes X, Y, Z, W e campos normais ξ, η em M , as equações de Gauss e Ricci são, respectivamente, dadas por: m. m. 0. 0. N. ⊥. hK 0 (X, Y )Z, W i = hK(X, Y )Z, W i + hh(X, Z), h(Y, W )i − hh(Y, Z), h(X, W )i. hK N (X, Y )ξ, ηi = h[Aξ , Aη](X), Y i. 32. (3.1) (3.2).

(49) 3.1.. 33. Demonstração dos Lemas. Em (1.4) vimos que a derivada covariante de h é dada por: (3.3). (∇X h)(Y, Z) = ∇⊥ X (h(Y, Z)) − h(∇X Y, Z) − h(Y, ∇X Z). Uma vez que R reduzida a:. m. (c). tem curvatura seccional constante, a equação de Codazzi ca. (3.4) Por hipótese assumimos que M tem vetor curvatura média normalizado paralelo e portanto podemos considerar campos unitários e mutuamente ortogonais ξ , ..., ξ com ξ = . Então temos para cada campo X ∈ Γ(T M ) (∇X h)(Y, Z) = (∇Y h)(X, Z). 3. m. 3. H |H|. (3.5). ∇⊥ X ξ3 = 0.. Assim a equação (3.2) de Ricci nos dá: hK N (X, Y )ξ3 , ξr i = h[A3 , Ar ](X), Y i. como K. N. , teremos:. ⊥ ⊥ ⊥ (X, Y )ξ3 = ∇⊥ X ∇Y ξ3 − ∇Y ∇X ξ3 + ∇[X,Y ] ξ3 = 0 − 0 + 0 = 0. (3.6). [A3 , Ar ] = 0. para cada r = 4, ..., m onde A = A . Por outro lado, sendo ξ , ..., ξ uma base ortonormal do espaço normal T (M ), então H = P (trA )ξ e usando que ξ = obtemos: i. ξi. ⊥ p. 3. 1 2. m r=3. r. m. r. m. 3. H |H|. m. 1 1 1X 1X |H|ξ3 = (trA3 )ξ3 + (trAr )ξr ⇒ ( trA3 − |H|)ξ3 + (trAr )ξr = 0 2 2 r=4 2 2 r=4. Como ξ , ..., ξ são linearmente independentes, concluímos que: 3. m. trAr = 0 para r = 4, ..., m. (3.7). Combinando (3.6) e (3.7), vemos que se A não for proporcional à transformação identi3.

(50) 3.1.. 34. Demonstração dos Lemas. dade I em um ponto p ∈ M , então [A , A ] = 0 em p para todos r, s = 3, ..., m. De fato, como A é auto-adjunta e trA = 0 para todo r = 4, . . . , m, existe uma base ortonormal β tal que r. s. r. . r. .  a 0  [A3 ]β =  ; 0 b. . . .  x y  [Ar ]β =   y −x. .  p q  [As ]β =   q −p. e. Assim [Ar , As ] = 0 ⇔ [Ar ]β [As ]β = [As ]β [Ar ]β ⇔ xq = py. Mas, [A3 , Ar ] = 0 ⇒ [A3 ]β [Ar ]β = [Ar ]β [A3 ]β ⇒ ay = yb ⇒ (a − b)y = 0. Como A. 3. 6= λI. temos y = 0. Vale também que. [A3 , Ar ] = 0 ⇒ [A3 ]β [As ]β = [As ]β [A3 ]β ⇒ aq = qb ⇒ (a − b)q = 0. logo, q = 0. Assim vemos que xq = 0 = py, ou seja, [A , A ] = 0, para todo r = 3, . . . , m. Consequentemente obtemos de (3.6) o seguinte: r. Lema 3.1. de. Seja. M1 = {p ∈ M ; A3 = λI. em algum. s. λ ∈ R}.. Então. KN ≡ 0. sobre o fecho. (M − M1 ).. Considerando que ξ é paralelo a equação (3.3) nós dá: 3. h(∇X h)(Y, Z), ξ3 i = h∇⊥ X (h(Y, Z)), ξ3 i − hh(∇X Y, Z), ξ3 i − hh(Y, ∇X Z), ξ3 i = h∇⊥ X (h(Y, Z)), ξ3 i − hA3 (∇X Y ), Zi − hA3 (Y ), ∇X Zi. Como. . ⊥. ⊥ X h(Y, Z), ξ3 i = ∇⊥ (h(Y, Z)), ξ + (h(Y, Z)), ∇ ξ = ∇ (h(Y, Z)), ξ 3 3 3 X X X.

(51) 3.1.. 35. Demonstração dos Lemas. temos h(∇X h)(Y, Z), ξ3 i = Xhh(Y, Z), ξ3 i − hA3 (∇X Y ), Zi − hA3 (Y ), ∇X Zi. Sobre o interior de M que denotamos por int(M ), temos A (3.8), obtemos 1. 1. 3. = λI. (3.8). . Logo, usando. (∇X h)(Y, Z), ξ3 = X hh(Y, Z), ξ3 i − hλ∇X Y, Zi − hλY, ∇X Zi = X hA3 (Y ), Zi − λ h∇X Y, Zi − λ hY, ∇X Zi = X(λ hY, Zi) − λ(h∇X Y, Zi + hY, ∇X Zi) = λX hY, Zi + X(λ) hY, Zi − λX hY, Zi. o que implica,. (3.9). h(∇X h)(Y, Z), ξ3 i = X(λ)hY, Zi. De modo análogo, obtemos. (3.10). (∇Y h)(X, Z), ξ3 = Y (λ) hX, Zi. Da equação de Codazzi (3.4) temos que: (∇ e (3.10), obtemos:. X h)(Y, Z). . Então de (3.9). = (∇Y h)(X, Z). (3.11) Uma vez que (3.11) vale para quaisquer X,Y e Z tangentes a int(M ) vemos que λ é constante em cada componente de int(M ), pois (Xλ)hY, Zi = Y (λ)hX, Zi. 1. 1. X(λ)hY, Zi − Y (λ)hX, Zi = 0 ⇒ hX(λ)Y − Y (λ)X, Zi = 0 ⇒ X(λ)Y − Y (λ)X = 0. para todo X, Y, Z tangentes a int(M ). Logo, X(λ) = Y (λ) = 0, ou seja, λ é constante. 1.

(52) 3.1.. 36. Demonstração dos Lemas. A funçao hH, Hi é analítica em M e igual a λ em M . Veja 2. 1. m. 1X 1 H= (trAξi )ξi = (traA3 )ξ3 2 i=3 2. pois trA. r. = 0, r = 4, . . . , m. . Logo, . hH, Hi =. Como em M temos A 1. 3. = λI. 1 1 (trA3 )ξ3 , (trA3 )ξ3 2 2. segue que trA. 3. = 2λ. . 1 = (trA3 )2 4. , e daí. 1 hH, Hi = (2λ)2 = λ2 4. Tem-se então que hH, Hi ou é constante em toda M ou não é constante em qualquer aberto de M . No primeiro caso temos que o vetor curvatura média H é paralelo e aplicando o Teorema (2.1) de Chen e Yau, temos que M é uma superfície como descrita no teorema. No segundo caso, temos int(M ) vazio e portanto pelo lema (3.1) tem-se K anulandose em M. Estes fatos cam entao sumarizados no seguinte: N. 1. Lema 3.2.. Sob certas hipóteses do teorema auxiliar, ou. uma hiperesfera de. Rm (c). ou. M. M. é uma superfície mínima de. tem um tensor curvatura normal nulo.. Agora, nós assumimos que o tensor curvatura normal K de M é nulo. Seja T M o espaço normal de M em R (c) no ponto p ∈ M , colocamos N = {ξ ∈ T M ; hξ, Hi = 0}. Denimos uma aplicação linear γ entre N e o espaço das matrizes de ordem 2, simétricas: N. m. p. p. p. ⊥. ⊥. p. (3.12). γ(ξ) = Aξ. Consideremos O. p. = γ −1 (0). e N o espaço de N dado por 0. p. p. 0. Np = Np ⊕ Op ,. 0. Np ⊥Op.

(53) 3.1.. 37. Demonstração dos Lemas. Denimos M = {p ∈M; dimN = 0} e M = {p ∈ M ; dimN = 1}. Então M = M ∪ M . Além disso, é fácil ver que M é um subconjunto aberto de M . 0. 2. 2. 0. 3. p. 3. p. 3. Lema 3.3. Lema 3: O fecho de cada componente de int(M2 ) está em uma subvariedade totalmente geodésica e 3-dimensional de. Rm (c).. Uma vez que Imh = {h(X, Y ); X, Y ∈ X (M )} é um subbrado normal de dimensão 1 sobre M e também é paralelo, então pelo corolário (2.1) implica que cada componente conexão de int(M ) e assim seu fecho está uma subvariedade totalmente geodésica 3-dimensional de R (c).  Demonstração.. 2. 2. m. Lema 3.4.. O fecho de cada componente conexa de. mente geodésica e de dimensão 4 em. M3. está em uma subvariedade total-. Rm (c).. Consideremos uma componente conexa M de M . Considerando que = 1 para cada p ∈ M , podemos escolher um vetor ξ ∈ N . Assim temos : 0 3. Demonstração. 0. dimNp. 3. 0. 0 3. 4. Ar = 0,. p. (3.13). r = 5, ..., m. A partir de (3.3) obtemos: ⊥ h(∇X h)(Y, Z), ξr i = h∇⊥ X (h(Y, Z)), ξr i = −hh(Y, Z), ∇X ξr i. (3.14). Substituindo (3.14) em (3.4) temos: ⊥ hh(Y, Z), ∇⊥ X ξr i = hh(Y, Z), ∇Y ξr i. Colocando ∇⊥ X ξr. =. m X. ωrs ξs ,. r = 5, ..., m. (3.16). r = 3, ..., m. s=3. temos ω + ω = 0. Além disso, usando (3.5) vemos que ω partir de (3.15) e (3.16) chegamos a s r. r s. 3 r. (3.15). =0. . Consequentemente a.

(54) 3.1.. 38. Demonstração dos Lemas. (3.17) Uma vez que A é não-singular em M , tem-se de (3.17) que ω = 0 para cada r = 5, ..., m. Por outro lado, usando que ω = 0 e ω é anti-simétrico obtemos que ξ é paralelo. Concluímos portanto que Imh é um subbrado normal bidimensional e paralelo sobre int(M ). Assim, o corolário (2.1) implica que cada componente de M está em uma subvariedade 4-dimensional e totalmente geodésica de R (c).  ωr4 hA4 (Y ), Zi = ωr4 (Y )hA4 (X), Zi. 4. r = 5, ..., m 4 r. 3. s r. 4 3. 4. 3. 3. m. Lema 3.5. de. M3. Se. K. é identicamente nulo então ou. é toda a superfície. M2. é a superfície. M. inteira ou o fecho. M.. O subconjunto M é fechado em M . Se M é um subconjunto própio de M então M é um subconjunto não-vazio e aberto de M . Assuma que M tem interior nãovazio e p é um ponto comum aos bordos de int(M ) e M . Então devido ao anulamento de K a proposição (2.1) nos garante a existência de (m − 2) campos vetoriais ortonormais η , ..., η em uma vizinhança U de p ∈ M , sucientemente pequena tal que η é paralelo no brado normal. Além disso, uma vez que ξ é paralelo em M e ξ ∈ N é paralelo em M , a proposição (2.2) nos diz que podemos escolher η , ..., η em U tais que η = ξ em U e η = ξ em U ∩ M . Seja x , x um sistema de coordenadas isotérmicas em U , com o tensor métrico g dado por Demonstração.. 2. 2. 3. 2. 2. 3. N. 3. m. r. 0. 3. 3. 4. 3. 4. 4. 1. m. 3. 3. 3. 2. g = E((dx1 )2 + (dx2 )2 ). Consideramos X. j. =. ∂ ∂xj. e denimos:. L = h(X1 , X1 ); M = h(X1 , X2 ). Então de acordo com (2.15) e (2.16), obtemos: ∇⊥ X2. ∇⊥ X1. . L−N 2. . . L−N 2. . e N = h(X , X ) 2. 2. ⊥ − ∇⊥ X1 M = −E∇X2 H. (3.18). ⊥ − ∇⊥ X2 M = −E∇X1 H. (3.19).

(55) 39 Considerando que η é uma seção mínima no brado normal e ainda das equações (3.17) e (3.18) temos:   L−N ∂ ∂ ,η − hM, η i = 0 (3.20) ∂x 2 ∂x 3.2.. Demonstração do Teorema auxiliar:. 4. 4. 4. 2. ∂ ∂x1. 1. . L−N , η4 2.  +. Isso implica a analiticidade da função f (z), em que z = x  f=. L−N , η4 2. (3.21). ∂ hM, η4 i = 0 ∂x2 1.  − hM, η4 ii, i =. + ix2 √. , dada abaixo:. −1. Desse modo, devemos ter f ≡ 0 em U , uma vez que no subconjunto aberto e não-vazio U ∩ M a função f é nula. Em particular, temos então: 2. (3.22). hL, η4 i = hN, η4 i. Por outro lado, uma vez que η é uma seção mínima 4. (3.23). hL, η4 i + hN, η4 i = 0. Assim provamos que A Lema está provado. 3.2. η4. =0. em U ∩ M . Isso contradiz a denição de M e portanto o 3. 3. . Demonstração do Teorema auxiliar:. Nesta seção vamos demonstrar o teorema auxiliar. Teorema 3.1 (Teorema auxiliar). M Seja. Riemanniana. Rm (c),. igual a c. Se. M. uma superfície analítica em uma variedade. completa, simplesmente conexa e de curvatura seccional constante. tem vetor curvatura média normalizado paralelo, então ou. uma hiperesfera de. Rm (c). totalmente geodésica de. M. está em. como uma superfície mínima ou M está em uma subvariedade. Rm (c).. Para demonstrar o Teorema (3.1), observamos pelos lemas (3.2), (3.3) e (3.5) que uma das 3 armações seguintes é válida: Demonstração..

Referências

Documentos relacionados

Neste contexto, é muito importante a realização de um estudo do comportamento térmico de fornos intermitente tipo “paulistinha”, frente à conversão para o uso de

O presente trabalho teve como objetivo relacionar os afastamentos funcionais com os eventos de vida produtores de estresse (EVPE) dos servidores do Instituto Federal do

Pese embora todas as metas/produtos, no âmbito desta atividade, tenham sido alcançados importa referir que o Plano de Formação não foi executado na sua totalidade, devido ao facto

[r]

MAPA NÃO DIMENSIONAR NORTE Estrutura do Est acionamento Oeste Estrutura do Esta cionamento Norte Es tacionament o Est acionamento Est acionamento Estrutura do Esta cionamento

Viabilizar o aprendizado do idioma inglês na cidade de Orlando, com eficiência, segurança, diversão e muito conforto em sua estada, oferecendo acompanhamento

Analisando-se o percentual de consumo de madeira pelo setor moveleiro de Ubá e seguindo a classificação de estruturas de mercados elaborada por Caves (1982), constata-se que o

De acordo com os resultados apresentados na tabela 10, não houve correlação significativa entre os escores das escalas MASI e MELASQoL tanto no início quanto no final do tratamento..