• Nenhum resultado encontrado

algebra linear numerica

N/A
N/A
Protected

Academic year: 2018

Share "algebra linear numerica"

Copied!
123
0
0

Texto

(1)

Notas de Aula

´

Algebra Linear Num´

erica

Rodney Josu´

e Biezuner

1

Departamento de Matem´atica

Instituto de Ciˆencias Exatas (ICEx)

Universidade Federal de Minas Gerais (UFMG)

Notas de aula da disciplinaAlgebra Linear Num´´ erica do Curso de Gradua¸c˜ao em Matem´atica Computacional, ministrado durante o segundo semestre do ano de 2009.

30 de novembro de 2009

1E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/

(2)

Sum´

ario

0 Introdu¸c˜ao: Representa¸c˜ao de N´umeros Reais no Computador 3

0.1 Ponto Flutuante . . . 3

0.2 Erros de Arredondamento . . . 5

0.3 O Padr˜ao de Ponto Flutuante IEEE 754 . . . 5

0.3.1 N´umeros normalizados . . . 5

0.3.2 N´umeros denormalizados . . . 6

0.3.3 Outros valores num´ericos . . . 6

1 Matrizes Esparsas 7 1.1 Problema Modelo . . . 7

1.1.1 Problema de Poisson Unidimensional . . . 7

1.1.2 Problema de Poisson Bidimensional . . . 8

1.2 Matrizes Esparsas . . . 10

1.3 Implementa¸c˜ao Computacional de Matrizes Esparsas . . . 11

2 Invertibilidade de Matrizes Esparsas 13 2.1 Normas Matriciais . . . 13

2.2 Matrizes Diagonalmente Dominantes . . . 18

2.3 Teorema dos Discos de Gershgorin . . . 19

2.4 PropriedadeFC . . . 22

2.5 Matrizes Irredut´ıveis . . . 27

2.6 Exerc´ıcios . . . 29

3 M´etodos Iterativos Lineares 31 3.1 M´etodo Iterativos B´asicos . . . 32

3.1.1 M´etodo de Jacobi . . . 32

3.1.2 M´etodo de Gauss-Seidel . . . 33

3.1.3 M´etodo SOR . . . 33

3.1.4 Compara¸c˜ao da Velocidade de Convergˆencia dos Trˆes M´etodos no Problema Modelo . 34 3.1.5 M´etodo de Jacobi Amortecido . . . 35

3.2 An´alise de Convergˆencia dos M´etodos Iterativos Lineares . . . 36

3.2.1 Convergˆencia dos M´etodos Iterativos Lineares . . . 37

3.2.2 Velocidade de Convergˆencia dos M´etodos Iterativos Lineares . . . 40

3.2.3 Convergˆencia para Matrizes Sim´etricas Positivas Definidas . . . 42

3.3 Convergˆencia dos M´etodos Iterativos Lineares para Matrizes de Discretiza¸c˜ao . . . 44

3.3.1 Convergˆencia do M´etodo de Jacobi . . . 44

3.3.2 Convergˆencia do M´etodo de Gauss-Seidel . . . 50

3.3.3 Convergˆencia do M´etodo SOR . . . 52

3.3.4 Convergˆencia do M´etodo de Jacobi Amortecido . . . 59

(3)

3.4 Exerc´ıcios . . . 61

4 M´etodos de Proje¸c˜ao 62 4.1 Teoria Geral . . . 62

4.1.1 Representa¸c˜ao Matricial . . . 63

4.1.2 Minimiza¸c˜ao de Funcionais . . . 64

4.1.3 Estimativa do Erro em M´etodos de Proje¸c˜ao . . . 66

4.2 Caso Unidimensional: M´etodos de Descida . . . 67

4.2.1 M´etodos de Descida . . . 67

4.2.2 M´etodo da Descida Mais Acentuada . . . 68

4.3 Exerc´ıcios . . . 72

5 M´etodos de Subespa¸cos de Krylov 74 5.1 Motiva¸c˜ao . . . 74

5.2 Subespa¸cos de Krylov . . . 75

5.3 Algoritmo de Arnoldi . . . 76

5.4 Implementa¸c˜ao Pr´atica: M´etodos de Ortogonaliza¸c˜ao Est´aveis . . . 79

5.4.1 M´etodo de Gram-Schmidt Modificado (MGS) . . . 79

5.4.2 M´etodo de Gram-Schmidt Modificado com Reortogonaliza¸c˜ao (MGSR) . . . 82

5.5 M´etodo de Arnoldi para Sistemas Lineares . . . 83

5.6 Decomposi¸c˜ao QR via MGS . . . 85

5.7 Algoritmo de Lanczos e M´etodo do Gradiente Conjugado . . . 87

5.8 M´etodo do Gradiente Conjugado como um M´etodo de Descida . . . 91

5.8.1 Convergˆencia do M´etodo do Gradiente Conjugado em Aritm´etica Exata . . . 94

5.9 Velocidade de Convergˆencia do M´etodo do Gradiente Conjugado . . . 96

5.9.1 Polinˆomios de Chebyshev . . . 96

5.9.2 Velocidade de Convergˆencia do CG . . . 99

5.10 Exerc´ıcios . . . 101

6 O Problema do Autovalor 102 6.1 Caracteriza¸c˜ao Variacional dos Autovalores de uma Matriz Sim´etrica: Quociente de Rayleigh 102 6.2 M´etodo das Potˆencias . . . 105

6.2.1 M´etodo das Potˆencias Inverso . . . 107

6.2.2 M´etodo das Potˆencias com Deslocamento . . . 107

6.2.3 Itera¸c˜ao do Quociente de Rayleigh . . . 109

6.3 AlgoritmoQR. . . 110

6.3.1 Redu¸c˜ao de uma matriz a sua forma de Hessenberg . . . 111

6.3.2 Acelera¸c˜ao do algoritmoQR . . . 114

6.3.3 Implementa¸c˜ao pr´atica do algoritmoQR . . . 116

6.4 Itera¸c˜ao de subespa¸cos e itera¸c˜ao simultˆanea . . . 116

6.4.1 Equivalˆencia entre o Algoritmo QR e Itera¸c˜ao Simultˆanea . . . 118

6.4.2 Convergˆencia do AlgoritmoQR . . . 119

6.5 M´etodo de Arnoldi e Algoritmo de Lanczos . . . 119

6.6 O Problema de Autovalor Sim´etrico . . . 120

(4)

Cap´ıtulo 0

Introdu¸c˜

ao: Representa¸c˜

ao de

umeros Reais no Computador

Computadores digitais usam um n´umero finito de bits para representar um n´umero real, portanto eles podem representar apenas um subconjunto finito dos n´umeros reais, o que leva a dois tipos diferentes de limita¸c˜oes: (1) n´umeros representados n˜ao podem ser arbitrariamente grandes ou arbitrariamente pequenos; (2) existem lacunas entre os num´eros representados. Estas limita¸c˜oes f´ısicas levam respectivamente aos erros deoverf loweunderf low e aoserros de arredondamento.

Para discutir estes erros de maneira inteligente, introduzimos alguma terminologia. 0.1 Defini¸c˜ao. Definimos o erro absolutocausado por uma computa¸c˜ao por

Erro absoluto = |(valor calculado)−(valor exato)|.

Oerro relativocausado por uma computa¸c˜ao ´e definido por

Erro relativo = ¯ ¯ ¯ ¯

erro absoluto valor exato

¯ ¯ ¯ ¯.

O erro relativo permite comparar entre os erros cometidos de maneira significativa. Por exemplo, o erro absoluto entre 1 (valor exato) e 2 (valor calculado) e o erro absoluto entre 1.000.000 (valor exato) e 1.000.001 (valor calculado) s˜ao os mesmos. No entanto, o erro relativo no primeiro caso ´e 1, enquanto que o erro relativo no segundo caso ´e 10−6, expressando o fato intuitivo que o erro cometido no primeiro caso ´e muito

maior que o erro cometido no segundo caso. `As vezes o erro relativo ´e expresso como uma porcentagem: Erro percentual = [(erro relativo)×100] %.

Assim, o erro percentual no primeiro caso ´e 100%, enquanto que o erro percentual no segundo caso ´e 10−4= 0,0001%.

0.1

Ponto Flutuante

Na Matem´atica Pura, os n´umeros reais s˜ao infinitos, infinitamente grandes e infinitamente pequenos. N˜ao existe um n´umero maior ou um n´umero menor. Al´em disso, eles tamb´em s˜ao continuamente distribu´ıdos: n˜ao existem espa¸cos entre n´umeros reais, pois entre quaisquer dois n´umeros reais sempre existe outro n´umero real. Mais que isso, eles s˜ao distribu´ıdos uniformemente na reta real. Um n´umero real ´e infinitamente preciso:

(5)

os n´umeros depois do ponto decimal s˜ao infinitos (incluindo o 0). Em outras palavras, usando a base 10, n´umeros reais correspondem a s´eries da forma

a=a0+

∞ X

n=1

an

10n

ondea0∈Zean∈ {0,1,2,3,4,5,6,7,8,9}.

O padr˜ao para representar n´umeros reais em Matem´atica Computacional ´e o n´umero de ponto flutu-ante. N´umeros de ponto flutuante n˜ao s˜ao infinitos: existe um n´umero de ponto flutuante m´aximo e um n´umero de ponto flutuante m´ınimo. Existe um n´umero fixado de pontos flutuantes, logo existem espa¸cos entre eles. N´umeros de ponto flutuante de precis˜ao simples (tipo float) tem aproximadamente 8 d´ıgitos decimais significantes, enquanto que n´umeros de ponto flutuante de precis˜ao dupla (tipodouble) tem aprox-imadamente 17 d´ıgitos decimais significantes. O qualificativo “aproxaprox-imadamente” se refere ao fato que os n´umeros de ponto flutuante s˜ao armazenados no computador na base bin´aria, logo a convers˜ao da base bin´aria para a base decimal introduz alguma imprecis˜ao.

Um n´umero de ponto flutuante ´e armazenado internamente em duas partes: um significando e um expoente, semelhante `a nota¸c˜ao cient´ıfica.

Esta escolha de representa¸c˜ao garante que a distribui¸c˜ao dos valores representados em ponto flutuante n˜ao ser´a uniforme. Para entender isso, vamos assumir que o significando ´e limitado a um ´unico d´ıgito decimal e que o expoente ´e restrito aos valores −1,0,1. A tabela abaixo registra todos os n´umeros reais positivos que podemos representar:

−1 0 1

0 0

1 1×10−1= 0,1 1×100= 1 1×101= 10 2 2×10−1= 0,2 2×100= 2 2×101= 20

3 3×10−1= 0,3 3×100= 3 3×101= 30

4 4×10−1= 0,4 4×100= 4 4×101= 40

5 5×10−1= 0,5 5×100= 5 5

×101= 50

6 6×10−1= 0,6 6×100= 6 6

×101= 60

7 7×10−1= 0,7 7×100= 7 7

×101= 70

8 8×10−1= 0,8 8×100= 8 8

×101= 80

9 9×10−1= 0,9 9

×100= 9 9

×101= 90

O fato do espa¸co entre os valores em ponto flutuante aumentar em propor¸c˜ao ao tamanho dos n´umeros ´e que justifica o nomeponto flutuante. Uma representa¸c˜ao em que os espa¸cos entre os valores representados tem um tamanho fixo ´e chamada uma representa¸c˜ao emponto fixo.

0.2 Defini¸c˜ao. Definimos aprecis˜aode um ponto flutuante como sendo o n´umero de d´ıgitos significativos que ele possui em seu significando. A exatid˜aode um ponto flutuante ´e a sua aproxima¸c˜ao do valor exato.

Quanto mais d´ıgitos significativos um ponto flutuante possui, mais preciso ele ´e: odouble0.3333333333333333 ´e uma representa¸c˜ao mais precisa do n´umero real 1/3 do que ofloat 0.3333333. Por outro lado, ofloat

(6)

Rodney Josu´e Biezuner 5

0.2

Erros de Arredondamento

Quando um valor computado est´a entre dois valores represent´aveis, ele ser´a substitu´ıdo pelo valor represen-tado mais pr´oximo. Esta ´e a origem dos erros de arredondamento.

0.3 Defini¸c˜ao. Definimos o erro de arredondamentopor

Erro de arredondamento = |(valor representado)(valor exato)|.

0.4 Defini¸c˜ao. Um erro de cancelamento ´e um erro de arredondamento que ocorre quando a maioria dos d´ıgitos significativos s˜ao perdidos durante a subtra¸c˜ao de dois valores aproximadamente iguais.

0.3

O Padr˜

ao de Ponto Flutuante IEEE 754

Antes do padr˜ao IEEE 754 ser publicado em 1985, existiam muitos formatos de ponto flutuante implementa-dos em hardware e software, o que dificultava a portabilidade implementa-dos programas. Os resultaimplementa-dos obtiimplementa-dos variavam de uma m´aquina para outra. Atualmente, a maioria dos fabricadores aderem ao padr˜ao IEEE 754, fruto de uma coopera¸c˜ao hist´orica entre cientistas de computa¸c˜ao e desenhistas de chips de microprocessadores. A sigla “IEEE” significaInstitute of Electrical and Electronics Engineers.

Os formatos de precis˜ao aritm´etica simplesfloate dupladoubles˜ao armazenados em 32 bits e 64 bits, respectivamente. Cada formato divide um n´umero em trˆes partes: sinal(um bit),expoenteefra¸c˜ao. Os dois formatos diferem quanto ao n´umero de bits alocados para o expoente e para a fra¸c˜ao. No formatofloat 8 bits s˜ao alocados para o expoente e 23 para a fra¸c˜ao, enquanto que no formatodouble11 bits s˜ao alocados para o expoente e 52 para a fra¸c˜ao. O bit de sinal representa o sinal do n´umero: 0 para positivo e 1 para negativo. O expoente n˜ao possui sinal: para representar expoentes negativos, o padr˜ao adiciona um vi´es positivo; para obter o valor verdadeiro do expoente (sem vi´es), ´e necess´ario subtrair o vi´es. No formato de precis˜ao simples, o expoente com 8 bits pode armazenar valores (com vi´es) entre 0 e 255, mas 0 e 255 s˜ao reservados; o vi´es ´e 127, de modo que os valores verdadeiros (sem vi´es) do expoente variam entre126 e +127. No formato de precis˜ao dupla, o expoente com 11 bits pode armazenar valores (com vi´es) entre 0 e 2047, com 0 e 2047 s˜ao reservados; o vi´es ´e 1023, de modo que os valores verdadeiros (sem vi´es) do expoente variam entre1022 e +1023.

0.3.1

umeros normalizados

Representemos porso sinal,eo expoente ef a fra¸c˜ao. Quandoen˜ao ´e um valor reservado (isto ´e, 16e6254 no formatofloate 16e62047 no formatodouble) existe um algarismo 1 e um ponto bin´ario.impl´ıcitos `

a esquerda do primeiro bit def, de modo que o n´umero representado pors, e, f ´e o n´umero

n= (1)s×(1.f)×2E

ondeE=e127 (float) ouE =e1023 (double), chamado umn´umero normalizado. O algarismo 1 e o ponto bin´ario impl´ıcitos, juntamente com a parte fracion´ariaf, constituem o significando do n´umero, de modo que um n´umero de precis˜ao simples possui 24 bits no seu significando, enquanto que um n´umero de precis˜ao dupla possui 53 bits no seu significando.

Assim, o maior valor poss´ıvel em m´odulo para floatcorresponde a

s= 1,e= 254 ef = 11111111111111111111111,

ou seja,

23

X

i=0

1 2i ×2

127

(7)

enquanto que o maior valor poss´ıvel em m´odulo paradoublecorresponde a

s= 0,e= 2047 e f = 1111111111111111111111111111111111111111111111111111,

ou seja,

52

X

i=0

1 2i ×2

1023

≈1,7977×10308.

0.3.2

umeros denormalizados

Se e = 0 (um dos valores reservados) e f 6= 0, n´os temos o que se chama umn´umero denormalizado (ou

subnormal). Existe um algarismo 0 e um ponto bin´ario.impl´ıcitos `a esquerda do primeiro bit def, de modo que o n´umero representado pors, e, f ´e o n´umero

n= (−1)s×(0.f)×2E ondeE=−126 (float) ouE=−1022 (double).

Assim, o menor valor poss´ıvel em m´odulo parafloatcorresponde a

s= 0, e= 0 ef = 00000000000000000000001,

ou seja,

1 223 ×2

−126

≈1,4013×10−45,

um pouco menor do que o menor valor poss´ıvel 1×2−126 = 1,1755

×10−38 para umfloat normalizado,

correspondente a

s= 0, e= 1 ef = 00000000000000000000000.

O menor valor poss´ıvel em m´odulo paradoublecorresponde a

s= 0, e= 0 ef = 0000000000000000000000000000000000000000000000000001,

ou seja,

1 252 ×2

−1022

≈4,9407×10−324 um pouco menor do que o menor valor poss´ıvel 1×2−1022

≈2,2251×10−308para umdoublenormalizado,

correspondente a

s= 0, e= 1 ef = 0000000000000000000000000000000000000000000000000000.

A existˆencia dos n´umeros denormalizados permitem uma convergˆencia para zero menos abrupta. Quando os valores computados v˜ao se tornando menores e menores, atingindo o menor valor poss´ıvel para umfloat

oudoublenormalizado, ao inv´es de ca´ırem abruptamente para zero na pr´oxima itera¸c˜ao, eles s˜ao convertidos em n´umeros denormalizados.

No entanto, o espa¸co entre n´umeros representados no intervalo [1,2] ´e igual a 2−52

≈2.22×10−16; em

geral, no intervalo£2j,2j+1¤ o espa¸co ´e 2j

×2−52, de modo que o espa¸co relativo nunca excede 2−52.

0.3.3

Outros valores num´

ericos

See=f = 0, o valor num´erico ´e0 ou +0, dependendo des. Sef = 0 ee= 255 parafloatou see= 2047 para double, ent˜ao o valor num´erico ´eInfinityou +Infinity. Se f 6= 0 e e= 255 para float ou se

e= 2047 paradouble, ent˜ao independentemente do valor de 0 n´os temosNaN(Not a Number). Por exemplo, dividindo 0 por 0 resulta emNaN.

Em geral, no padr˜ao IEEE 754 uma opera¸c˜ao inv´alida produzNaN, divis˜ao por zero produz±Infinity,

(8)

Cap´ıtulo 1

Matrizes Esparsas

Matrizes esparsas s˜ao matrizes onde a imensa maioria das entradas s˜ao nulas. Esta ´e uma defini¸c˜ao vaga. N˜ao existe um limite inferior para o n´umero de zeros em uma matriz, em rela¸c˜ao ao tamanho desta, a partir do qual podemos declarar uma matriz com sendo esparsa. Isto ´e, n˜ao existe um limite preciso a partir do qual uma matriz deixa de ser esparsa e se torna uma matriz densa(isto ´e, uma matriz em que o n´umero de zeros ´e irrelevante). Em geral, matrizes esparsas s˜ao definidas operacionalmente, no sentido de que uma matriz pode ser chamada esparsa, sempre que t´ecnicas especiais podem ser usadas para tirar vantagem do grande n´umero de zeros e sua localiza¸c˜ao. Equa¸c˜oes diferenciais parciais s˜ao a maior fonte de problemas de ´algebra linear num´erica envolvendo matrizes esparsas. Engenheiros el´etricos lidando com redes el´etricas nos anos 1960s foram os primeiros a explorar a esparcidade das matrizes de coeficientes associadas aos problemas tratados para resolver sistemas lineares. Como os computadores tinham pouca capacidade de armazenamento e poder de processamento, e os problemas envolviam um n´umero enorme de vari´aveis, m´etodos de solu¸c˜ao direta que tiram vantagem da existˆencia de um n´umero muito grande de zeros tiveram que ser desenvolvidos.

1.1

Problema Modelo

Como fonte de matrizes esparsas, consideraremos o problema de resolver a equa¸c˜ao de Poisson com condi¸c˜ao de Dirichlet discretizada atrav´es de diferen¸cas finitas em uma e duas dimens˜oes, que fornece uma matriz esparsa sim´etrica.

1.1.1

Problema de Poisson Unidimensional

Considere o problema de Dirichlet para a equa¸c˜ao de Poisson no intervalo unit´arioI= (0,1): ½

−u′′=f(x) se 0< x <1,

u(0) =a,u(1) =b. (1.1)

Seja h >0. As expans˜oes de Taylor para uma fun¸c˜ao u`a direita e `a esquerda de um ponto x0 s˜ao dadas

respectivamente por

u(x0+h) =u(x0) +u′(x0)h+

1 2!u

′′(x

0)h2+

1 3!u

′′′(x

0)h3+. . . ,

e

u(x0−h) =u(x0)−u′(x0)h+

1 2!u

′′(x

0)h2−

1 3!u

′′′(x

0)h3+. . .

Se somarmos estas duas equa¸c˜oes, obtemos

u′′(x0) =

u(x0−h)−2u(x0) +u(x0+h)

h2 −

2 4!u

(4)(x 0)h2−

2 5!u

(6)(x

0)h4−. . . ,

(9)

o que fornece uma aproxima¸c˜ao para a derivada segundau′′(x

0) deuemx0:

u′′(x

0)≈

u(x0−h)−2u(x0) +u(x0+h)

h2

com erro

ǫ=−121 u(4)(ξ)h2=O(h2),

ondex0−h6ξ6x0+h. Esta aproxima¸c˜ao ´e chamada uma diferen¸ca centrada para a derivada segunda.

Divida o intervalo [0,1] em nsubintervalos de comprimentoh= 1/n atrav´es den−1 pontos interiores uniformemente espa¸cados:

x0= 0,x1=h,x2= 2h, . . . ,xn−1= (n−1)h,xn=nh= 1,

de modo que [0,1] = [x0, x1]∪[x1, x2]∪. . .∪[xn−1, xn]. Introduzimos a nota¸c˜ao:

ui=u(xi),

fi=f(xi).

Esta ´e umadiscretiza¸c˜ao uniformedo intervalo [0,1]. Uma vez discretizado o dom´ınio da equa¸c˜ao diferencial parcial, procedemos `a discretiza¸c˜ao desta ´ultima. Usando diferen¸cas centradas para cada ponto interiorxi,

16i6n1, temos

−ui−1+ 2ui−ui+1

h2 =fi. (1.2)

Esta discretiza¸c˜ao em diferen¸cas finitas para a equa¸c˜ao de Poisson ´e chamada f´ormula dos trˆes pontos. Portanto, para encontrar a solu¸c˜ao discretizada temos que resolver o sistema linear com n1 equa¸c˜oes a

n1 inc´ognitas:            

h−2(2u

1−u2) = f1+ah−2

h−2(

−u1+ 2u2−u3) = f2

.. .

h−2(

−un−3+ 2un−2−un−1) = fn−2

h−2(

−un−2+ 2un−1) = fn−1+bh−2

, ou seja, 1 h2          

2 −1

−1 2 −1

−1 . .. ... . .. ... 1

−1 2 1

−1 2                     u1 u2 .. . .. .

un−2

un−1

          =          

f1+ah−2

f2

.. . .. .

fn−2

fn−1+bh−2

          .

Esta ´e uma matriz tridiagonal, sim´etrica e esparsa.

1.1.2

Problema de Poisson Bidimensional

Considere o problema de Dirichlet homogˆeneo para a equa¸c˜ao de Poisson no quadrado unit´ario Ω = (0,1)×

(0,1) ½

−∆u=f(x, y) em Ω,

u= 0 sobre∂Ω. (1.3)

Discretizamos o quadrado Ω atrav´es dos pontos

(10)

Rodney Josu´e Biezuner 9

onde

h= 1

n,

produzindo amalha (ougride) uniforme

Ωd=©(x, y)∈Ω :x=i∆x, y=j∆y, 06i, j6nª.

A malha dos pontos interiores ´e dada por

Ωd={(x, y)∈Ω :x=i∆x, y=j∆y, 16i, j6n−1},

enquanto que a fronteira discretizada ´e o conjunto

∂Ωd={(x, y)∈∂Ω :x=i∆x, y=j∆y, 06i6n,06j6m}.

A equa¸c˜ao de Poisson

−uxx−uyy =f(x, y)

pode ser agora discretizada. Denotamos

ui,j=u(xi, yj),

fi,j=f(xi, yj).

Aproximamos cada derivada parcial de segunda ordem pela sua diferen¸ca centrada, obtendo

−uxx≈−

ui−1,j+ 2ui,j−ui+1,j

∆x2 ,

−uyy ≈−

ui,j−1+ 2ui,j−ui,j+1

∆y2 .

Portanto, a equa¸c˜ao de Poisson discretizada toma a forma

−ui−1,j−ui,j−1+ 4ui,j−ui+1,j −ui,j+1

h2 =fi,j. (1.4)

Como a fun¸c˜ao u ´e calculada em cinco pontos, esta discretiza¸c˜ao em diferen¸cas finitas para a equa¸c˜ao de Poisson ´e chamada af´ormula dos cinco pontos.

Para cada ponto interior da malha obtemos uma equa¸c˜ao, logo temos um sistema linear de (n1)2 equa¸c˜oes com o mesmo n´umero de inc´ognitas. Diferente do caso unidimensional, no entanto, n˜ao existe uma maneira natural de ordenar os pontos da malha, logo n˜ao podemos obter imediatamente uma representa¸c˜ao matricial para o problema discretizado. Precisamos antes escolher uma ordena¸c˜ao para os pontos da malha, e como existem v´arias ordena¸c˜oes poss´ıveis, existem v´arias matrizes associadas.

Talvez a mais simples ordena¸c˜ao ´e aordem lexicogr´afica. Nesta ordem, os pontos da malha s˜ao percorridos linha por linha, da esquerda para a direita, de baixo para cima:

u1,1, u2,1, . . . , un−1,1, u1,2, u2,2, . . . , un−1,2, . . . , u1,m−1, u2,m−1, . . . , un−1,m−1.

Neste caso, a matriz associada ao sistema linear ´e uma matriz (n−1)2×(n−1)2que pode ser escrita como uma matriz de (n1)2 blocos de dimens˜ao (n1)×(n1) na forma

A= 1

h2

         

B I

−I B I

−I . .. ...

. .. ... I

−I B −I

−I B

         

(11)

ondeI´e a matriz identidade (n1)×(n1) eB ´e a matriz (n1)×(n1) dada por

B=          

4 −1

−1 4 −1

−1 . .. ... . .. ... 1

−1 4 1

−1 4          

(n−1)×(n−1)

Observe que

aii= 4

para todo 16i6(n−1)2, enquanto que

aij =−1

se o pontoj´e vizinho `a esquerda ou `a direita do pontoi, ou se o pontoj´e vizinho acima ou abaixo do ponto

i.Por exemplo, se n= 4, temos

A= 1

h2

             

4 1 0 1 0 0 0 0 0

−1 4 1 0 1 0 0 0 0

0 1 4 0 0 1 0 0 0

−1 0 0 4 1 0 1 0 0

0 1 0 1 4 1 0 1 0

0 0 1 0 1 4 0 0 1

0 0 0 1 0 0 4 1 0

0 0 0 0 −1 0 −1 4 −1

0 0 0 0 0 −1 0 −1 4

             

Observe que a matrizA´e uma matriz sim´etrica, pentadiagonal e esparsa.

1.2

Matrizes Esparsas

Outros problemas de EDPs, especialmente aqueles envolvendo derivadas primeiras (tais como problemas de convec¸c˜ao-difus˜ao), em geral levam a matrizes n˜ao-sim´etricas. Discretiza¸c˜oes de outros tipos, tais como as encontradas em elementos finitos, levam a matrizes esparsas com outro tipo de estrutura. De qualquer modo, todos possuem em comum o fato de a matriz de discretiza¸c˜ao ser uma matriz esparsa.

Existem essencialmente dois tipos de matrizes esparsas: estruturadas e n˜ao-estruturadas. Uma matriz estruturada ´e uma em que as entradas n˜ao-nulas formam um padr˜ao regular, frequentemente ao longo de um n´umero pequeno de diagonais (tais como as matrizes que vimos no problema modelo na se¸c˜ao anterior). Os elementos n˜ao-nulos podem tamb´em estar organizados em blocos (submatrizes densas) de mesmo tamanho, organizadas ao longo de um n´umero pequeno de blocos diagonais. Discretiza¸c˜oes atrav´es de diferen¸cas finitas tipicamente d˜ao origem a matrizes esparsas com estruturas regulares. Uma matriz esparsa em que as entradas n˜ao-nulas s˜ao irregularmente localizadas ´e uma matriz esparsa irregularmente estruturada. Os m´etodos de volumes finitos ou elementos finitos aplicados a dom´ınios com geometria complexa em geral levam matrizes irregularmente estruturadas.

(12)

Rodney Josu´e Biezuner 11

1.3

Implementa¸c˜

ao Computacional de Matrizes Esparsas

Para tirar vantagem do grande n´umero de elementos nulos, esquemas especiais s˜ao necess´arios para armazenar matrizes esparsas na mem´oria do computador. O principal objetivo ´e representar apenas os elementos n˜ao-nulos.

O esquema mais simples de armazenamento ´e o chamadoformato de coordenadas. A estrutura de dados consiste de trˆes vetores (arrays): um vetor real contendo os valores e dois vetores inteiros, um deles contendo os ´ındices das linhas, enquanto que o outro cont´em os ´ındices das colunas.

1.1 Exemplo. A matriz

A=      

1 0 0 3 0 5 7 0 0 2 3 0 2 4 0 0 0 6 9 0 0 0 0 0 4

     

pode ser representada por

valueArray = 2 9 1 4 3 4 2 5 3 6 7 ,

rowIndexArray = 3 4 1 3 3 5 2 2 1 4 2 ,

columnIndexArray = 3 4 1 4 1 5 5 1 4 3 2 .

Cada vetor tem comprimento igual ao n´umero de elementos n˜ao-nulos da matriz. Observe que os elementos s˜ao listados em ordem arbitr´aria. ¤

Provavelmente, o formato mais popular para armazenar matrizes esparsas gerais ´e o formatocompressed row storage (CRS). Neste esquema, as linhas da matriz s˜ao armazenadas uma a uma em um vetor real, da primeira at´e a ´ultima, preservando a ordem. Um segundo vetor inteiro contendo os ´ındices das colunas ´e usado. Um terceiro vetor inteiro cont´em a posi¸c˜ao no vetor de valores reais ou no vetor de ´ındices de coluna onde cada linha come¸ca, mais um elemento para indicar a primeira posi¸c˜ao vazia dos dois vetores.

1.2 Exemplo. A matriz

A=      

1 0 0 3 0 5 7 0 0 2 3 0 2 4 0 0 0 6 9 0 0 0 0 0 4

     

pode ser representada no formato CSR por

valueArray = 1 3 5 7 2 3 2 4 6 9 4 ,

columIndexArray = 1 4 1 2 5 1 3 4 3 4 5 ,

rowPointerArray = 1 3 6 9 11 12 .

Enquanto o comprimento dos dois primeiros vetores ´e igual ao n´umero de elementos n˜ao-nulos da matriz., o comprimento do terceiro vetor ´e igual ao n´umero de linhas da matriz mais um. Dentro de cada linha os elementos ainda podem ser armazenados em ordem arbitr´aria, o que pode ser muito conveniente. ¤

(13)

C/C++ ou Java):

for( int i = 0; i < n; i++ )

{

lowerIndex = rowPointerArray[i]; upperIndex = rowPointerArray[i+1]; //loop over row i

for( int j = lowerIndex; j < upperIndex; j++ ) Av[i] += valueArray[j]* v[columArray[j]];

}

Um esquema correspondente, armazenando colunas ao inv´es de linhas ´e ocompressed column storage(CCS), usado no Octave.

Os esquemas considerados acima s˜ao chamados est´aticos. Esquemas dinˆamicos, envolvendo listas en-cadeadas, em geral economizam ainda mais mem´oria e tem acesso ainda mais r´apido `a mem´oria. Cada linha da matriz pode ser representada por uma lista encadeada. A matriz toda ´e representada por uma lista de listas encadeadas, seguindo a ordem de linhas da matriz. Desta forma, o in´ıcio de cada linha n˜ao precisa ser representado. O ´ındice da coluna de cada elemento da linha ainda precisa ser representado, ´e claro, e isso pode ser feito atrav´es de um ponteiro espec´ıfico.

(14)

Cap´ıtulo 2

Invertibilidade de Matrizes Esparsas

Neste cap´ıtulo desenvolveremos m´etodos gerais e f´aceis de aplicar para determinar a invertibilidade de ma-trizes esparsas, principalmente aquelas que surgem atrav´es da discretiza¸c˜ao de equa¸c˜oes diferenciais parciais atrav´es de diferen¸cas finitas. Em particular, isso implicar´a a existˆencia e unicidade de solu¸c˜oes para sistemas lineares envolvendo tais matrizes. Uma vez que isso esteja estabelecido, poderemos nos dedicar nos pr´oximos cap´ıtulos a estudar m´etodos iterativos para encontrar estas solu¸c˜oes.

2.1

Normas Matriciais

Lembramos o conceito de norma vetorial:

2.1 Defini¸c˜ao. Seja V um espa¸co vetorial real ou complexo. Uma norma vetorial em V ´e uma fun¸c˜ao

|·|:V −→Rque satisfaz as seguintes propriedades:

(i) |x|>0 para todox6= 0 e|x|= 0 sex= 0;

(ii) kαxk=|α| kxkpara todoxV e para todo αR;

(iii) (Desigualdade Triangular)kx+yk6kxk+kyk para todosx, yV.

Denotaremos por Mn(R) o espa¸co vetorial das matrizes complexasn×ne porMn(C) o espa¸co vetorial

das matrizes complexas n×n. Quando estivermos nos referindo a qualquer um destes espa¸cos (ou seja, quando a afirma¸c˜ao que fizermos valer para qualquer um deles), usaremos a nota¸c˜aoMn simplesmente.

2.2 Defini¸c˜ao. Uma norma matricial no espa¸co vetorial Mn ´e uma norma vetorial k·k:Mn −→Rque

satisfaz a propriedade submultiplicativa

kABk6kAk kBk (2.1)

para todas as matrizesA, BMn.

A seguir, veremos alguns exemplos das normas matriciais mais importantes emMn. A verifica¸c˜ao de que

as normas apresentadas constituem normas vetoriais ´e deixada como exerc´ıcio (Exerc´ıcio 2.1). 2.3 Exemplo. Normal1(norma da soma):

kAk1=

n

X

i,j=1

|aij|. (2.2)

(15)

De fato,

kABk1=

n X i,j=1 ¯ ¯ ¯ ¯ ¯ n X k=1

aikbkj

¯ ¯ ¯ ¯ ¯6 n X i,j,k=1

|aikbkj|6 n

X

i,j,k,l=1

|aikblj|= n

X

i,k=1

|aik| n

X

j,l=1

|blj|=kAk1kBk1.

¤

2.4 Exemplo. Normal2(norma euclidiana):

kAk2=

 

n

X

i,j=1

|aij|2

 

1/2

. (2.3)

Com efeito,

kABk22=

n X i,j=1 ¯ ¯ ¯ ¯ ¯ n X k=1

aikbkj

¯ ¯ ¯ ¯ ¯ 2 6 n X i,j=1 Ã n X k=1

|aik|2

! Ã n X

l=1

|blj|2

! =   n X i,k=1

|aik|2

    n X j,l=1

|blj|2

=kAk22kBk22.

A normal2 tamb´em ´e chamada mais raramente (e somente para matrizes)norma de Schur,norma de Frobenius ounorma de Hilbert-Schmidt. ¤

2.5 Exemplo. Normaslp:

De modo geral, dado p>1, definimos a norma matricial

kAkp=  

n

X

i,j=1

|aij|p

 

1/p

. (2.4)

¤

2.6 Exemplo. Norma l∞ modificada(norma do m´aximo modificada): A normal∞(norma do m´aximo)

kAk= max

16i,j6n|aij|

´e uma norma vetorial emMn mas n˜ao ´e uma norma matricial: por exemplo, se

A= · 1 1 1 1 ¸ , ent˜ao

A2= ·

2 2 2 2

¸

e portanto °

°A2°°= 2>1 =kAkkAk.

No entanto, um m´ultiplo escalar desta norma vetorial ´e uma norma matricial:

kAkn=n max

16i,j6n|aij|. (2.5)

Com efeito,

kABkn∞=n16maxi,j6n ¯ ¯ ¯ ¯ ¯ n X k=1

aikbkj

¯ ¯ ¯ ¯

¯6n16maxi,j6n n

X

k=1

|aikbkj|6n max

16i,j6n n

X

k=1

kAk∞kBk∞ =n(nkAk∞kBk∞) =nkAk∞nkBk∞=kABkn∞.

(16)

Rodney Josu´e Biezuner 15

2.7 Exemplo. Norma do operador:

Dada uma norma vetorial |·|emRn ouCn, ela induz uma norma matricial atrav´es da defini¸c˜ao

kAk= max

|x|=1|Ax|= max|x|61|Ax|= supx6=0

|Ax|

|x| . (2.6)

Aqui vemosAcomo um operador linear emRn ouCn, portanto cont´ınuo, de modo que o m´aximo de

A´e atingido na esfera e na bola fechada. Para ver que a primeira e a terceira defini¸c˜oes coincidem (de modo que o sup na terceira defini¸c˜ao ´e de fato um m´aximo), use o fato que

|Ax| |x| =

¯ ¯ ¯ ¯A µ x

|x|

¶¯¯ ¯ ¯.

Agora observe que

max

|x|=1|Ax|6|maxx|61|Ax|,

j´a que a bola fechada cont´em a esfera. Por outro lado, se|x|=ε <1, segue que ¯ ¯ ¯ ¯A µ x

|x|

¶¯¯ ¯ ¯= |

Ax|

|x| =

|Ax|

ε >|Ax|,

de modo que o m´aximo de|Ax|n˜ao ´e atingido no interior da bola, logo max

|x|=1|Ax|>max|x|61|Ax|

e portanto a primeira e a segunda defini¸c˜oes coincidem. Finalmente, para ver que a norma do operador ´e uma norma matricial, escreva

kABk= max

x6=0

|ABx| |x| = maxx6=0

µ

|ABx| |Bx|

|Bx| |x|

¶ 6 max

Bx6=0

|ABx| |Bx| maxx6=0

|Bx| |x| 6maxy6=0

|Ay| |y| maxx6=0

|Bx|

|x| =kAk kBk.

A norma do operador satisfaz a propriedade extremamente ´util

|Ax|6kAk |x| (2.7)

para todo vetorxRn ouCn. ¤

2.8 Exemplo. Norma do m´aximo das somas das linhas:

kAkL= max16i6n n

X

j=1

|aij|. (2.8)

Esta norma ´e a norma do operador induzida pela norma vetorial l∞. De fato, se x= (x1, . . . , xn),

temos

|Ax|= max

16i6n

¯ ¯ ¯ ¯ ¯ ¯ n X j=1

aijxj

¯ ¯ ¯ ¯ ¯

¯61max6i6n n

X

j=1

|aijxj|6 max

16i6n n

X

j=1

|aij| |x|∞=kAkL|x|∞, de modo que

max

|x|=1|Ax|∞6kAkL.

Supondo que ai-´esima linha deA´e n˜ao-nula, definimos o vetor y= (y1, . . . , yn)∈Cn por

yi=

  

aij

|aij|

seaij 6= 0,

1 seaij = 0.

(17)

o que implica|y|= 1,aijyj=|aij|e

max |x|∞=1

|Ax|>|Ay|= max

16i6n

¯ ¯ ¯ ¯ ¯ ¯

n

X

j=1

aijyj

¯ ¯ ¯ ¯ ¯

¯= max16i6n n

X

j=1

|aij|=kAkL.

¤

2.9 Exemplo. Norma do m´aximo das somas das colunas:

kAkC= max

16j6n n

X

i=1

|aij|. (2.9)

Esta norma ´e a norma do operador induzida pela norma vetoriall1. De fato, escrevendoAem termos

de suas colunas

A= [A1. . . An]

segue que

kAkC= max16j6n|Aj|1.

Sex= (x1, . . . , xn), segue que

|Ax|1=|x1A1+. . .+xnAn|16

n

X

i=1

|xiAi|1=

n

X

i=1

|xi| |Ai|16

n

X

i=1

|xi| max

16j6n|Aj|1

=kAkC

n

X

i=1

|xi|=kAkC|x|1,

donde

max |x|1=1

|Ax|16kAkC.

Agora, se escolhermosyj =ej, temos que|yj|1= 1 e

|Ay|1=|Aj|1

para todok, logo

max

|x|1=1|Ax|1>1max6j6n|Ayj|1= max16j6n|Aj|1=kAkC.

¤

2.10 Exemplo. p-normas:

Este ´e o nome geral para as normas do operador induzidas pela norma vetoriallpemRn ouCn. Para

distingui-las das normas matriciaislp no pr´oprio espa¸co vetorialMn, vamos denot´a-las por

|||A|||p = sup

x6=0

|Ax|p

|x|p

.

O caso especial da norma do operador induzida pela norma vetorial l2 (a norma vetorial euclidiana) ´e

tamb´em chamada anorma espectrale satisfaz

|||A|||2=pλmax= max

np

(18)

Rodney Josu´e Biezuner 17

De fato, A∗A´e uma matriz hermitiana logo todos os seus autovalores s˜ao n˜ao-negativos. Pela carac-teriza¸c˜ao variacional dos autovalores de uma matriz hermitiana temos

λmax= max

x6=0

hA∗Ax, x

i2

|x|22 = maxx6=0

|Ax|22

|x|22 .

Observe que a 2-norma ´e diferente da norma matricial l2 (Exerc´ıcio 2.3). Note tamb´em que se A ´e

uma matriz hermitiana, ent˜aoA∗A=A2 e

|||A|||2 ´e portanto o m´odulo do maior autovalor deA, isto ´e, a norma espectral deA ´e oraio espectral deA, definido como sendo o maior valor absoluto dos autovalores λ1, . . . , λn deA:

ρ(A) = max

i=1,...,n|λi|,

¤

2.11 Exemplo. Norma induzida por uma matriz invert´ıvel:

Sek·k´e uma norma matricial qualquer e seS ´e uma matriz invert´ıvel, ent˜ao

kAkS=°°S−1AS°° (2.10)

define uma norma matricial. Com efeito,

kABkS =

°

°S−1ABS°°=°°S−1ASS−1BS°°6°°S−1AS°°°°S−1BS°°=kAkSkBkS.

¤

Lembramos que todas as normas em um espa¸co vetorial de dimens˜ao finita s˜ao equivalentes, e isso vale em particular para normas matriciais:

2.12 Teorema. Seja V um espa¸co vetorial real ou complexo de dimens˜ao finita. Ent˜ao todas as normas vetoriais em V s˜ao equivalentes, isto ´e, se k·k1 e k·k2 s˜ao duas normas vetoriais quaisquer em V, ent˜ao existem constantes C1, C2>0 tais que

kxk16C1kxk2 e

kxk26C2kxk1 para todo x∈V.

Prova: Para mostrar a equivalˆencia entre todas as normas de um espa¸co vetorial, por transitividade basta fixar uma normak·k1e mostrar que qualquer norma arbitr´ariak·k2´e equivalente ak·k1. SejaB={e1, . . . , en}

uma base paraV, de modo que todo vetorx∈V se escreve na forma

x=

n

X

i=1

xiei

e definak·k1como sendo a normaℓ1 em rela¸c˜ao a esta base:

kxk1=

n

X

i=1

(19)

Ent˜ao, se k·k2´e uma norma qualquer em V, segue da desigualdade triangular que

kxk26

n

X

i=1

kxieik2= n

X

i=1

|xi| keik2

6 µ

max

i=1,...,nkeik2

Xn

i=1

|xi|

=C2kxk1,

onde denotamosC2= max

i=1,...,nkeik2.

Para provar a desigualdade reversa, considere a esfera unit´aria na norma da somaS={x∈V :kxk1= 1}.

A desigualdade anterior garante que a fun¸c˜aox7→ kxk2´e cont´ınua na topologia definida pela normak·k1e

portanto assume um valor m´ınimomno conjunto fechado e limitado (compacto)S. Necessariamentem >0: se existissee=

n

P

i=1

xiei∈S tal quekek2= 0, ter´ıamose=

n

P

i=1

xiei= 0, contrariando o fato que{e1, . . . , en}

´e um conjunto linearmente independente. Portanto, ° ° ° °kxxk

1

° ° ° °

2

>m

para todoxV, x6= 0. TomandoC1= 1/m, segue quekxk16C1kxk2 para todox∈V. ¥

2.2

Matrizes Diagonalmente Dominantes

2.13 Defini¸c˜ao. Dizemos que uma matrizAn×n ´ediagonalmente dominantese

|aii|> n

X

j=1

j6=i

|aij| para todoi= 1, . . . , n

eestritamente diagonalmente dominantese

|aii|> n

X

j=1

j6=i

|aij| para todoi= 1, . . . , n.

2.14 Lema. Seja A∈Mn. Se existe alguma norma matricial k·ktal quekIAk<1, ent˜ao A´e invert´ıvel.

Prova. De fato, sob esta condi¸c˜ao, afirmamos que a inversa ´e dada explicitamente pela s´erie

A−1= ∞ X

k=0

(I−A)k. (2.11)

Para todoN Npodemos escrever

A

N

X

k=0

(IA)k = [I(IA)]

N

X

k=0

(IA)k =

N

X

k=0

(IA)k

NX+1

k=1

(IA)k =I(IA)N+1.

Comok·k´e uma norma matricial, temos que ° °

(20)

Rodney Josu´e Biezuner 19

Logo, dekIAk<1 segue que

lim

N→∞(I−A)

N+1

= 0.

Portanto, tomando o limite quandoN → ∞, conclu´ımos (2.11). ¥

2.15 Corol´ario. Se AMn ´e uma matriz singular e k·k´e uma norma matricial, ent˜ao kIAk>1. Em

particular, se k·k´e uma norma matricial, ent˜ao kIk>1.

Prova. Para provar a segunda afirma¸c˜ao do enunciado, basta tomarA= 0.¥

2.16 Proposi¸c˜ao. Se A ´e uma matriz estritamente diagonalmente dominante, ent˜ao A´e invert´ıvel.

Prova. Denote por D a matriz diagonal cujas entradas diagonais s˜ao as entradas diagonais de A. Uma matriz estritamente diagonalmente dominante possui, por defini¸c˜ao, entradas diagonais n˜ao-nulas, logoD´e uma matriz invert´ıvel. A matriz D−1A tem apenas 1’s na diagonal principal e se mostramos que D−1A´e

invert´ıvel, isto implicar´a queA´e invert´ıvel. Para provar isso, considere a matrizID−1A. Temos

¡

I−D−1A¢ij= ½

0 sei=j,

−aij/aii sei6=j.

Usemos a norma do m´aximo das somas das linhas. Para cada 16i6ntemos

n

X

j=1

¯ ¯

¯¡I−D−1A¢ij¯¯¯=

n

X

j=1

j6=i

¯ ¯ ¯ ¯aaijii

¯ ¯ ¯ ¯= |a1ii|

n

X

j=1

j6=i

|aij|<1,

logo°°ID−1A°°<1 e o resultado segue do Lema 2.14. ¥

`

As vezes, exigir dominˆancia diagonal estrita em todas as linhas ´e pedir demais. Para certas matrizes, dominˆancia diagonal junto com dominˆancia diagonal estrita em apenas uma linha ´e suficiente para garantir a sua invertibilidade. As matrizes de discretiza¸c˜ao obtidas no cap´ıtulo anterior satisfazem esta condi¸c˜ao (nas linhas correspondentes `a pontos adjacentes `a fronteira), e nenhuma delas ´e estritamente diagonalmente dominante. Por outro lado, vale a pena ressaltar que esta condi¸c˜ao n˜ao ´e suficiente para estabelecer a invertibilidade de uma matriz em geral, como o exemplo

 

4 2 1 0 1 1 0 1 1

 

demonstra.

2.3

Teorema dos Discos de Gershgorin

A primeira ferramenta te´orica ´e o importanteTeorema dos Discos de Gershgorin. Ele decorre da seguinte observa¸c˜ao: se A ´e uma matriz complexa n×n, podemos sempre escrever A = D+B, onde D = diag (a11, . . . , ann) ´e a matriz diagonal formada pela diagonal principal deAeB consiste dos elementos restantes

de A, possuindo uma diagonal principal nula. Se definirmos Aε =D+εB, ent˜ao A0 =D eA1 =A. Os

autovalores deDs˜aoa11, . . . , ann, enquanto que os autovalores deAεdevem estar localizados em vizinhan¸cas

dos pontosa11, . . . , ann, desde queεseja suficientemente pequeno. O mesmo deve valer para os autovalores

da matrizA: eles devem estar contidos em discos centrados nos elementosa11, . . . , annda diagonal principal

se os discos s˜ao suficientemente grandes. O Teorema de Gershgorin d´a uma estimativa precisa e simples de calcular para os raios destes discos em fun¸c˜ao das entradas restantes da matrizA. Denote o disco complexo fechado de centro emae raioRpor

(21)

2.17 Teorema. (Teorema dos Discos de Gershgorin) Se AMn(C) e

Ri(A) = n

X

j=1

j6=i

|aij| (2.12)

denota a soma dos valores absolutos dos elementos da linha ideAexcetuando o elemento da diagonal principal, ent˜ao todos os autovalores de Aest˜ao contidos na uni˜ao dos ndiscos de Gershgorin

G(A) =

n

[

i=1

DRi(A)(aii). (2.13)

Al´em disso, se uma uni˜ao dekdestes discos forma uma regi˜ao que ´e disjunta dos nkdiscos restantes, ent˜ao existem exatamente k autovalores de Anesta regi˜ao.

Prova. Sejaλum autovalor de Aex= (x1, . . . , xn)6= 0 um autovetor associado. Sejakum ´ındice tal que

|xk|>|xj| paraj= 1, . . . , n,

isto ´e,xk ´e a coordenada dexde maior valor absoluto. Denotando por (Ax)k ak-´esima coordenada do vetor

Ax=λx, temos

λxk= (Ax)k = n

X

j=1

akjxj

que ´e equivalente a

xk(λ−akk) = n

X

j=1

j6=k

akjxj.

Da´ı,

|xk| |λ−akk|6 n

X

j=1

j6=k

|akjxj|= n

X

j=1

j6=k

|akj| |xj|6|xk| n

X

j=1

j6=k

|akj|=|xk|Rk(A),

ou seja,

|λ−akk|6Rk(A).

Isso prova o resultado principal do Teorema de Gershgorin (como n˜ao sabemos qual k ´e apropriado para cada autovalorλ, e um mesmok pode servir para v´arios autovaloresλ, tudo o que podemos afirmar ´e que os autovalores est˜ao na uni˜ao dos discos).

Para provar a segunda afirma¸c˜ao, escrevaA=D+B, ondeD= diag (a11, . . . , ann) e defina

At=D+tB

para 06t61. Note que

Ri(At) =Ri(tB) =tRi(A).

Para simplificar a nota¸c˜ao, assuma que a uni˜ao dosprimeiros kdiscos de Gershgorin

Gk(A) = k

[

i=1

DRi(A)(aii)

satisfazGk(A)∩[G(A)\Gk(A)] =∅. Temos

(22)

Rodney Josu´e Biezuner 21

logo,

Gk(At)⊂Gk(A)

e

Gk(A)∩[G(At)\Gk(At)] =∅

para 06t61. Porque os autovalores s˜ao fun¸c˜oes cont´ınuas das entradas de uma matriz, o caminho

λi(t) =λi(At)

´e um caminho cont´ınuo que liga λi(A0) = λi(D) = aii a λi(A1) = λi(A). Seja 1 6 i 6 k. Como

λi(At)∈Gk(At)⊂Gk(A), conclu´ımos que para cada 06t61 existemkautovalores deAtemGk(A); em

particular, fazendot= 1, obtemos queGk(A) possui pelo menoskautovalores deA. Da mesma forma, n˜ao

pode haver mais quekautovalores deAemGk(A), pois osn−kautovalores restantes deA0=Dcome¸cam

fora do conjuntoGk(A) e seguem caminhos cont´ınuos que permanecem fora deGk(A). ¥

A uni˜aoG(A) dos discos de Gershgorin ´e conhecida como aregi˜ao de Gershgorin. Observe que enquanto n˜ao podemos em geral afirmar com certeza que cada disco de Gershgorin possui um autovalor, a segunda afirma¸c˜ao do teorema permite-nos fazer tal conclus˜ao desde que os discos de Gershgorin sejam dois a dois disjuntos.

O Teorema dos Discos de Gershgorin permite entender o resultado da Proposi¸c˜ao 2.16: se uma matrizA´e estritamente diagonalmente dominante, ent˜ao os discos de GershgorinDRi(A)(aii) n˜ao interceptam a origem,

logo 0 n˜ao pode ser um autovalor para a matrizA, o que implica queA´e invert´ıvel. Al´em disso, se todos os elementos da diagonal principal deAs˜ao reais e positivos, ent˜ao os autovalores deAest˜ao localizados no semiplano direito deC, de modo que se A´e tamb´em sim´etrica, conclu´ımos que todos os autovalores de A

s˜ao positivos.

A aplica¸c˜ao mais ´obvia do Teorema dos Discos de Gershgorin ´e na estimativa dos autovalores de uma matriz. Usos mais refinados do Teorema de Gershgorin permitem obter conhecimento mais preciso sobre onde os autovalores da matriz se encontram e correspondentemente melhores estimativas para o raio espectral de uma matriz. Por exemplo, comoA eAt possuem os mesmos autovalores, existe um teorema dos discos

de Gershgorin equivalente para as colunas de uma matriz. Em particular, todos os autovalores deA est˜ao localizados na interse¸c˜ao destas duas regi˜oes: G(A)∩G(At). Isso implica a seguinte estimativa simples para o raio espectral de uma matriz complexa:

2.18 Corol´ario. Se A∈Mn(C), ent˜ao

ρ(A)6min   max

i=1,...,n n

X

j=1

|aij|, max j=1,...,n

n

X

i=1

|aij|

= min (kAkL,kAkC).

Prova. O ponto noi-´esimo disco de Gershgorin que ´e mais distante da origem tem m´odulo

|aii|+Ri(A) = n

X

j=1

|aij|

e um resultado semelhante vale para as colunas deA. ¥

O resultado do Corol´ario 2.18 n˜ao ´e surpreendente em vista do raio espectral de uma matriz ser menor que qualquer norma matricial (veja o pr´oximo cap´ıtulo). Um resultado melhor pode ser obtido uma vez que se observa que A eS−1AS tamb´em possuem os mesmos autovalores, qualquer que seja a matriz invert´ıvel

S. Em particular, quandoS =D = diag (p1, . . . , pn) ´e uma matriz diagonal com todos os seus elementos

positivos, isto ´e,pi>0 para todoi, aplicando o Teorema de Gershgorin `a matriz

D−1AD= µ

pj

pi

aij

(23)

2.19 Corol´ario. Se AMn(C)e p1, . . . , pn>0, ent˜ao todos os autovalores de A est˜ao contidos em

G¡D−1AD¢∩G¡DAtD−1¢=

n

[

i=1

      

z∈C:|zaii|6 1

pi n

X

j=1

j6=i

pj|aij|

      

(2.14)

n

[

i=1

    z∈

C:|zaii|6pj

n

X

i=1

i6=j

1

pi |

aij|

    .

Em particular,

ρ(A)6 min

p1,...,pn>0

  max

i=1,...,n

1

pi n

X

j=1

pj|aij|, max j=1,...,npj

n

X

i=1

1

pi |

aij|

. (2.15)

2.4

Propriedade

FC

Na nossa busca por propriedades para matrizes diagonalmente dominantes que garantir˜ao a sua invertibil-idade, uma observa¸c˜ao fundamental ´e a de quese A ´e uma matriz diagonalmente dominante, ent˜ao 0 n˜ao pode ser um ponto interior de nenhum disco de Gershgorin. De fato, se λ´e um autovalor deA interior a algum disco de Gershgorin ent˜ao devemos ter desigualdade estrita

aii|< Ri(A) = n

X

j=1

j6=i

|aij|

para algumi. Se 0 ´e um autovalor deAinterior a algum disco de Gershgorin, ent˜ao

|aii|< n

X

j=1

j6=i

|aij|

para algumieAn˜ao pode ser diagonalmente dominante na linhai.

Uma condi¸c˜ao equivalente para que um autovalorλdeAn˜ao seja um ponto interior de nenhum disco de Gershgorin ´e que

aii|>Ri(A) = n

X

j=1

j6=i

|aij| para todoi= 1, . . . , n.

Tais pontos λ na regi˜ao de Gershgorin G(A) (n˜ao necessariamente autovalores de A) constituem precisa-mente a fronteira ∂G(A) da regi˜ao de Gershgorin. Chamaremos a fronteira de um disco de Gershgorin

{zC:|zaii|=Ri(A)} umc´ırculo de Gershgorin.

2.20 Lema. Seja A Mn(C) e λ um autovalor de A que n˜ao ´e um ponto interior de nenhum disco de

Gershgorin. Seja x= (x1, . . . , xn)6= 0 um autovetor associado a λe kum ´ındice tal que

|xk|>|xj| para j= 1, . . . , n.

Se i´e qualquer ´ındice tal que

(24)

Rodney Josu´e Biezuner 23

ent˜ao o i-´esimo c´ırculo de Gershgorin passa por λ. Se, al´em disso,

aij6= 0,

ent˜ao

|xj|=|xk|

e o j-´esimo c´ırculo de Gershgorin tamb´em passa por λ.

Prova. Como na demonstra¸c˜ao do Teorema de Gershgorin, temos

|xi| |λ−aii|6 n

X

j=1

j6=i

|aijxj|= n

X

j=1

j6=i

|aij| |xj|6|xk| n

X

j=1

j6=i

|aij|=|xk|Ri(A) (2.16)

para todo ´ındicei. Logo, se|xi|=|xk|, temos

aii|6Ri(A).

Como por hip´otese

|λ−aii|>Ri(A)

para todo ´ındicei, segue que

|λ−aii|=Ri(A).

Em geral,|xi|=|xk|implica que as desigualdades em (2.16) s˜ao identidades; em particular, n

X

j=1

j6=i

|aij| |xj|=|xi| n

X

j=1

j6=i

|aij|

donde

n

X

j=1

j6=i

|aij|(|xi| − |xj|) = 0.

Esta ´e uma soma de termos n˜ao-negativos, pois |xi| > |xj|, logo se aij 6= 0 necessariamente devemos ter

|xj|=|xi|=|xk|. ¥

Este lema t´ecnico tem as seguintes conseq¨uˆencias ´uteis:

2.21 Teorema. Seja A ∈ Mn(C) uma matriz cujas entradas s˜ao todas n˜ao-nulas e seja λ um autovalor

de A que n˜ao ´e um ponto interior de nenhum disco de Gershgorin. Ent˜ao todo c´ırculo de Gershgorin de A passa por λ (isto ´e, λ est´a na interse¸c˜ao de todos os c´ırculos de Gershgorin de A) e se x= (x1, . . . , xn)6= 0´e um autovetor associado a λ ent˜ao

|xi|=|xj| para todos i, j= 1, . . . , n.

Prova. Decorre diretamente do lema anterior. ¥

2.22 Corol´ario. Se AMn(C)´e uma matriz cujas entradas s˜ao todas n˜ao-nulas e diagonalmente

domi-nante tal que |aii|> n

P

j=1

j6=i

(25)

Prova. Pois, comoA´e diagonalmente dominante, se 0 ´e um autovalor deAent˜ao 0 n˜ao pode ser um ponto interior de nenhum disco de Gershgorin. Por outro lado, pelo teorema anterior, segue que todo c´ırculo de Gershgorin passa por 0. Entretanto, oi-´esimo c´ırculo de Gershgorin centrado emaii e com raioRi <|aii|

n˜ao pode passar por 0. Conclu´ımos que 0 n˜ao ´e um autovalor deA, logoA´e invert´ıvel. ¥

As matrizes do Corol´ario 2.22 s˜ao as ant´ıteses das matrizes esparsas que nos interessam. Usando com maior cuidado a informa¸c˜ao dada pelo Lema 2.20 podemos obter resultados que se aplicam a matrizes esparsas.

2.23 Defini¸c˜ao. Dizemos que uma matrizA= (aij)∈Mn(C) satisfaz a propriedadeFC se para todo par

de inteiros distintos i, j existe uma seq¨uˆencia de inteiros distintosi1 =i, i2, i3, . . . , im−1, im=j, com

16m6n, tais que todas as entradas matriciais

ai1i2, ai2i3, . . . , aim−1im

s˜ao n˜ao-nulas.

Por exemplo, a matriz diagonalmente dominante n˜ao-invert´ıvel 

4 2 1 0 1 1 0 1 1

 ,

j´a vista anteriormente, n˜ao satisfaz a propriedadeFC porque o par 2,1 n˜ao admite tal seq¨uˆencia (a ´unica seq¨uˆencia poss´ıvel ´e a23, a31). J´a qualquer par de inteiros distintosi, j tal queaij 6= 0 admite a seq¨uˆencia

trivial n˜ao-nula aij, de modo que uma matriz cujas entradas n˜ao-diagonais s˜ao todas n˜ao-nulas satisfaz a

propriedadeFC. O significado da abreviatura “FC”, ou “fortemente conexo”, ficar´a claro mais adiante. 2.24 Teorema. Seja AMn(C)uma matriz que satisfaz a propriedade FC e sejaλum autovalor de Aque

n˜ao ´e um ponto interior de nenhum disco de Gershgorin. Ent˜ao todo c´ırculo de Gershgorin de Apassa por λ(isto ´e,λest´a na interse¸c˜ao de todos os c´ırculos de Gershgorin de A) e se x= (x1, . . . , xn)6= 0

´e um autovetor associado a λent˜ao

|xi|=|xj| para todos i, j= 1, . . . , n.

Prova. Sejax= (x1, . . . , xn)6= 0 um autovetor associado a λeium ´ındice tal que

|xi|>|xk| parak= 1, . . . , n.

Pelo Lema 2.20,

|λ−aii|=Ri(A).

Sejaj 6=i qualquer outro ´ındice ei1 =i, i2, i3, . . . , im−1, im=j, com 16m6n, ´ındices tais que todas as

entradas matriciais

aii2, ai2i3, . . . , aim−1j 6= 0.

Comoaii2 6= 0, segue da segunda afirmativa do Lema 2.20 que|xi2|=|xi|. Mas ent˜aoai2i3 6= 0 e portanto

|xi3|=|xi2|=|xi|. Prosseguindo desta forma, conclu´ımos que

|xi|=|xi2|=. . .

¯ ¯xim−1

¯ ¯=|xj|.

Em particular, segue novamente do Lema 2.20 que o j-´esimo c´ırculo de Gershgorin passa porλ. Comoj ´e arbitr´ario, isso prova o teorema. ¥

2.25 Corol´ario. Se A∈Mn(C)´e uma matriz que satisfaz a propriedade FC e diagonalmente dominante

tal que |aii|> n

P

j=1

j6=i

(26)

Rodney Josu´e Biezuner 25

Prova. Segue do teorema anterior da mesma forma que o Corol´ario 2.22 segue do Teorema 2.21. ¥ Vamos tentar entender melhor o significado da propriedadeFC. Note que ela se refere apenas `a localiza¸c˜ao dos elementos n˜ao-nulos deA fora da diagonal principal – os elementos da diagonal principal e os valores espec´ıficos dos elementos fora da diagonal principal s˜ao irrelevantes. Isso motiva as seguintes defini¸c˜oes: 2.26 Defini¸c˜ao. Dada uma matriz A = (aij) ∈ Mn(C) definimos o m´odulo da matriz A como sendo a

matriz

|A|= (|aij|)

cujos elementos s˜ao os m´odulos dos elementos da matrizA e amatriz indicadoradeAcomo sendo a matriz

M(A) = (µij),

onde

µij=

½

1 seaij 6= 0,

0 seaij = 0.

O conceito de uma seq¨uˆencia de entradas n˜ao-nulas da matrizAque aparece na defini¸c˜ao da propriedade

FC pode ser visualizado em termos de caminhos em um grafo associado aA:

2.27 Defini¸c˜ao. Dada uma matriz A∈ Mn(C), o grafo direcionado de A ´e o grafo direcionado Γ (A)

comnnodosP1, . . . , Pntais que existe um arco direcionado em Γ (A) dePiaPjse e somente seaij 6= 0.

Um caminho direcionado γ em um grafo Γ ´e uma seq¨uˆencia de arcos Pi1Pi2, Pi2Pi3, . . . em Γ. O

comprimentode um caminho direcionado ´e o n´umero de arcos sucessivos no caminho direcionado. Um

ciclo ´e um caminho direcionado que come¸ca e termina no mesmo n´o.

Dizemos que um grafo direcionado ´e fortemente conexo se entre qualquer par de nodos distintos

Pi, Pj ∈Γ existir um caminho direcionado de comprimento finito que come¸ca emPie termina em Pj.

Observe que quando Γ ´e um grafo direcionado com n nodos, se existe um caminho direcionado entre dois nodos de Γ, ent˜ao sempre existe um caminho direcionado entre estes dois nodos de comprimento menor que ou igual an1 (Exerc´ıcio 2.7).

2.28 Teorema. AMn(C) satisfaz a propriedade FC se e somente se Γ (A)´e fortemente conexo.

Agora estamos em condi¸c˜oes de verificar a invertibilidade das matrizes esparsas oriundas da discretiza¸c˜ao de EDPs atrav´es de diferen¸cas finitas:

2.29 Teorema. As matrizes de discretiza¸c˜ao do problema modelo s˜ao invert´ıveis.

Prova. E f´acil ver que as matrizes de discretiza¸c˜´ ao obtidas no cap´ıtulo anterior para o intervalo e para o quadrado s˜ao matrizes diagonalmente dominantes com dominˆancia diagonal estrita nas linhas correspon-dentes a pontos interiores adjacentes `a fronteira. Al´em disso, elas satisfazem a propriedadeFC. De fato, cada ´ındice i da matriz corresponde a um ponto interiorPi da malha e aij 6= 0 sempre quePi e Pj s˜ao pontos

vizinhos naqueles esquemas. Ent˜ao, dados dois pontos distintos Pi, Pj ´e f´acil encontrar uma seq¨uˆencia de

´ındicesi1=i, i2, i3, . . . , im−1, im=j, com 16m6n, tais que todas as entradas matriciais

ai1i2, ai2i3, . . . , aim−1im

s˜ao n˜ao-nulas: no caso unidimensional, basta percorrer a malha diretamente dePi at´ePj (andando a partir

de Pi sempre para a direita ou sempre para a esquerda, conforme o caso, at´e encontrar Pj), e no caso

bidimensional basta usar qualquer caminho interior dePi at´e Pj (pode-se usar a ordem lexicogr´afica para

percorrer a malha, ou a ordem lexicogr´afica inversa, dependendo das posi¸c˜oes relativas dePiePj; no entanto,

(27)

dois pontos da malha se e somente se eles s˜ao vizinhos, os esquemas de discretiza¸c˜ao considerados garantem que estes grafos s˜ao fortemente conexos. ¥

Verificar a propriedade FC a partir do grafo direcionado deA pode ser impratic´avel se o tamanho da matriz for muito grande ou se a matriz n˜ao tiver origem na discretiza¸c˜ao de um problema de EDPs. Existe um m´etodo computacional mais expl´ıcito para fazˆe-lo:

2.30 Teorema. Sejam A ∈ Mn(C) e Pi, Pj nodos de Γ (A). Existe um caminho direcionado de

compri-mento mem Γ (A)de Pi para Pj se e somente se

(|A|m)ij 6= 0

ou, equivalentemente, se e somente se

[M(A)m]ij 6= 0.

Prova. Provaremos o teorema por indu¸c˜ao. Para m= 1 a afirmativa ´e trivial. Param= 2, temos ³

|A|

ij = n

X

k=1

(|A|)ik(|A|)kj=

n

X

k=1

|aik| |akj|,

de modo que ³|A|

ij 6= 0 se e somente se aik, akj s˜ao ambos n˜ao-nulos para algum ´ındice k. Mas isso ´e

equivalente a dizer que existe um caminho direcionado de comprimento 2 em Γ (A) dePi para Pj.

Em geral, supondo a afirmativa provada param, temos ³

|A|m+1´

ij= n

X

k=1

(|A|m)ik(|A|)kj=

n

X

k=1

(|A|m)ik|akj| 6= 0

se e somente se (|A|m)ik, akj s˜ao ambos n˜ao-nulos para algum ´ındice k. Por hip´otese de indu¸c˜ao, isso ´e

equivalente a existir um caminho direcionado de comprimento m em Γ (A) de Pi para Pk e um caminho

direcionado de comprimento 1 em Γ (A) de Pk para Pj, isto ´e, um caminho direcionado de comprimento

m+ 1 em Γ (A) dePi paraPj. O mesmo argumento vale paraM(A). ¥

2.31 Defini¸c˜ao. Seja A= (aij)∈Mn(C). Dizemos que A >0 seaij >0 para todos 1 6i, j 6n e que

A >0 seaij >0 para todos 16i, j6n.

2.32 Corol´ario. Seja A∈Mn(C). Existe um caminho direcionado de comprimento m em Γ (A) de cada

nodo Pi para cada nodo Pj se e somente se

|A|m>0

ou, equivalentemente, se e somente se

M(A)m>0.

2.33 Corol´ario. Seja AMn(C). A satisfaz a propriedade FC se e somente se

(I+|A|)n−1>0

ou, equivalentemente, se e somente se

(28)

Rodney Josu´e Biezuner 27

Prova. Temos

(I+|A|)n−1=I+ (n−1)|A|+ µn

−1 2

|A|2+. . .+ µn

−1

n−3 ¶

|A|n−1+|A|n−1>0

se e somente se para cada par de ´ındices i, j comi 6= j pelo menos um dos termos |A|,|A|2, . . . ,|A|n−1

tem uma entrada positiva em (i, j). Pelo Teorema 2.30, isso ocorre se e somente se existe algum caminho direcionado em Γ (A) dePiparaPj com comprimento6n−1. Isto ´e equivalente aAsatisfazer a propriedade

FC. O mesmo argumento vale paraM(A). ¥

Em geral, a maneira como uma matriz foi obtida (como as nossas matrizes de discretiza¸c˜ao; veja a ´ultima se¸c˜ao do cap´ıtulo) torna clara se elas s˜ao matrizes que satisfazem a propriedade FC ou n˜ao. Se isso n˜ao ´e poss´ıvel, e pretende-se verificar a propriedade FC atrav´es do Corol´ario 2.33, ´e prefer´ıvel calcular [I+M(A)]n−1, j´a queM(A) ´e uma matriz composta apenas de 0’s e 1’s.

2.5

Matrizes Irredut´ıveis

`

As vezes, os resultados da se¸c˜ao anterior s˜ao formulados em termos de matrizes irredut´ıveis. Neste se¸c˜ao examinaremos esta formula¸c˜ao equivalente.

Lembre-se que umamatriz de permuta¸c˜aoP ´e uma matriz quadrada cujas entradas s˜ao todas 0 ou 1 e, al´em disso, em cada linha e em cada coluna deP existe exatamente um 1. Em particular,P ´e uma matriz ortogonal, de modo que P−1=Pt, isto ´e, a inversa deP tamb´em ´e uma matriz de permuta¸c˜ao. Um caso

especial de uma matriz de permuta¸c˜ao ´e umamatriz de transposi¸c˜ao, que ´e uma matriz de permuta¸c˜aoT

igual `a matriz identidade exceto em duas posi¸c˜oes, isto ´e, para algum par de ´ındices fixadok, l temos

Tij =

  

δij se (i, j)6= (k, l),(l, k),(k, k) ou (l, l),

1 e (i, j) = (k, l) ou se (i, j) = (l, k),

0 se (i, j) = (k, k) ou se (i, j) = (l, l).

Matrizes de transposi¸c˜ao s˜ao sim´etricas. O efeito de multiplicar uma matrizApor uma matriz de transposi¸c˜ao `

a esquerda ´e trocar a posi¸c˜ao de duas linhas da matriz A(no caso acima, as linhas k el), enquanto que a multiplica¸c˜ao deApor uma matriz de transposi¸c˜ao `a direita muda a posi¸c˜ao de duas colunas deA(no caso acima, as colunaskel).

T A=    

1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1

       

a11 a12 a13 a14

a21 a22 a23 a24

a31 a32 a33 a34

a41 a42 a43 a44

   =    

a11 a12 a13 a14

a31 a32 a33 a34

a21 a22 a23 a24

a41 a42 a43 a44

   , AT =    

a11 a12 a13 a14

a21 a22 a23 a24

a31 a32 a33 a34

a41 a42 a43 a44

       

1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1

   =    

a11 a13 a12 a14

a21 a23 a22 a24

a31 a33 a32 a34

a41 a43 a42 a44

   .

Pode-se provar que toda matriz de permuta¸c˜aoP ´e o produto de matrizes de transposi¸c˜aoP =T1. . . Tm;

em particular,Pt=T

m. . . T1. A matriz

PtAP =Tm. . . T1AT1. . . Tm

´e portanto obtida atrav´es da permuta¸c˜ao de linhas e colunas deA, de modo que nenhum novo elemento ´e criado ou algum elemento existente deA destru´ıdo.

2.34 Defini¸c˜ao. Dizemos que uma matrizA∈Mn(C) ´eredut´ıvelse existe alguma matriz de permuta¸c˜ao

P e algum inteiro 16m6n−1 tal que

PtAP = ·

B C

0 D

Referências

Documentos relacionados

chamam a atenção para o facto de o acesso a fontes de energia sustentáveis e a existência de preços de energia acessíveis constituírem um verdadeiro desafio para os países ACP;

Neste trabalho apresentamos uma implementa¸c˜ ao do M´ etodo das Solu¸c˜ oes Fundamentais (Method of Fundamental Solutions - MFS ) combinado com o M´ etodo dos Multipolos R´

Para a perfeita conservação de suas características alguns cuidados deverão ser seguidos, para tal, a Polipiso do Brasil desenvolveu este Manual de Manutenção,

Não se verificou nenhuma incandescência, nem a emissão visível da fonte que se situa na base do novo cone vulcânico, fonte que alimenta as frentes em Ilhéu de Losna.. A

belecendo-se, assim, os limites objetivos da lide, bem como descrever de forma precisa a causa de pedir fática e o pedido, identificando a tutela postulada (se cautelar ou

Em caso de vencimento extraordinário (em conformidade com o previsto nos “Final Terms” disponíveis para consulta em www.citifirst.com/PT ) o valor pecuniário

[r]

- Verifique a necessidade de vacinas exigidas para cada país antes de visitá-lo;. - Em caso de necessidade de apresentação de Certificado Internacional de Vacina Contra Febre Amarela,