• Nenhum resultado encontrado

Solução de um sistema linear mal-condicionado associado a equação do calor

N/A
N/A
Protected

Academic year: 2021

Share "Solução de um sistema linear mal-condicionado associado a equação do calor"

Copied!
94
0
0

Texto

(1)

D544s

15426/BC

SOLUÇAO DE UM SISTEMA LINEAR MAL-CONDICIONADO ASSOCIADO À EQUAÇÃO DO CALOR

Este exemplar corresponde a redação final da tese devidamente corrigida

e defendida pelo Sr. TOMÁS HUMBERTO

DIAZ VALE:NCIA e aprovada pela

Comissão Julgadora.

Campinas, 8 de janeiro de 1992

Profa. Dra.

~M ~~.

ck_

/Wok,

k[\>0

VERA LUCIA DA ROCHA LOPES

Orientadora

Dissertação apresentada ao Institu-to de Matemática, Estatfstica e

Ciência da Computação, UNICAMP,

co-mo requisito parcial para obtenção do TÍtulo de MESTRE em Metemática Aplicada.

(2)

SOLUÇÃO DE UM SISTEMA LINEAR MAL -CONDICIONADO

ASSOCIADO

À

EQUAÇÃO DO CALOR

TOMÁS HUMBERTO DÍAZ VALENCIA

IMECC - UNICAMP 1992

(3)

AGRADECIMENTOS

À

Profa. Dra. Vera LÚcia da Rocha Lopes pelas multas sugestões e correçoes feitas no meu trabalho e acima de tudo pela

-confiança brindada nas horas de consulta.

Ao Prof. Dr. José Vitória Zaga por me emprestar a sua área do

Vax para as práticas no laboratório e pela assistência na parte numérica da tese.

Ao Prof. Dr. João Frederico da Costa A. Meyer e Derivai I. de 01 i veira pelas facilidades brindadas no uso do Laboratório de

Matemática Aplicada do IMECC.

À Profa. Dra. Márcia Aparecida Gomes Ruggiero pelas valiosas

aulas de Métodos Computacionais em Algebra Linear.

Aos professores do Departamento de Matemática Aplicada, sem exceção, que contribuíram na minha formação profissional.

Ao pessoal da secretaria de PÓs-Graduação do IMECC pela constante ajuda na minha condição de estrangeiro.

A Angles de Fatima T. Espindola secretária do Departamento de Matemática Aplicada pela paciência e vontade na datilografia da tese.

Ao Fermfn e minha turma maravilhosa: Luiz, Li 1 ian, Di ornar, Bete, Gilli, Eduardo, Gustavo, Mardlio, Marco, Didi e Sandra pelas

alegrias e tristezas compartilhadas durante o perÍodo de 1989 até 1991. A todas aquelas pessoas anÔnimas que fizeram possf vel minha convivência universitária.

Às InstituiçÕes CAPES, UNICAMP E UNICAUCA pelo suporte financeiro.

(4)

NO HAY OLVIDO

(Poema) (

...

)

Si me preguntáis de dÓnde vengo, tengo que conversar con cosas rotas, con utensilios demasiado amargos, con grandes bestias a menudo podridas

.

y con mi acongojado corazon.

No son recuerdos los que se han cruzado

ni es la paloma amarlllenta que duerme en el olvido, sino caras con lágrimas,

dedos en la garganta,

y lo que se desploma de las hajas: la oscuridad de un d1a transcurrido,

de un dia alimentado con nuestra triste sangre. (

...

)

Pera no penetremos más aliá de esos dientes,

no mordamos las cáscaras que el silencio acumula,

porque no sé

qué

contestar:

hay tantos, muertos,

y tantos malecones que el sol rojo partia,

y tantas cabezas que golpean los buques,

y tantas manos que han encerrado besos,

y tantas cosas que quiero olvidar.

(5)

NÃO

ESQUECIMENTO

(Poema) (

...

)

Se me perguntar de onde venho,

terei que falar com coisas rompidas, com utensllios demasiados amargos,

com grandes bestas freqüentemente podres e com meu aflito coração.

Não sao recordações as que se cruzaram

nem e a pomba amarelenta que dorme no esquecimento senão caras com lágrimas,

dedos na garganta, e o que cai das folhas:

a escuridão de um dia transcorrido

de um dia alimentado com nosso triste sangue. (

...

)

Mas não penetremos além desses dentes,

não mordamos as cascas que o silêncio acumula, porque não sei que responder:

tantos mortos,

e tantos diques que o sol vermelho partia e tantas cabeças que batem os navios, e tantas mãos que encerraram beijos

e tantas coisas que quero esquecer.

(6)

ÍNDICE

INTROD!l;AO

CAPÍTULO I: Um sistema Linear Associado a Equação do Calor

1.1 As Origens do Problema . . . • . . • . . • • . 01

1.2 Os PrincÍpios Extremos Duais e a Equação do Calor .•..•... 02

1.3 Os Fundamentos Matemáticos do Problema ...•..•..•..•..•.. 05

1.4 Aproximação da Solução do Problema ... 06

1.5 Mau-Condicionamento do Problema ...•... tt CAPÍTULO II : Teoria Geral do Método dos Gradientes Conjugados e seus Pré-Condicionadores 2. 1 Introdução . . . 14

2. 2 Métodos Iterativos em Geral. . . • . . . • . . . 14

2. 3 Método de Máxima Descida • . . . . • . • . . . • . . • . . • . . . • . . . 16

2. 4 Método dos Gradientes Conjugados ...•..•..•..•... 20

2.5 Pré-Condicionadores por Decomposição Completa .•..••....•..• 34

2.6 Pré-Condicionadores por Decomposição Incompleta •..•..•.••.• 4S CAPÍTULO III: Alguns Pré-Condicionadores por Decomposição Incompleta no Método dos Gradientes Conjugados 3.1 Uma Classe de Decomposições Incompletas ...••.••.••.•..•. 56

3.2 Solução do Problema Inicial .••.•..•.•..•...••.•...•.•.... 60

CAPÍTULO IV: Implementação Computacional e Resultados Numéricos 4.1 Nota Preliminar ...••... ! ...••••••••••••••.. 64

4.2 Comparação dos Diferentes ICCG .•...•....•... 68

(7)

CAPÍTULO y, Conclusões e Desenvolvimentos Futuros ... 77

(8)

INTRODUÇÃO

O estudo que vamos fazer se propÕe a dar solução ao sistema linear que resultou da dlscretização, por Elementos Finitos, de

princf-pios extremos duais aplicados

à

equação do calor

au

8

2 u com cond1-8x2

at

=

-çoes de fronteira u(O, t)

=

u(l, t) =O e condição inicial u(x, O)

.,._ u (x). D

Tal sistema é muito mal-condicionado e uma primeira tentativa de solução pelo método dos gradientes conjugados sem pré-condicionamen-to levou-nos a resultados pessimistas.

O sucesso dos métodos aqui expostos, que dão solução ao sistema, é devido a três sugestÕes chaves que gostaríamos de salientar:

1) Aproveitamento da esparsldade da matriz;

2) Normalização da matriz e emprego de precisão dupla;

3) Uso das decomposiçÕes de Choleski incompletas como

pré-condicionadoras no método dos gradientes conjugados.

A primeira Ioi Iornecida por Vera Lopes. Baseados nesta fizemos uma rotina que chamamos de BANDA 7 que faz o produto da matriz do sistema por um vetor aproveitando ao máximo a esparsidade da matriz. Com ela descobrimos que nesta simples operação, básica no método dos gradientes conjugados, Íamos acumulando muito erro nos cálculos.

A segunda :foi proporcionada por José Vi tório Zaga ao ter conhecimento dos maus resultados que obtivemos no começo.

A terceira

é

de novo sugestão de Lopes. Assim enfrentamos o

estudo dessas decomposições e fizemos testes que depois de alguns arranjos, aproveitando a esparsidade da matriz, nos conduziram a resultados promissores.

Com respeito ao conteúdo do trabalho podemos dizer que:

O primeiro capítulo faz ênfase nas contribuiçÕes de Zaga e de Lopes [ 16] na ut i 1 ização dos prindpios extremos duais para aproximar solução da equação do calor, chegando até o sistema que originou esta tese.

(9)

O segundo capítulo faz um estudo geral do método dos gradientes conjugados e seus pré-condicionadores para resolver sistemas lineares esparsos onde a matriz do sistema é simétrica posltlva definida. Nesta parte utilizamos pré-condicionadores da forma C = EET, sendo EET a decomposição de Choleski usual de C ou uma decomposição de Choleski incompleta de A. É incluÍda também a análise da convergência do método e limitantes para o erro em cada iteração nos dois casos de decomposiçÕes.

O terceiro cap1 tu lo dá os fundamentos básicos de Meijerlnk [18] e [19] e Kershaw [14] com relação às decomposições incompletas usadas em combinação com o método dos gradientes conjugados para resolver sistemas lineares. No final do capítulo, seguindo estes pesquisadores, resolvemos o sistema mencionado acima.

O quarto capítulo apresenta resultados numéricos e comentá-rios referentes a nossas experiências na solução do sistema linear.

Uma parte final, quinto capítulo, sobre conclusões e linhas de pesquisas futuras como continuação e enriquecimento de nosso problema é incluÍda.

Finalmente querÍamos acrescentar que na escrita deste material houve momentos fugazes, fronteira do efêmero com o eterno, em que tentamos unir Ciência e Literatura da maneira como já o fizeram Sigmund Freud, o pai da psicanálise e Bertrand Russel o ilustre filÓsofo e matemático inglês, ganhador do prêmio Nobel de Literatura. Talvez não o tenhamos conseguido, mas estamos certos que tivemos muito prazer nesta atividade.

(10)

CAPÍTULO I

UM SISTEMA LINEAR ASSOCIADO A EQUAÇÃO DO CALOR

1.1 AS ORIGENS DO PROBLEMA

O problema resolvido nesta tese tem suas origens mais remotas

na dissertação de Zaga [30]. onde ele aplica os prinCÍpios extremos duais estabelecido por Noble e Sewell em 1972 [21] para aproximar solução da equaçao do calor:

au

b( t J

au

~x

[ a(x,t)

au ]

+ q(x, t),

at

+

ax

=

ax

u(O.tl

=

u(l.t)

=

o.

a(x, t) > O Vx E (0, !), Vt E (0, T), (I. 1) u(x,O)

=

u (x).

o

Os ditos princípios, resumidos abaixo, sao usados para

-problemas com uma estrutura Hamiltoniana generalizada:

=

{

r'v

(I. 2)

Tw

onde T e T são operadores lineares fechados adjuntos e X( v, w)

é

um funcional sobre H x H , convexo em, v e côncavo em w. H e H sao

-v w v w

espaços de Hilbert com produtos internos(,) e<,>, respectivamente.

Definindo os dois novos funcionais Ja e K~ por:

K

13

(v,w) =(v,

BYa)-

X(v,w), (I. 3)

podemos resumir os princípios extremos duais, baseados na interpretação de Lopes [16], no seguinte:

(11)

TEOREMA 1' Se X(v,w) é convexo em v e côncavo em w, então para qualquer solução (Y,WJ de (2) temos:

a) J (V,WJ e a solução de a b) K~(V,W) é a solução de { min J (v,w) a • sujeito a T v = 8~w { max Kf3(v, w), Tw =

8Yav ,

1.2 OS PRINCÍPIOS EXTREMOS DUAIS E A EQUAÇÃO DO CALOR

Zaga [30], visando aproximar solução da equação· do calor, leva (1.1) ao sistema (1.2) e, usando os princÍpios extremos duais de Noble

e Sewell, chega

à

seguinte formulação:

a) Princlpio do mlnimo onde { minJ(w,w) a 1 2 sujeito

à

restrição R 1 1 T

- J

J

q 1(x,t)w1(x,t)dtdx + o o aw 2 [ 8/

J

]cttdx aw Bw

a

[acx.

tl aw

]+q

2(x,t) 1 + b(t) 1 2

m

ax

=

ax

e R'

ax

1 w 1 (x,OJ + w2(x,O) = u (x) o w (l,t) = w 1(0,t) =

o

1

(12)

b) Princlpio do máximo e R o 2 sendo w = o. 5{u+v) 1 q 1 0.5(q+r) e a equaçao adjunta

a

v - b(t) av at

ax

v(O,t) = v(l,t) v(x, T) = v 0 (x) aw aw [a(x,t) aw 2 b(t) 2

a

ax1]

+ ql(x,t), at"" +

ax

=

ax

w 1 (x, T) - w2(x, T) = v0(x), w 2{1,t) = w2(0,t) =

o .

de = = w

=

O. 5(u-v) 2 q 2 = 0.5(q-r) (l.l)o

a

[a(x,t)

av

J

+r(x,t),

ax

ax

o

'

o

t :o;; T, a(x,t) >

o

Vx E (0, 1] ' Vt E (0, T].

sao quaisquer funções de quadrado integrável. ( 1. 4)

Aliás v

0(x) e r(x,t)

Lopes [ 161 introduz algumas simplificações ao fazer v (x) =0, o

r(x,t) ~ O e consegue demonstrar que os princfpios extremos duais para a equação (1.1) podem ser reformulados como segue:

(13)

ã)

Princlpio do mlnimo sendo, e { minJ(w,w) a 1 2 sujeito

à

restrição

R

1 1 T -0.5

I I

q(x,t)w 1(x,t)dtdx o o { Bw Bw - 1 1 R: - + b ( t ) - = 1

at

ax

w (1,t) = w (O,t) 1 1

~x

[a(x,t) =

o

0)

Princlpio do máximo sendo, 1 T + 0.5

J J

q(x,t)w 2(x,t)dtdx o o Bw2 ] - +

ax

2

1 q(x,t)

(14)

e

{

aw

aw

- z z R' - + b[t) - = 2

at

âx

w

2[!,tl

=

w

2[0,t)

~x

[a(x,t) : :1 ] + 0.5 q(x,t),

=

o .

1.3 OS FUNDAMENTOS MATEMÁTICOS DO PROBLEMA

onde

1

X H ,

'

No passo seguinte Lopes [ 16] define o espaço de Hilbert X vai trabalhar. Ela escolhe um apropriado subespaço fechado X em H1

X

H: " { p[x, t) e L2[[0,1) x [0, T))

I

ap

ax

e L2[[0,1) x [O,T))}.

' t d H1 e'

Assim X sera Hilber uma vez fique prova o que Hilbert, X

o que ela faz com detalhe.

Na próxima etapa define uma forma bilinear 5 sobre X x X, mostrando que ela é continua e coerciva:

e y ~ (W

1

,~

2

) elementos de X, define 1 T [

aw

S(x,y) =

I I

a(x, t)

a/ .

o o

aw

1 - +

ax

z z ôw

ôW

l

âx .

ax

dtdx

+ +

J

1 [ w (x,T)W (x,T) + w (x,O)W (x,o)]dx. ' 2 2 2 2 o

Logo aplicando o teorema de Riesz (veja, por exemplo, Céa [5], obtém, S(x,y) = < x,Ry > e 1

J

0 u 0(x)w2(x,O)dx

=

< b,x >,

(15)

para certo operador R e o vetor b.

Daqui mostra que achar max K0 (w ,w ) é equivalente a resolver

p 1 2

o sistema Rx

=

b, que possui solução Única. Isto decorre da aplicação

do Lema de Lax-Mllgram e seu corolário (veja [5]). De maneira

semelhante pode-se trabalhar o problema do mfnimo de J (w ,w ). ~ 1 2

!.4 APROXIMAÇÃO DA SOLUÇAO DO PROBLEMA

No capítulo II de sua tese, Lopes [16] encara a questão de

aproximar solução para a equação do calor, em espaços de dimensão

finita, desenvolvendo os cálculos para o caso particular onde b(t)

=

O,

q(x,t) =O, a(x,t)

=

1. Disto obtém,

onde,

au

at

u(O,t) = u(l,t) =O O!:t::sT,

Daí, os princÍpios extremos duais ficam: max K(3 (w 1

,w)

sujei to a

{

aw 8 2 w 2 1 at

=

Bx

2 w 2(0,tl = w2(1, t)

=

o,

( !. 5)

(16)

e min J ( w , w ) " 1 2 sujeito a

{

aw 82w 1 2

=

at 8x2 w 1(o,tJ

=

w1(l,t)

=

O, u (x) - 2 u (x)w (x,O) 2 + w 2 (x,O) dx.

J

o o 1 1

Como fez anteriormente, ela trabalha lá com o prindpio do máximo, apenas.

A aproximação é feita com funções chapéu em t e B- spllnes cÚbicas em x. As funções chapéu constituem um espaço {~ (t}} de funçÕes

1 onde, t - t I -1 t s t s t llt I -1 I ~I ( t) = t t (!. 6) I+ I t t s t llt I s I+ 1

o

t < t ' t > t I -1 I

Em nosso caso os tl sao pontos de uma malha de (O,T].

As funções B- splines constituem um outro espaço de funções

{S (z)} onde, 3 I (z 3 6z 2

6

+ + 12z + 8) - 2 s 2 s - I I (- 32 3 - 62 2 + 4) - I s z s

o

S 3(z)

=

6 I (3z 3 62 2 4)

o

I

6

-

+ s z < I (- 3 + 62 2 122 + 8); I 2

6

2 - s 2 <

(17)

Já que nosso intervalo para x é [0, 1], devemos aplicar as correspondentes fÓrmulas de transformação. O leitor interessado nas propriedades destes espaços de funções, dados acima, pode consultar Prenter, P.M. [23].

Lopes e Zaga tomam as aproximações w

1

espaços da seguinte forma:

e w nos referidos 2 N M w (x,t) 1

=L L

i =1 J =1 C i j f' J (t)w I (x), w i (O)

=o

Vi tendo-se ~ (x) I intervalos. Das relações

w

(x,t) 2 '

s (

3 X

âx i). apos feita a transformação

e

w

2(D,t) =

w

2(l,t) =O derivamos, M í' c ~ (t)~" (x). L l J j I J =1 \}!' ' (o) I =

w; • (

1

J

=

o, . v1.

Agora teremos K/3 == Kf3(C 11, ... ,C1M,C21, ... ,C2M, ... ,CN1, ... ,CNM), ou

crito mais breve, K~

=

K~(C

1

J). Portanto, - 0.5

1 T[ N M

]2

-o.sff

L

LC

1 f(tJW;"<xl dtdx o o 1=1 J=l J J - 0.5

M

í' C

f

(T)~'' (x)

]2

dx L i j J I J =1

1[ N M

]2

- O. 5

f

L L

C 1 f

(O)~;'

(x) dx o i =1 J =1 J J

1

[ N M

]2

+

f

uo (x)

L L

c

i 1/:J (O)t,/J;' (x) dx. o i = l j = 1 J J dos (L 9) es-(L 10)

Para achar max Kf3(C

(18)

depois de alguns cálculos e arranjo de termos, pode ser escrita na forma de um sistema linear Ax = b,

A = X = AA BB

o

o

o

o

c

c'

2 BB AI BB

o

o

o

C N.Mxl M Ju li!'' o 1

.fu

li!'' o 2 Ju 11''' O N Nxl

o

BB AI 88

o

o

com C = J e

sendo, AA, BB, Al matrizes NxN,

o

o

88 AI

o

o

o

88 •

c

c''

2J e C Nx1 Nj

o

o

o

88

o

b

=

Nxl AI 88 b b' 2

o

o

o

o

88 AA b HHx1 M j

=

2, ... ,M • AA = (aa ) , 88 = (bb ) , AI = (ai ) , mi mi mi (!.li) aa = mi lltJ 1 + - - W'''(x)llt'''(x)dx 3 i m o 1

•J

~·'

(xH'' (x)dx, i m o 1 i bb = - .!_J li!' (x)W' (x)dx + AtJ 11'''' (x)W''' (x)dx, ml At 0 i m 6 0 1 m

(19)

al :oc mi 1 4ât

J

W'''(x)W'''(x)dx. 6 0 1 m

No capitulo I Lopes [16] demonstra o seguinte teorema que nos permitirá escrever a aproximação da solução de (1.1)

TEOREMA.2: Se w (x,t) e w (x,t) são funções suficientemente

1 2

regulares que satisfazem

aw

1 + b( t)

at

w 1(1,t) w 2(1, t)

aw

1

ax

o

a

ax

w 1(0,t) =O ow(O,t)oQ 2 [ a(x, t)

aw

ax

2 ] +

e (w ,w) minimizao funcional J de ã) , então

1 2 a

u(x,t)

e solução da equação (1. 1).

Com isso, para um nó genérico (x.e, tk) solução e dada por,

N M o

l:

1 :::1 í' C ~ (t )'li" Cx,) + L 1J J k 1 (.. j=l I 2 q(x,t) a proximação da

Fazendo alguns cálculos algébricos e aplicando

~· ( t ) a k fica afinal: = lim f/>'(t) , a t-7t-IX k k-1, k, k+1 '

(20)

2 311t

-

Ax2 I

l [

c

i-t,k

+c

.f-t,k

l

-+C 1 +l,k-1

].ou

(1.12) se aplicapmos ~'(t)

=

a • t 11m 7 t + ~'(t), a 2

=

k-1, k, k+l ficará, + 2 3At + k

2Jc

!J.x2 fk I t:.x2

-

c

+ I

l [

66t t-t,k

-

1

-rc

+

4c

+

c

J .

sót

L

t-t,k+l e,k+l e.t,k+l

c

t+l,k

l

+ (I. 13)

Lopes [16] encerra o capítulo I I com o teorema da convergência do método de aproximação:

- k k

Seja Uk a soluçao de max K~(w

1

,w

2

) no espaço NM-dimensional

\ e U a solução de max Kn(w , w ) no

" 1 2

demonstra que U ---7 U, mostrando que D k

espaço X. Ela

=ÔXédenso

k=l k

em X pois no teorema 4 do capítulo I, tinha provado que: Se {Xk}

é

uma sequência de sub-espaço de X tais que

00 '

-D "" v X e denso em X , entao Uk ----7 U D = span

[[~;~;;'l<>x), ~,!tl<~<;'(x)Jl·

1.6 MAU-CONDICIONAMENTO DO PROBLEMA

Nossa matriz A obtida na seção anterior resulta ser esparsa, tridiagonal por blocos, simétrica positiva definida e cada bloco é banda 7. No entanto ela apresenta sérios problemas numéricos no cálculo. Por exemplo, ao fazer o produto de A por um vetor, ordem

(21)

de A sessenta, achamos que o erro máximo no produto está entre 10 e 20, usando precisão simples. Isto nos remete a seguinte questão:

Suponha que vamos resolver o sistema linear Ax = b, onde A

é

uma matriz não singular, como em nosso caso; qual é o efeito sobre a solução x, se A e b sofrem uma pequena perturbação?

Se õx, õA, õb são as perturbações em x, A e b, respectl vamente e A(x+Ox) = b + ôb (supondo õA pequeno), pode-se provar que, salvo uma

quantidade desprezível,

ltôxlt [ óA

ifXil ~ k(A) IIAII +

~~li

k(A) = IIAIIIIA-111. (1.14) k(A)

é

chamado o número de condição de A. Esta expressão está nos dizendo que para /5A e ôb pequenos o erro relativo, no cálculo da solução, depende fortemente de k(A). Se k(A) tem valores moderados (em cujo caso dizemos que A é bem condicionada), pequenas perturbações em A e/ou b produzem uma pequena perturbação na solução. Se pelo contrário, k(A) e relativamente grande (agora dizemos que A é mal-condicionada}, pequenas perturbações em A e/ou b, podem produzir perturbações

catastróficas na solução. Na prática, com o computador, a forma que o numero de condição afeta os dados depende também da · precisão da máquina.

O lei ter interessado em aprofundar mais estes assuntos pode consultar FORSYTHE [B] e [7], NOBLE [20] e GOLUB [9]. Neste Último é apresentado um algoritmo para estimar o número de condição, dado por CLINE, MOLER, STEWART E WILK!NSON (1979).

Para a matriz A da seção 1.4 calculamos o número de condição para vários tamanhos, usando norm dois tal que k(A} é o quociente entre o maior e o menor autovalor de A. Da{ obtivemos para:

A 2lx21 k(A) e da ' ordem de

w'

• A 45x45 k(A) e

.

da ordem do 106

(22)

Todos estes fatores servem para explicar o mal condicionamento de nosso problema.

Nos dois capítulos seguinte apresentaremos a teoria e algumas técnicas, que nos permitirão encarar o mal-condicionamento de A.

(23)

CAPÍTULO II

TEORIA GERAL DO MÉTODO DOS GRADIENTES

CONJUGADOS E SEUS PRÉ-CONDICIONADORES

2.1 INTRODUÇÃO

Desde sua descobe&ta independentemente por Hestenes e Stiefel em 1952, o Método dos Gradientes Conjugados tem apresentado eflclêncla

e simplicidade êffi inúmeros problemas que levam

à

resolução de um sistema linear, cativando a atenção de muitos pesquisadores em conexão com assuntos numéricos. Estas suas duas virtudes principais foram assinaladas com ênfase por seus descobridores na introdução de [10).

O método dos gradientes conjugados

é

a grosso modo, um método iterativo para resolver sistemas lineares com matrizes simétricas

positivas definidas e está intimamente ligado ao método iterativo de Máxima Descida. Os métodos iterativos são muito úteis na resolução de sistemas lineares esparsos de grande porte, principalmente porque eles são fáceis de programar, pode-se armazenar só os elementos não nulos da matriz, podem ser usados para re:finar soluções obtidas por métodos diretos, fornecem um bom chute inicial para a solução de certos problemas, nao precisamos calcular mais casas decimais que as requeridas. Por isso faremos nas duas seções segui-ntes um breve resumo ou curto estudo destes métodos.

Nas seções 2.3, 2.4 e 2.5 seguiremos na sua essência [3], [13), [171 e na 2.6 usaremos [181.

2. 2 MÉTODOS ITERATIVOS EM GERAL

Uma opção para resolver tanto problemas 1 ineares quanto não lineares é aplicar algum método iterativo. Um método iterativo, em geral, partindo de um chute inicial x0 para a solução vai gerando uma

(24)

sequência de aproximaçÕes para a solução.

1

X, X , . • . , 2 que em princfpio devem convergir

De maneira abstrata um método iterativo para resolver um sistema linear

Ax = b,

pode se definir como funções ~

0

• ~

1

, . . • • ~k+l'''' onde

veja [29].

k+t o 1 k

x =~ (x,x, ... ,x;A,b),k=O,l, ... k•1

Mui to conhecidos sao

-

os chamados métodos iterativos estacionários lineares básicos: Método de Jacobi, Método JOR ("Jacobi Overrelaxation Method) associado ao Método de Jacobi, Método de Gauss-Seidel, Método SOR (Successive overrelaxation),

Richardson e Método de RichardSon Generalizado.

Todos eles podem ser colocados na forma geral,

xk+l = Gxk + f, k .:..0,1, ...

para alguma matriz G nxn e algum vetor f.

Método de

(2. I)

Em conexão com um método iterativo há duas questões fundamentais a resolver: por um lado o assunto da convergência da

' · { 0 1 k }

sequenc1a x , x , ... , x • . . . para qualquer chute inicial x ; por outro o lado a rapidez ou taxa de convergência da mesma.

Um resultado muito importante

é

que o método iterativo definido por (2.1) converge se e somente se p(G) < 1, onde p(G)

é

o raio espectral de G definido por

(25)

p(G) = max

1

sendo Ã1 autovalor de G. l:S!:Sn

(2.2)

Para um aprofundamento do aqui exposto recomendamos em ordem de pcofund!dade dos temas tratados [11). [2), [22). [27] e [29].

2. 3 MÉTODO DE MÁXIMA DESCIDA

Sejam

s

c ~n. A uma matriz nxn simétrica e f:

s _____.

~ o

dado por f(x) 1 T T n b E !Rn fixo

funcional = - X Ax - b X +,C, X E IR , onde 2

e c E IR. Diz-se neste caso que f é um funcional quadrático.

Visto que gradiente de f, no caso que tenha derivadas parcia-is de primeira ordem contínuas, é Ax - b, conclulmos que encontrar um ponto estacionário para f (isto é achar X tal que 'i7f(XJ

=

0) e

.

equivalente a resolver o sistema Ax - b

=

O. O gradiente de um funcional quadrático f será simbolizado por g (g(x)

=

'i7f(x}

=

Ax-

b).

Um conceito ligado a um funcional quadrático, em nosso caso, que tem a ver com a interpretação geométrica do comportamento dos métodos numéricos para achar o mÍnimo do funcional, é a noção de superflcie de nlvel.

Para o funcional dado acima o conjunto,

Lk

= {

X E S; f(x)

=

k, k E flSJl (2.3)

é uma superflcie de nlvel para cada k.

Resultados dO cálculo vetorial mostram que se x E L , então k

g(x) é ortogonal a Lk em x e g(x) aponta na direção que f cresce mais rapidamente. Assim temos que o gradiente prÓximo de um mínimo de f aponta para fora.

Agora, seja A uma matriz simétrica positiva definida e 5

=

IRn. Queremos dar uma idéia do comportamento que apresentam as superf1cie de nlvel de f numa vizinhança de um ponto estacionário X de

(26)

onde

ê

Para isto reescrevemos f como,

f(x) = :_ (x - X) T A(x - 5/.:) + ê,

2

T•

= - 1/2 b X + C.

(2.4)

Mas o fato de A ser simétrica, positiva definida implica que existem um conjunto {i\ }n de autovalores de A positivos e uma base

1 1=1

ortonormal de autovetores associados {v }n em IRn. Assim a matriz V

=

1 1=1

J ' ( T( • '

[v , ... , v e ortogonal e se A = diag i\ , ... , i\ ) e z = V x - x) entao,

1 n 1 n AV = VA e f(x) = f(X +Vzl r(z) I (Vz)TA(Vz) • = =

2

+ c I zT(VTAV)z

.

=

2

+ c I zTAz

.

= + c, 2 I n

/:Àz

2 =

2

I I + c, z : l =1 Logo, se f(x) = k >

ê

tem-se onde K = 2(k -

ê}

> O. n I" À z2 =

R,

L

1 1 I =1 (z , ... , z I n )

.

(2.5)

A expressão (2.5) diz que as curvas de nível de um funcional quadrático associado a uma matriz simétrica positiva definida são elipsoides.

Para efeitos de nossa análise definamos agora:

Dk = inf { sup llx - yll / inf llx - yll},

y E S x E L x E L

k k k

(2.6)

(27)

a medida de distorção de Lk. De (2.6) temos uma esfera. Supondo O< À ~À ~ . . . ~À

I 2 n

queD ~leD =1seL é

k k k

encontramos para Lk dado em

(2. 6)'

À

Dk = n = k(A).

\

(2.7)

Já podemos dizer, segundo (2.7) e o significado de número de condição de uma matriz, que os métodos numéricos para achar o mfnlmo de um funcional se comportam melhor quando as superffcies de nfvel numa vizinhança do domÍnio .forem esferas ou próximas a esferas, e são mal comportados se elas mostrarem muita distorção. Isto é, se elas diferem muito de esferas.

Com os concel tos que precedem passamos a descrever o método de máxima descida:

Para minimizar o funcional quadrático associado a uma matriz simétrica definida positiva usamos iteraçÕes do tipo

onde Tk e sorte que, k+l k k X

=

X + T d, k

=

0,1,,,., k ' t · - - d

um parame ro e d e um vetor ou direçao e busca. k

Queremos escolher d de maneira que f diminua e

min T ~ O k k f(x + -rd ). (2.8) achar Tk de (2.9) TEOREMA 2. 3.1

Seja f: ~n - - 7 ~ o funcional quadrático f(x) = 1 ' '

2 xAx-b x +c associado a urna matriz A simétrica positiva definida. Para achar o mfnimo de f usando o método de máxima descida descri to pelas equaçÕes (2.8) e (2.9) tomamos:

(28)

(2.10)

(2. 11)

k k

sendo g o gradiente de f e g

=

g(x ), k

=

0,1, . . . .

PROVA'

Pelo teorema de Taylor do cálculo vetorial tem-se

f(x +h)

=

f(x) + gT(x)h +O (llhlll. (2.12)

Escolhendo em (2.12) x = xk h

=

rkd , vem k

Para f diminuir devemos ter f{xk+l) < f(xk), Isto acontece

se:

T k k

g (x )d < O, (2.13)

e T

é

convenientemente pequeno para ser

k

dk

= -

g(xk) satifaz (2.13).

Isto prova que f diminue na direção de menos o gradiente e

- k '

-mais ainda: entre todas as direçoes de busca em x essa e a direçao segundo a qual f dimunue mais rapidamente. De fato, se minimizarmos as

k T k ~

derivadas direcionais em x dadas por g (x )y, onde y com llyrt = 1 e a direção de busca, de

lsT(x•lyl ~ llg(x'lllllyll = llg(x'lrr,

(29)

Para provar (2.11), em (2.9) fazemos d [f(xk+ -rdk)}

=

O

dT e

aplicando uma das regras da cadeia do cálculo vetorial escrevemos,

o

= T

=

(Axk - b) Tdk + Tdk Adk. Então fazendo T = T k k Se prova que d

=

O k resulta (2.11), sempre que d ~O.

só acontecerá quando a solução

tiver sido alcançada (veja {3]). A mesma referência pode ser consultada para o assunto relacionado com a análise da convergência do método de máxima descida.

2. 4 MÉTODO DOS GRADIENTES CONJUGADOS

Nos propomos de novo achar o mfnirno do funcional quadrático

f(x) = I

2

T T n

X Ax - b X + c, X E IR , (2. 14)

onde A é uma matriz simétrica positiva definida, usando iteraçÕes do tipo k+l k k X

=

X + T d , k

=

0, 1, ... k selecionando Tk como em (2. 11) e k•l - g ' k =

o,

1, ... (2. 15) (2. 16) o o ~ "' k k+l onde d = - g e {3

0, {l1, . , . deverao ser tais que as direçoes d , d

(30)

norma em ~n e introduzimos a seguir:

Sejam x, y E ~n e A uma matriz rum simétrica positiva

definida, então define-se,

LEMA 2.4.1 < x, y > A T = X Ay, li XII A 1/2 = < X, X >A . (2.17) (2.18)

As expressões (2.17) e (2.18) definem respectivamente um produto interno e uma norma em ~n.

É suficiente verificar estas propriedades:

< x, x > ~o. e < x, x > = O se e somente se x

=

O, A A < X + y, Z > = < X, Z > + < y, Z > , A A A llxiiA < À.X, 'J > = i\ < X, y > , A A ~ O e llxll = O se e somente se x = O, A llx + yll :::; llxll + llyll , A A A (2. 19) (2.20) (2.21) (2.22) (2.23) (2.24) (2.25)

(31)

n

para todo x, y, z e R e À e R.

Provaremos (2.24) as outras derivam-se diretamente das

definições (2. 17} e (2.18). Para qualquer parâmetro real t,

O ~ llx + tyll2

=

A

Disto decorre que a função de variável real t

g(t)

=

< y, y >A t 2 +2t<x,y>A+<x,x>A,

é uma função quadrática em t e g(t) ~ O, para todo t. Logo, 4 < x, y >2 - 4 < X, X > < y, y )

A A A ~ O, derivando da{

(2.24).

Visando reformular o algoritmo dos gradientes conjugados

oh-que a Condl. ça~o de dk e dk•l t l

serve mos serem o r o gana s com respeito ao

produto< • >

é

equivalente, segundo (2.16}, a escrever

A

..

,

(3k = < g

Com isso, se quisermos encontrar o mfnimo do funcional (2.14) ou equivalentemente resolver o sistema linear Ax = b, pelo método dos gradientes conjugados, fazemos:

o e ~n arbitrário e d0-= o o X - g Ax - b, (2.26) T T = -

l

dk/ < dk dk > k • A' (2.27)

•••

k k X = X +

'\d'

(2.28) dk'l-1 kH = - g + ~ k dk (2.29) ~ = <

•••

dk > / <

ct•.

dk > k g A A' (2.30) k k k k O, 1, ... onde g = g(x ) = Ax - b =

(32)

No resto desta seçao iremos salientando algumas propriedades importantes do método descrito de (2.26) a (2.30} que vão nos permitir fazer uma análise da convergência e estimativas de erro. Uma das moti-vaçÕes de ter introduzido o produto < , >A e a norma 11•11 A

é

precisamen-te simplificar esta análise.

LEMA 2.4.2

Param=O,l, ...

o m= { o m

span { d , ... , d } span g , .•. , g } = span {o g , Ag , .•. , A g } , o mo

1 m 1 m

sendo span{ v , ... , v } o espaço gerado por v , ... , v .

PROVA,

. do

polS

Apliquemos indução

=- g0 por (2.26).

sobre m: para m = O o lema

é

verdadeiro,

Suponhamos que seja verdadeiro para m

=

k; isto quer dizer que

O k O k O O kO

span {d , ... ,d} = span {g , ... ,g}

=

span {g ,Ag , ... ,A g }. Primeiro vejamos que span

la hipótese de indução só

o k+l o o k+l o

{g , ... ,g } c span {g ,Ag , ... ,A g };

pe-k+t o o k+l o

falta ver que g e span{g ,Ag, ... ,A g }; mas de (2.28) multiplicando por A deduzimos,

..

,

g = g k + T Act" •

k [2.31)

Adk E span { o A o g , g , ..• , Ak+l o} g po1s . ct" E span { o A o g , g , , • , , A k o} g , tambe'm

k o o k+t o '

g E span {g ,Ag, ...• A g} pela hipotese de indução. Então span

o k+1 o o k+l o

(33)

Para deduzir a outra inclusão basta provar que: A k+l g e span

o

{ o g , . , . , g k+l} . Pela hlpotese de induçao ' - k o o k

A g E span {d , ... ,d }, assim

k+10 o k j

A g e span {Ad , ... ,Ad}; mas por (2.31} cada d, O :s j :s k, pode se

j+l J k+l o { o k+l}

exprimir em termos de g e g , portanto A g e span g , . , , , g ,

o k+l o o k+l o

Temos demonstrado que span {g , ... ,g } = span {g ,Ag, ... ,A g }.

Por outro lado, aplicando (2.29) derivamos diretamente

o k+l o k+l

span{g, ... ,g }=span{d, ... ,d },

chegando com isto

à

prova do lema.

LEMA 2.4.3

se i ':t: j (2.32)

se 1

*

j (2.33)

Aplicamos indução sobre i e j.

Suponhamos O s 1, j s 1; então < d0, d1 >

=

O pois, pelo já

A · t <ct• ct•" > O A v1s o, , A = • gora, porque -r 0

,r

o g g =

o.

é

calculado sendo Ótimo.

d d-.

Aplicando agora (2.26) obtemos

(34)

demonstrar que

T k+l j

g g =0, j=O,l, ... ,ke< dk+l,dJ> =O,J=O,l, ... ,k.

o

j

o

j

De span {d , ... ,d} = span {g , ... ,g }, veja lema anterior,

j j i i t I

-tiramos d =

E

c g , para algumas cons antes c , entao i =O

o.

J

= O,l, ... ,k-1 De (2.31) deduzimos, e + T k k g(x + = 0,1, ... ,k-1, d k d-r f(x +

pois, -rk escolhido sendo ótimo. Já podemos escrever

T

gk•l dJ =

o

• J

= 0,1, ... ,k.

Com isto, aplicando o lema anterior para m = j,

T k+l j g g

T J

=r [

t~'ct').

para algumas constantes ~r.

ou seja,

T k+l j

g g =O, O,l, ... k.

(35)

kH

=

< - g

k+l

= - < g <dk,dJ>.

A Mas < dk, dJ > = O, j < k, pela hipótese de indução e

A k+l < g De (2.31) (tiPamos) que J o J+l Ad e span { g , ... , g } e portanto, j+l Adj =

L

'lr g" • r=O c

para algumas constantes

r .

Logo, k+l < g = J+l T \" r k+1 r Lrg g

=

r=O

o,

j =O,l, ... , k - 1 Disto deduzimos que,

mas,

com o qual,

<dk+t, ct1 > =0, j=O,l, ... ,k-1,

A

(36)

Com o visto até aqui, pode-se demonstrar que o método dos gradientes conJugados, na ausência de erros de arredondamento, converge no máximo em n passos, sendo n a ordem da matriz A; porém se n for grande o resultado não tem interesse do ponto de vista computacional. Isto nos levará a introduzir o conceito de pré-condicionamento que, tem como objetivo acelerar a convergência e diminuir os efeitos do mau-con-dicionamento se a matriz do sistema tiver número de condição grande.

TEOREMA 2.4.1

No método dos gradientes conjugados, para algum m s n,

Axm = b

onde n e a ordem da matriz

A.

PROVA:

De acordo com (2. 32) {g0, g1, •.. , gn}

é

um conjunto ortogonal

n m

de vetores em ~ . Mas existe pelo menos algum g = O, O ~ m s n, pois a

- • • ( o 1 "}

dimensao de~ e n e g ,g , ... ,g tem n + 1 elem~ntos.

m m m , ....

Logo g

=

Ax - b

=

O. Isto quer dizer que x e a soluçao de

Ax

=

b.

LEMA 2.4.4

No método dos gradientes conjugados xk - x0

é

a proJeção ortogonal do erro inicial

x- x

0, com respeito ao produto< >A, sobre o espaço

. o k+l

(37)

Devemos demonstrar que, k o < X - X 1 dJ> = < x - x 0 , d J > , j = O , l , ... , k - 1 . A A (2.34) Da f, donde, <

x'

mas, o x,

Usando (2.15), após várias substituiçÕes, escrevemos:

k-1 k o

l:

T dj, k

o, 1,2, ...

X

=

X +

=

J =O J (2.35) k-1 < X, k ct' >

=

< X, o ct' > +

L

-r < dj ct" > A A ' A' J=O J k ct" < < X ' >

=

A o ct" > k O, 1,2, ... X,

=

A' (2.36) De (2.35), di > A = -r < d 1 , d1 > se i = i A' 0,1, ... ,k-1. Daqui vem, k o di < X - X ' > A T = i < d1 ct' > ' A

Por outro lado de (2.11}

T k dk

- g

i = 0,1, ... ,k-1. (2.37)

(38)

< k dk > < dk k dk

=

X

-

x,

=

X, >

-

< X > A A '

< dk > < o dk >

=

X, - X, por A A (2.36) Então, o dk < X -X ' > A T

=

k

=

o,

1, ... k dk, dk ' < > A (2.38)

Em particular de (2.37) e (2.38) para j • 0,1,., .,k-1 temos,

(2.34)

é

equivalente a< x- xk, dj > =O, j

=

O,l, ... ,k-1 o A

que quer dizer que o vetor erro ek = x - xk em cada 1 teração

é

o 1 k-1

ortogonal ao subespaço gerado por {d, d , ... ,d }.

Com os seguintes dois teoremas enfrentamos a questão da estimativa de erro para o método dos gradientes conjugados:

TEOREMA 2. 4. 2

Para o método dos gradientes conjugados,

o

X liA, (2.39)

onde Pk é o conjunto de polinÔmios pk(z) de grau menor ou igual a k com ~o

=

1.

(39)

para todo W E Wk. Mas, o k-1 o o k-1 o Wk = span { d , ... , d } = span { g , Ag , ... , A g } , e temos também, o o o o g = Ax - b = Ax - Ax = - A(x, x ) . Com fsto, o k o W

=

span {A(X- X ), ... ,A (x- x )} k

e w e Wk pode se exprimir como,

portanto, =

11

(I - (x - xo) liA o s

IIP

(A)

11 llx - x 11 ·

k A A , n

(40)

para uma matriz 8 simétrica de autovalores À

1, •.. ,Àn, 118112

=

mf'IÀJI e

as propriedades dos autovalores para soma e potência de matrizes, obteremos ~inalmente (2.39).

Segundo o teorema anterior para estimar o fator pelo qual se reduz o erro inicial llx - x011 A apÓs k passos é suficiente construir

um polinÔmio pk de grau menor ou igual a k tal que p/0)

=

1 e pk sendo o menor poss1vel no intervalo [À

1, Àn] contendo os autovalores de A, O <

\

:S. À :S. . . . :S. À.

2 n

Os polinÔmios que satisfazem estas condiçÕes são os polinÔmi-os de Chebyshev, Uma estimativa está dada pelo seguinte teorema:

TEOREMA 2. 4. 3

Para o método dos gradientes conjugados temos a seguinte estimativa de erro, llx -

x•u

s T [(À + À J/(À A k n 1 n -1 - À J I llx -1 o X liA, (2.40)

além disso se p(e) é o menor inteiro k tal que

o

X liA, VxEIR, O n

então,

p(E) S 1/2 ~ ln(2/E) + 1, (2.41) onde Tk e o polinÔmio de Chebyshev de grau k e os autovalores de A estão ordenados como O< À ~À ~ . . . ~À.

1 2 n

PROVA,

(41)

min 1 p e Il k k maxlp (;~li. • k

onde TI~ é o conjunto de polinômios pk de grau k tal que pk{O)

=

1. Mas pela teoria de aproximações,

sendo, T [ (;\ + ;\ - 2;\)/(;\ k n 1 n T [ (;\ + ;\ )/(;\ k n 1 n - • ) l 1

.

)) 1

onde T

é

o polinÔmio de Chebyshev de grau k e k

1/T [(;\ + ;\ )/(;\ - ;\ )].

k n 1 n 1

Para demonstrar (2. 41). seja p(e) o menor inteiro k que satisfaz

1/T [(;\ + ;\ )/(;\ - ;\ )] <e.

k n 1 n 1

Isto quer dizer que p(e) - 1 não satisfaz. Ou seja,

ou 1/T [ (;\ + ;\ )/(;\ - ;\ ) ] ~ e, p{E)-1 n 1 n 1 1/T [ k(A) + p{E)-1 k(A) -Segundo a identidade,

n e , k(A)

=

-\

(42)

Tk(x) =

~

[<x +

Ft

lk + (x-

Ft )•].

x e R derivamos a relação, T [

~

+ '] k a - 1 =

~

[ [

Va

+

']k

+ [

Va-

']k]

> Va.-1 fà.+l

~

[ Va

Và-+ ')·. I disto decorre, com o qual portanto,

T

[ ;:;k

(~AT-)

_:_+

--71]

p(El-1 k(A) I > I [ Vk{A) + l]p(El-1 <

2

Vk(AJ

-1

I [ Vk(AJ

+

l]p(E)-1. 2 Vk(AJ -! T [ k(A) +

p{E)-1 k(A)

n

:S 1/e •

[p(e) - 1]1n (@A]'+ ')

~

ln(2/e).

@A]'-! Usando o fato de que,

ln((Va + 1)/(Va- !)] >

2/Va,

~ > I,

obtemos (2.41).

Desta análise (2.40) poderia se escrever como,

k

[

@A]' -

')k

o

llx - x 11 :::s 2 llx - x 11 ,

A @ÃT+l A

(2.42)

donde podemos concluir que se A for mal-condicionada a convergência do método

é

multo lenta.

(43)

Dependendo da distribuição dos autovalores de A no intervalo

). l.

n o 11m i tante dado em (2. 42) pode ser reduzido. VeJa, por exemplo, [12] e [26].

O fato de, no método dos gradientes conJugados a taxa de convergência ser dependente do número de condição da matriz em questão, nos leva a estudar técnicas para acelerá-la. Uma maneira de fazer isto é introduzir no método uma nova matriz C que seja uma boa aproximação de A de sorte que C-1A esteja próxima da matriz identidade ou pelo menos que o número de condição de C-1A diminua consideravelmente. Estes conceitos serão explorados ou na prÓxima seção.

2.5 PRÉ-CONDICIONADORES POR DECOMPOSIÇÃO COMPLETA

Se formos resolver o sistema linear Ax

=

b, A matriz simétrica positiva definida, pelo método dos gradientes conjugados, estamos aqui interessados em introduzir no método uma matriz C simétrica definida positiva, de maneira que resolver Ax

=

b seja equivalente a resolver um outro sistema Ãy =

õ

envolvendo a matriz C, onde se tenham estas vantagens: k(Ã) deve ser muito menor que k(A) e resolver o sistema Ch

=

g seja mais eficiente que resolver Ax

=

b, usando para C uma fatoração conveniente como C

=

EET, a conhecida decomposição de Choleski; ou C

=

LDLT, sendo L uma matriz triangular inferior e D uma matriz diagonal.

funcional

Equivalentemente, queremos reduzir o problema de minimizar o

f(xJ

=

-I X T Ax - b X + C T 2

ao de minimizar um outro Funcional

1 !"•• ~T "' t(y)

=

2

y Ay - u y + c.

(44)

r -

-EE a decomposiçao de Choleski usual, que chamaremos decomposiçao de

Choleski completa de C para diferenciá-la de outro tipo de decomposição a ser discutida na prÓxima seção e consideremos o funcional associado

à

matriz

A

em estudo

.f(xl

=

2"

1 X r Ax - b r X + c.

Definamos agora o novo funcional r(y) empregando a transformação

(2.43) por r -r - b (E y) + c

=

- E b y -1 T + c, ou, 1 T"' ç.T "' r(yJ =

2

Y Ay - o Y • c, (2.44) onde, (2.45) LEMA 2.5.1

A matriz à associada ao funcional quadrático de (2. 44)

é

- -1

simétrica positiva definida e tanto A quanto C A possuem os mesmos autovaloPes.

(45)

PROVA' De (2.45)

-logo A e simétrica. De (2.43) e (2.45),

r-=

y Ay > O Vy • O,

pois x1Ax > O Yx *O por A ser simétrica positiva definida, assim te-mos que

Ã

é

positiva definida.

Para demonstrar que à e c-1A possuem os mesmos autovalores, basta ver que elas são semelhantes:

a igualdade

(2.46)

prova que

Ã

e C-1A são matrizes semelhantes.

COROLÁRIO 2.5.1

Ao resolver o sistema linear

Ãy

=

õ pelo método dos gradientes conjugados geramos a sequêncla

(46)

o 1 k

y ' y •... ,y , ...

Seja

k -T k

x = E y , k = O , l , ... e

y,

X

as soluções dos sistemas

Ãy =

õ

e Ax = b,

respectivamente. Então,

I) y= ' ET' X, 2) IIm k->®

l

=

y

e lim k->® k ' X = X

· 3) A taxa de. convergência de {xk} está determinada por k(Ã).

PROVA:

Para provar (1) e suficiente ver que ETX

é

solução de

Ãy

=

õ.

Vejamos,

T" ' "' "' ~ " T

ou seja, Ex e soluçao de Ay = u, portanto y = E

X.

lim k->®

Ãy = õ,

{ k} , ,

-Que y converge para y e apllcaçao direta do teorema 2.4.1.

-T

Por outro lado, a continuidade do operador E nos leva a,

k X = IIm k-->® k -r... ... y) =E y = x por (!). k->®

(47)

nY- ln ....

A mas, Da mesma maneira, e substituindo em (2.47) derivamos (3). o y li-A (2.47)

Com o objetivo de simpliricar a rererência damos as seguintes definiçÕes:

DEFINIÇÃO 2. 5.1

A matriz C "" EET introduzida nesta seção

é

chamada matriz pré-condicionadora. Às vezes diremos simpl"esmente que C = EET

é

um pré-condicionador para sistema Ax "" b.

- -1 T , ,

A matriz A "" E AE e chamada matriz pre-condicionada.

O método descrito pelo algoritmo exposto de (2.26) a (2.30)

é

chamado de o método dos gradientes conjugados sem pré-condicionar. Tendo em vista a apresentação de um algoritmo eficiente

(48)

computacionalmente tanto do método dos gradientes conjugados sem pré-condicionar quanto do método dos gradientes conjugados pré-condicionado, que definiremos depois, damos o seguinte teorema.

TEOREMA 2. 5. 1

O algoritmo dos gradientes·. conjugados sem pré-condicionar

é

equivalente ao seguinte:

Selecionamos x0 e Rn arbitrário, calculamos

o o o o g

=

Ax - b, d

= -

g (2. 48) fazendo logo, (2.49) k+1 k k X

=

X + Tkd , (2.50) k+1 k Adk g = g + -r k ' (2. 51) T T ~

=

g k+1 g k+1 I g g. k k k (2.52) (2.53)

Já tendo demonstrado (2. 31), e ' suficiente provar as

equivalências das expressões (2.27) e (2.49), {2.30) e (2.52).

Para a primeira parte: de (2.29) escrevemos

d k = _ gk + Qk-ldk-1' dk-1 ,.. = - g k-1 +,.. R dk-2 , ... k-2

(49)

assim fica, substituindo ~ecorrentemente na primeira igualdade,

onde

k k

r

k k-J

d = - g - l . r g .

J=l j

Da{ obtemos, depois de aplicar (2.32):

T

dk

l

=

T

k k - g g.

o que prova a equivalência entre (2.27) e (2.49).

Para demonstrar a outra parte: de (2.31) resulta,

Adk -- Tk -1 ( k+l g - g k) ' portanto, T k+l k+l g g e [ k

~

k k-j]T -1 = -g - L

r

g "[' J =1 J k ( g k+l - g k) ou (2.54) (2.55) (2.56) (2.57) Aplicando (2.56) e (2.57) em (2.30) derivamos (2.60),

completando deste modo a prova do teorema (2.5.1).

Se aplicarmos o algoritmo do teorema (2.5.1)

à

solução do

sistema

Ãy

=O,

com

Ã

e

õ

dados por (2.45) vem:

O n •

(50)

.o ' o

õ

ao

.o

(2.58) g

=

Ay- '

=

- g e fazemos, r ' .... k .... k 1

a•

Ã

a•.

(2.59)

"

=

g g k k+l k

• a•

(2.60) y

=

y + 't"k "'k+l

•• a•

(2.61) g

=

g + "fk A r r

~.

... k+l .... k+l / "'k .... k (2.62)

=

g g g g ak+l ... k+l ' k (2.63)

=

-

g +. ~ka

;

k

=

o,

1, ... onde

=

Ãy" -

õ,

k Er k g y

=

x.

Além disso,

g e

a

k satisfazem:

LEMA 2.5.2

No método dos gradientes conjugados aplicado a Ãy = Õ tem-se:

a•

=

ETdk (2.65)

(51)

Para demonstrar (2.65}; de (2.28) derivamos ou mas por (2.60) k<l y = y k + ' k Yk+l = Yk + ~

'•

ak

.

Das duas Últimas igualdades se tomarmos dk e ãk do mesmo comprimento obteremos (2.65).

Em resumo, até aqui temos dito que resolver o sistema linear Ax

=

b é equivalente a resolver o sistema linear Ãy = Õ com a vantagem de que k(Ã) pode ser muito menor que k{A). A tranferência de um sistema ao outro foi feita introduzindo o pré-condicionador C =

EE1.

Agora queremos dar um algoritmo, de reconhecida eficiência computacional, equivalente ao descrito de (2.58) a (2.63) para resolver o sistema Ãy = D, usando a matriz C e as variáveis antigas, isto é aquelas do método dos gradientes conjugados para resolver

Ax

=

b. Isto evitará fazer o passo cada vez que formos resolver o di to sistema aplicando um pré-condicionador. Este algoritmo corresponde ao método que chamaremos no que segue Hétodo dos Gradientes Conjugados Pré-condicionado.

TEOREMA 2. 5. 2

O algoritmo dado de {2. 66) a (2. 71)

é

equl valente a este outro algoritmo:

(52)

Seja x0 e ~n arbitrário, (2.66) e façamos: T T T

=

gk hk / ct" Adk k ' (2.67) k+l k k X

=

X + 1:" d ' k (2.68) k+l k Ad", g

=

g + T k (2. 69) hk+l

=

c-1 k+t g ' (2.70) T T ~.

=

l + l hk+l I gk hk, (2. 71) dk+l - hk+l k

=

+ f3 d • k (2.72) onde k k k g

=

g(x l

=

Ax -

b e k = O, 1, ...

(53)

pelo lema (2.5.2).

Isto prova a equivalência de {2.59) e (2.67). De (2.60),

ou

Fazemos Tk

=

Tk e fica provada a equivalência entre (2.60) e (2.68).

De (2.61),

ou

k+l k k

g =g +\Ad,

mas temos que Tk = -rk; assim resulta a equivalência entre (2. 61) e

(2.69).

A equivalência entre (2.62) e (2. 71) segue do que,

foi demonstrado no inicio, com ~k = ~k.

De (2.63) deduzimos,

ETdk+l ___ E-18k-t1 + '"'k Q ETdk ou

(54)

com ó qual

A equivalência entre (2.58) e (2.66)

é

direta.

2.6 PRÉ-CONDICIONADORES POR DECOMPOSIÇÃO INCOMPLETA

Para certo tipo de matrizes A não singulares correspondentes a uma famflia de sistemas lineares

Ax

=

b, que definiremos nesta seção, é possível fazer uma única decomposição LU de urna certa matriz K próxima a A, de modo que L e U sejam obtidas da decomposição

L

Ü

de A, selecionando com antecedência alguns lugares (i,j) fora da diagonal de A onde os elementos correspondentes em

L

e

U

serão nulos.

A

vantagem da nova decomposição, que se chama Decomposição Incompleta de A,

é

que escrevendo A

=

K - R há um método iterativo para resolver Ax

=

b associado a essa expressão de rápida convergência. Se além disso A for simétrica positiva definida teremos a decomposição de Choleski de

K

ou decomposição de Choleski Incompleta de A, que poderá ser usada como pré-condicionador no método dos gradientes conjugados pré-condicionado para resolver Ax = b.

Aqui apresentaremos o desenvolvimento feito por Meijerink e Van der Vorst [ 18] com respeito a este assunto. Antes introduziremos algumas definições e resultados do livro de Varga [27], fechando a introdução com um lema de Ky Fan [15] adaptado

à

nossas circunstâncias.

2.6.1 DEFINIÇÃO 1) Sejam A = que A == 1 :s:

J

:s: n.

=

(b 1j) matrizes reais =: b 1j para todo i,

J

rum. Dizemos 1 :s 1 :s

m,

(55)

2) Uma matriz real A

=

-1

para todo i ~ j e A (a

1J) rum não singular com a11 !1 O

~ O

é

chamada uma M-matriz. 3) Sejam A, K, R matrizes nxn, A nao singular. Se

A"" K- R,

e K

é

não singular dizemos que A

=

K - R

é

um splittlng

' -1

de A. Se alem disso, K ?:: O e R ?:: O dizemos que A = K-R

é um Splittlng regular de A.

É fácil ver que os elementos da diagonal de uma M-matrlz A

-nxn sao positivos. De fato, se

então fazendo o produto da linha i pela coluna i em A~1A = I temos,

ou n ruau -

Í:

rlklaktl "" 1. k;:1

..

,

Como r

11 ~O, desta Última igualdade se deduz que a11 > O , 1 ~ 1 s n.

Agora se t i vermos o sistema 1 inear Ax "" b e A = K - R for um

splitting de A então existe um método iterativo para resolver o sistema anterior associado ao Splltting A= K- R. Seja X a solução do sistema; assim,

KX

=

RX

+

AX

=

RX

+

b,

e então podemos escrever o seguinte método iterativo:

k+l k

(56)

TEOREMA 2. 6.1

Seja A

=

(a

1J) uma nxn M-matriz e 8

=

(b1J) matriz nxn se

para I • j e

Então B

é

também uma M- matriz.

TEOREMA 2. 6, 2

Se A

=

K - R é um splitting regular de A e A-1 ~ O, então o método iterativo (2.73) converge para qualquer chute inicial x0.

TEOREMA 2. 6. 3

LEMA 2.6.1

Toda H-matriz simétrica e uma matriz positiva de~lnida.

(Lema de Ky Fan)

Seja A = (a ) uma H-matriz de ordem n e C

=

IJ

matriz de ordem n - 1 definida por,

a a - a a

1J nn ln nj

a i, j = 1,2, ... , n - 1, nn

Então, C e também uma H-matriz.

A seguir o teorema da Decomposição de LU incompleta.

(57)

TEOREMA 2.6.4

Seja A = (a

1j) uma nxn M-matriz e

P = {(1, j) / I

*

j,

n 1 ~ i ~ n, 1 ~

J

~ n}.

Então, para para cada P c P existe uma matriz triangular n

inferior L

=

(t

11) com diagonal unitária, uma matriz triangular superior U = (u

11) e uma matriz R= (r11} com

u

=

o

IJ se se se ( l , j ) e P , ( l , j ) E P , (l,j)~P.

tais que o splitting A

=

LU - R

é

regular. Além disso, os fatores L e U são únicos.

PROVA'

onde

Faremos a demonstração construindo L e U. Para isto definamos

I A =

Ao

=

A

=

Ak

=

k

( ã' )

! J •

A,

Ak-1 + L'

"A'

r = -kj k-1 a kj R' ; (2. 74) • (2.75) k

=

1,2, ... , n

-

I e (2. 76) se (k, j) E P, (2. 77)

(58)

k

" =

lk

k-1

- a

lk s e ( i , k ) e P e O nos demais casos, (2.78)

Lk e a matriz identidade, exceto na coluna k dada pelo vetor

[o. o, ...

,I, -~k a k+l,k -k a

kk

~k a k+2,k -k a kk '

...

'

ãk ]T

nk -k a kk (2.79)

A prova tem duas partes fundamentais: de um lado a prova de Ak A-k s-ao M-mat-lzes e Lk, Rk > O k I I d t I d

que , , - , "" , ... , n- ; e ou ro a o a construção de L, U e R. No final (Ln-tLn-2 ... Lt)-1 e R= Rt + ... + Rn-1. vamos definir U

=

Para k

=

1, I o > O, (I, j) p } pois

"

=

- a

=

- a E lj lj 1) I o

o.

(I, j) p

"

11

=

- a 11

=

- a 11 > E

daqui temos que R1 i!:

o.

Provemos isto e, -1 ' que

A

e ~1 A a lj uma H-matriz,

=

Ao + Rt

=

A+ R1 1 + " lj ~ a1J, pois +

e'

I j

as duas Últimas expressoes levam a,

_,

a ::s a ::s O.

1 J l j Por outro lado,

a

• o,

(l,

lj

n-1

A • L

=

(59)

-1 a 11 1 + r 11

então, pelo teorema (2.6. 1),

Ã

1 é M-matrlz. Provemos que L1 ~ O.

coluna 1 que

é

o vetor

1 '

L e quase a identidade, a menos da

onde -1 a 21 -1 a 11 >

o

....

, e ã

1 ]T

n1 -1

a.,

s

o

•1 1

pois A e M-matriz. Portanto L ~ O.

Para ver que A1

é

M-matriz, consideremos a expressão

onde Ok

é

quase a matriz nula, exceto na coluna k dada pelo vetor

[

0,0, ...

o.

a k+l,k -k a k+2,k ã. nk

r

--·

akk a akk k kk n k

(!, j} dos produtos k ""k - dadas por

Agora, as entradas O A estao

1 = k + l , ... ,n j = 1,2, ... ,n,

= i : : k + l , ... ,n

J

=

1,2, ... ,n,

escrevendo i= k + m como m = 1,2, ... , n - k vem,

k

=

o

(60)

logo, ou

a•

ktm,j k a k+m,j

" a k+m,j

a k+m, j +

o•

k+m,k

a k+m,k

a kk

a kj j=1,2, ... , n j=1,2, ... , n substituindo k = M-matriz.

1 e aplicando o lema (2.6.1) obtemos que A1 e ' De forma semelhante pode-se demonstrar que

k k

M-matrizes e L, R ~O, k

=

1, .... n- 1.

Para construir L, U, R observemos que,

se k < m, pois

k k

o r

ik kj

mas r:J = O se k < m de acordo com a definição de R. Finalmente, An-1 • L n-1 "'n-1 A • L n-1 ( n-2 A + Rn-1) n-1 n-2 n-1 n-1 =L A +L R -k A são

Referências

Documentos relacionados

To demonstrate that SeLFIES can cater to even the lowest income and least financially trained individuals in Brazil, consider the following SeLFIES design as first articulated

utilizada, pois no trabalho de Diacenco (2010) foi utilizada a Teoria da Deformação Cisalhante de Alta Order (HSDT) e, neste trabalho utilizou-se a Teoria da

Finally,  we  can  conclude  several  findings  from  our  research.  First,  productivity  is  the  most  important  determinant  for  internationalization  that 

Para preparar a pimenta branca, as espigas são colhidas quando os frutos apresentam a coloração amarelada ou vermelha. As espigas são colocadas em sacos de plástico trançado sem

5 “A Teoria Pura do Direito é uma teoria do Direito positivo – do Direito positivo em geral, não de uma ordem jurídica especial” (KELSEN, Teoria pura do direito, p..

Buscando compreender a dinâmica de cada curso da UFJF, nossa pesquisa também tangenciou questões outras que o espaço desta dissertação nos impediu de problematizar, como é o

Considerando a importância da avaliação como ponto de partida para desencadear a ação-reflexão-ação, a CREDE 15, tendo como referência o SPAECE, criou a sua

Na apropriação do PROEB em três anos consecutivos na Escola Estadual JF, foi possível notar que o trabalho ora realizado naquele local foi mais voltado à