• Nenhum resultado encontrado

Métodos iterativos para sistemas lineares

N/A
N/A
Protected

Academic year: 2021

Share "Métodos iterativos para sistemas lineares"

Copied!
47
0
0

Texto

(1)

UNIVERSIDADE FEDERAL DE SANTA CATARINA Centro de Ciˆencias F´ısicas e Matem´aticas

Curso de Licenciatura em Matem´atica

M ´ETODOS ITERATIVOS PARA SISTEMAS

LINEARES

Autora: Ivandra Kremer

Orientador: Prof. Dr. Paulo Rafael B¨osing Florian´opolis

(2)

Ivandra Kremer

M´etodos Iterativos para Sistemas Lineares

Trabalho acadˆemico de graduac¸˜ao apresentado `a disciplina Trabalho de Conclus˜ao de Curso II, do Curso de Matem´atica - Habilitac¸˜ao Licenciatura, do Centro Ciˆencias F´ısicas e Matem´aticas da Universidade Federal de Santa Catarina

Professora: Carmem Suzane Comitre Gimenez

Florian´opolis Fevereiro 2009

(3)

Agradecimentos

Nestes cinco anos de muitos aprendizados gostaria de agradecer a

muitas pessoas que estiveram do meu lado: `A Deus, pela

oportunidade de desfrutar das maravilhas do aprender e ter

confiado a mim a tarefa de ensinar. Ao meu orientador Paulo, pelo

incentivo, apoio, compreens˜ao e por acreditar e acompanhar cada

passo do meu trabalho. Ao meus av´os, por me acolheram em sua

casa, e me incentivaram nos momentos em que precisei. A minha

fam´ılia, pelo incentivo dado em todos os momentos de minha vida.

Ao meu namorado Marcos, pelo companheirismo, incentivo e

compreens˜ao. E aos meus amigos, que me incentivaram nas horas

(4)
(5)

Sum´ario

1 Noc¸˜oes B´asicas 8 2 M´etodos Iterativos 14 2.1 Processos Estacion´arios . . . 14 2.1.1 M´etodo de Jacobi . . . 17 2.1.2 M´etodo de Gauss-Seidel . . . 18

2.1.3 Convergˆencia dos M´etodos . . . 20

2.2 Processos de Relaxac¸˜ao . . . 23

2.2.1 Princ´ıpios B´asicos do Processo de Relaxac¸˜ao . . . 26

2.2.2 M´etodo dos Gradientes . . . 27

2.2.3 M´etodo dos Gradientes Conjugados . . . 28

3 Aplicac¸˜oes dos M´etodos Iterativos 33

(6)

Introduc¸˜ao

Os m´etodos iterativos foram muito utilizados durante o s´eculo XX, por causa dos avanc¸os tecnol´ogicos. Estes m´etodos servem para resolver sistemas lineares que surgem em diversas ´areas como: engenharia e matem´atica.

Dentre os tipos de m´etodos para resoluc¸˜ao de sistemas lineares podemos desta-car os m´etodos diretos e os iterativos, sendo que no primeiro as soluc¸˜oes s˜ao obti-das sem a necessidade de qualquer tipo de aproximac¸˜ao (`a excec¸˜ao da precis˜ao da m´aquina) e no segundo a soluc¸˜ao aproximada do sistema ´e encontrada sob uma certa tolerˆancia previamente determinada.

Os m´etodos iterativos tem por finalidade o melhoramento cont´ınuo da soluc¸˜ao aproximada at´e que esta esteja precisa o “suficiente”. Sendo que, nestes m´etodos s˜ao utilizadas t´ecnicas para aproximac¸˜oes sucessivas chegando a soluc¸˜oes mais precisas a cada passo, para um dado sistema linear.

N˜ao se pode garantir a priori que os m´etodos iterativos resolvam qualquer tipo de sistema, ´e necess´ario analisar certos crit´erios estabelecidos em relac¸˜ao ao sistema. J´a os m´etodos diretos resolvem todos os tipos de sistema determinados, mas alguns de forma mais demorada.

Os m´etodos iterativos se dividem em estacion´arios e n˜ao-estacion´arios. Um m´etodo ´e estacion´ario quando cada aproximante da soluc¸˜ao ´e obtido do anterior sempre pelo mesmo processo. Entre os m´etodos iterativos estacion´arios temos o Jacobi, Gauss-Seidel, Gradiente, SOR e SSOR. E entre os n˜ao-estacion´arios temos o Gradiente Conjugado (GC).

O m´etodo de Jacobi ´e uma homenagem ao matem´atico Carl Gustav Jacob Ja-cobi (1804−1851), que teve uma grande influˆencia no renascimento da Matem´atica em universidades alem˜as no s´eculo XIX. O m´etodo consiste em dada uma aproximac¸˜ao inicial e uma tolerˆancia para a soluc¸˜ao, gera-se uma sequˆencia de vetores que converge para a soluc¸˜ao exata, efetuando o mesmo processo uma quantidade finita de vezes.

(7)

J´a o m´etodo de Gauss-Seidel ´e uma homenagem aos matem´aticos alem˜aes Carl Friedrich Gauss(1777 − 1855) e Philipp Ludwig von Seidel (1821 − 1896), este ´ultimo trabalhou como assistente de Jacobi resolvendo problemas que resul-taram do estudo de Gauss. Este m´etodo difere-se apenas do Jacobi por utilizar valores mais atualizados para algumas componentes, o que faz reduzir o n´umero de iterac¸˜oes at´e obter a tolerˆancia determinada.

Um dos m´etodos iterativos mais conhecidos ´e o Gradiente Conjugado. Ele foi introduzido nos anos 50 por: Magnus Hestenes(1906 − 1991) e Edward Stiefel (1875 − 1968). O m´etodo resolve sistemas lineares onde a matriz A ´e positiva definida e sim´etrica. Ele possui como base para o seu desenvolvimento o m´etodo dos Gradientes.

O Gradiente Conjugado ´e utilizado frequentemente quando se resolve nu-mericamente equac¸˜oes diferencias parciais. O m´etodo consiste em, dado uma aproximac¸˜ao inicial e uma tolerˆancia, calcula-se o res´ıduo e a direc¸˜ao de relaxac¸˜ao e em seguida gera-se uma sequˆencia de vetores, que a cada iterac¸˜ao se aproxima da soluc¸˜ao exata, em que o res´ıduo ´e ortogonal a direc¸˜ao de relaxac¸˜ao.

O objetivo principal deste trabalho ´e abordar trˆes m´etodos iterativos: Jacobi, Gauss-Seidel e Gradiente Conjugado. Tamb´em mostraremos alguns exemplos fazendo comparac¸˜oes entre as soluc¸˜oes obtidas atrav´es de cada m´etodo.

Para tanto, dividiremos o trabalho em trˆes cap´ıtulos.

No primeiro apresentaremos os conceitos b´asicos de ´algebra linear e c´alculo, necess´arios para alcanc¸ar nossos objetivos. No segundo, desenvolveremos os m´etodos iterativos e observaremos as condic¸˜oes de convergˆencia do sistema lin-ear. Para finalizar, no terceiro cap´ıtulo resolveremos alguns exemplos aplicando o que foi desenvolvido anteriormente.

(8)

Cap´ıtulo 1

Noc¸˜oes B´asicas

Neste cap´ıtulo, apresentaremos as ferramentas que ser˜ao utilizadas no decorrer do trabalho. Tais ferramentas, s˜ao resultados cl´assicos de ´algebra linear e c´alculo. Primeiramente introduzimos conceitos b´asicos de ´algebra linear, tais como: espac¸o vetorial real, produto interno, norma, autovalores, autovetores e raio es-pectral.

Definic¸˜ao 1.1. Seja V um conjunto n˜ao vazio. V ´e um espac¸o vetorial real se as operac¸˜oes de adic¸˜ao e multiplicac¸˜ao por escalar est˜ao definidas em V , isto ´e, a) se u, v ∈ V , ent˜ao u + v ∈ V ;

a1)u + v = v + u, ∀u, v ∈ V;

a2)(u + v) + z = u + (v + z), ∀u, v, z ∈ V;

a3) ∃ 0(vetor nulo) ∈ V tal que u + 0 = u, ∀u ∈ V ;

a4)∀u ∈ V, ∃ − u ∈ V, u + (−u) = 0;

b) se k ∈ R e u ∈ V , ent˜ao ku ∈ V ;

b1)a.(u + v) = a.u + a.v, ∀a ∈ R, ∀u, v ∈ V;

b2)(a + b).u = a.u + b.u, ∀a, b ∈ R, ∀u ∈ V;

b3)a(b.u) = (a.b)u, ∀a, b ∈ R, ∀u ∈ V;

b4)1.u = u, ∀u ∈ V.

Definic¸˜ao 1.2. Seja V um espac¸o vetorial. Dizemos que um vetor v ´e uma combinac¸˜ao linear dos vetores v1, v2, . . . , vn, se v pode ser escrito na forma:

v = α1v1+ α2v2+ . . . + αnvn= n

X

i=1

(9)

Definic¸˜ao 1.3. Seja V um espac¸o vetorial real. Sejam u e v elementos de V . Um produto escalar (produto interno) ´e uma aplicac¸˜ao

h·, ·i : V × V −→ R (u, v) 7−→ hu, vi que satisfaz as seguintes propriedades:

i)hu, vi = hv, ui, ∀u, v ∈ V (simetria); ii)hv, u + wi = hv, ui + hv, wi(linearidade);

iii)hα.v, ui = α.hv, ui, ∀α ∈ R, ∀v, u ∈ V (transitividade); iv)hv, vi ≥ 0e hv, vi = 0 ⇔ v = 0.

Um espac¸o vetorial real V no qual est´a definido um produto escalar ´e chamado espac¸o vetorial euclidiano real.

Exemplo 1.1. Seja V = Rn. Sejam u e v ∈ V , dados por u = (u

1, u2, ..., un)e v = (v1, v2, ..., vn), ent˜ao, hu, vi = u1v1+ u2v2+ ... + unvn = n X i=1 uivi

´e um produto interno em V = Rn, que ´e oproduto interno usual no Rn.

Definic¸˜ao 1.4. Seja V um espac¸o vetorial euclidiano real. Sejam u e v elementos de V . Dizemos que u ´e ortogonal a v se hu, vi = 0.

Definic¸˜ao 1.5. Seja V um espac¸o vetorial euclidiano. Uma norma, denotada por k · k, ´e uma aplicac¸˜ao:

V −→ R

v 7−→ kvk Com as seguintes propriedades:

i)kvk ≥ 0para todo v ∈ V ; ii)kvk = 0 ⇐⇒ v = 0;

iii)kαvk = |α|kvkpara todo α ∈ R e v ∈ V ; iv)kv + uk ≤ kvk + kukpara todo v, u ∈ V . Exemplo 1.2. Seja V = Rn e u = (u

1, u2,· · · , un) ∈ Rn, ent˜ao, as seguintes

aplicac¸˜oes s˜ao normas em Rn:

a) kuk∞= max 1≤i≤n|ui|. b) kuk1 = n X |ui|.

(10)

c) kuk2 =

q

hu, ui.

Definic¸˜ao 1.6. Diz-se que uma sequˆencia de vetores x(k) em Rn converge para

x∈ Rncom relac¸˜ao a uma norma k · k se, dado qualquer  > 0, existir um inteiro

N()tal que:

kxk− xk < , para todo k ≥ N ().

Definic¸˜ao 1.7. Chama-se norma de uma matriz A qualquer func¸˜ao definida no espac¸o vetorial das matrizes, com valores em R, satisfazendo as seguintes pro-priedades:

i)kAk ≥ 0;

ii)kAk = 0, se e somente se A for 0 ( matriz com todos os elementos 0); iii)kαAk = |α|kAk;

iv)kA + Bk ≤ kAk + kBk; v)kABk ≤ kAkkBk.

A distˆancia entre as matrizes A e B com relac¸˜ao a esta norma de matriz ´e kA−Bk. Exemplo 1.3. Seja A uma matriz n × n, ent˜ao as seguintes aplicac¸˜oes s˜ao normas no espac¸o vetorial das matrizes n × n, com valores em R:

a) kAk∞ = max 1≤i≤n n X j=1 |aij|(norma linha); b) kAk1 = max 1≤j≤n n X i=1 |aij|(norma coluna); c) kAk2 = v u u t n X i,j=1 a2ij (norma euclidiana).

Uma matriz n × m pode ser considerada como uma func¸˜ao que utiliza mul-tiplicac¸˜ao de matrizes para transformar vetores m dimensionais em vetores n di-mensionais. Uma matriz quadrada A leva o conjunto de vetores n dimensionais em vetores n dimensionais. Neste caso, certos vetores x, n˜ao nulos, s˜ao paralelos a Ax, o que significa que existe uma constante λ tal que Ax = λx. Para esses vetores, temos (A − λI)x = 0.

Definic¸˜ao 1.8. Se A for uma matriz quadrada, o polinˆomio caracter´ıstico de A ´e definido por

p(λ) = det(A − λI)

Definic¸˜ao 1.9. Se p for o polinˆomio caracter´ıstico da matriz A, os zeros de p s˜ao os autovalores, ou valores pr´oprios, da matriz A. Se λ for um autovalor de A e x6= 0satisfazer (A − λI)x = 0, ent˜ao x ´e umautovetor, ou vetor pr´oprio, de A, correspondente ao autovalor λ.

(11)

Exemplo 1.4. Para a matriz A=    2 0 0 1 1 2 1 −1 4   

o polinˆomio caracter´ıstico ´e

p(λ) = det(A − λI) = det

   2 − λ 0 0 1 1 − λ 2 1 −1 4 − λ    = λ3− 7λ2+ 16λ − 12 = (λ − 3)(λ − 2)2.

Assim os autovalores de A s˜ao λ1 = 3e λ2 = 2. Um autovetor x = (w, k, u)

correspondente ao autovalor λ1 = 3´e soluc¸˜ao da equac¸˜ao matriz-vetor

(A − 3.I)x = 0, isto ´e:

   0 0 0    =    −1 0 0 1 −2 2 1 −1 1   .    w k v  

, o que implica w = 0 e k = v. Ent˜ao

vλ1 = (0, y, y), y ∈ R

n, y 6= 0.

Agora para o autovalor λ2 = 2 um autovetor x = (w, k, u) ´e soluc¸˜ao do

sistema (A − 2.I)x = 0, isto ´e:

   0 0 0    =    0 0 0 1 −1 2 1 −1 2   .    w k v  

, o que implica que w − k + 2.v = 0. Ent˜ao

vλ2 = (−2z, 2y, y + z), y, z ∈ R

n

Teorema 1.1. Se k · k for norma de vetor em Rn, ent˜ao

kAk = max

kxk=1kAxk

´e uma norma de matriz.

Pode ser visto em [8] p´ag 509.

Cada norma de vetor produz uma norma de matriz natural associada, e esta ´e denominada por norma de matriz natural.

Definic¸˜ao 1.10. O raio espectral ρ(A) de uma matriz A ´e definido por ρ(A) = max(λi)

(12)

Para a matriz do Exemplo 1.4 temos, ρ(A) = max

1≤i≤n{2, 2, 3} = 3.

O raio espectral esta intimamente ligado a norma da matriz, conforme veremos a seguir.

Teorema 1.2. Seja A uma matriz n × n, ent˜ao: i)kAk2 = [ρ(ATA)]1/2,

ii)ρ(A) ≤ kAk, para qualquer norma de matriz k · k.

Demonstrac¸˜ao. i) A demonstrac¸˜ao desta parte n˜ao ser´a feita, mas pode ser en-contrada em [7] p´ag. 21.

ii)Suponha que λi seja um autovalor qualquer de A com autovetor x e que

kxk = 1. Como x ´e um autovetor associado ao autovalor λitemos que Ax = λix.

Ent˜ao,

|λi| = |λi|kxk = kλixk = kAxk ≤ kAkkxk = kAk

Assim ρ(A) = max

1≤i≤n|λi| ≤ kAk

Definic¸˜ao 1.11. Uma matriz A, n × n, ´e uma matriz convergente, se lim

k→∞a k

ij = 0para i = 1, 2, · · · , n e j = 1, 2, · · · , n.

Teorema 1.3. As seguintes afirmac¸˜oes s˜ao equivalentes: i)A ´e uma matriz convergente;

ii) lim

n→∞kA

nk = 0para alguma norma de matriz;

iii) lim

n→∞kA

nk = 0para todas as normas de matrizes;

iv)ρ(A) < 1; v) lim

n→∞A

nx= 0, para todo x.

A demonstrac¸˜ao deste teorema pode ser encontrada em [3] p´ag. 14.

Agora vamos abordar alguns conceitos de c´alculo que s˜ao utilizados para anal-isar os pontos cr´ıticos de uma func¸˜ao. Primeiramente para uma vari´avel e em seguida para n vari´aveis. Mas antes vamos considerar algumas definic¸˜oes que ser˜ao necess´arias durante o processo.

Definic¸˜ao 1.12. Seja A uma matriz n × n e x ∈ Rn, ent˜ao uma forma quadr´atica

(13)

1)Positiva definida se f(x) > 0 para todo x 6= 0; 2)Positiva semidefinida se f(x) ≥ 0 para todo x; 3)Negativa definida se f(x) < 0 para todo x 6= 0; 4)Negativa semidefinida se f(x) ≤ 0 para todo x;

5)Indefinida se f(x) assume tanto valores positivos quanto negativos.

Uma matriz sim´etrica A ´e chamada de positiva definida, positiva semidefinida, negativa definida, negativa semidefinida ou indefinida se a forma quadr´atica f(x) = xtAxtem a propriedade correspondente.

Definic¸˜ao 1.13. Seja y = f(x) uma func¸˜ao de uma vari´avel, se x ∈ R, ent˜ao, um ponto x0 ´e denominadoponto cr´ıtico de f se f0(x) = 0.

Teorema 1.4. Suponha que f00seja cont´ınua na proximidade x.

a)Se f00(x

0) > 0, ent˜ao x0 ´eponto de m´ınimo;

b)Se f00(x

0) < 0, ent˜ao x0 ´eponto de m´aximo;

c)Se f00(x

0) = 0, ent˜ao x0 ´eponto de inflex˜ao.

Definic¸˜ao 1.14. Um ponto P = (x1, x2,· · · , xn)t tal que o grad f(P ) = 0 ´e

denominado ponto cr´ıtico de f.

Seja A a matriz cujos elementos (aij) = ∂

2f ∂xi∂xj isto ´e: A(P ) =        ∂2f ∂x12 ∂2f ∂x1∂x2 · · · ∂2f ∂x1∂xn ∂2f ∂x2∂x1 ∂2f ∂x22 · · · ∂2f ∂x2∂xn ... ∂2f ∂xn∂x1 ∂2f ∂xn∂x2 . . . ∂2f ∂xn2        .

Teorema 1.5. Suponha que A(P ) seja cont´ınua na proximidade de P . Ent˜ao: a)Se A(P ):positiva definida, ent˜ao P ´e ponto de m´ınimo;

b)Se A(P ):negativa definida, ent˜ao P ´e ponto de m´aximo; c)Se A(P ): indefinida, ent˜ao P ´e ponto de sela.

(14)

Cap´ıtulo 2

M´etodos Iterativos

O objetivo deste cap´ıtulo ´e inicialmente desenvolver a construc¸˜ao dos m´etodos iterativos de Jacobi, Gauss-Seidel, Gradiente e Gradiente Conjugado. Em seguida, apresentaremos resultados que garantem a convergˆencia dos m´etodos desenvolvi-dos.

2.1 Processos Estacion´arios

Umm´etodo iterativo ´e estacion´ario se cada aproximante da soluc¸˜ao ´e obtido do anterior sempre pelo mesmo processo. Como j´a afirmamos na introduc¸˜ao desse trabalho os m´etodos estacion´arios abordados nesse trabalho ser˜ao: o m´etodo de Jacobi, o m´etodo de Gauss-Seidel e o m´etodo de Gradiente.

Considere o sistema linear Ax = b, em que A ´e uma matriz quadrada de ordem n, x ´e um vetor n × 1 e b ´e um vetor n × 1.

Suponha que esse sistema seja transformado (de forma equivalente) em: ¯

x= T ¯x+ c (2.1)

em que T = I − A e c = b.

A matriz T ´e uma matriz quadrada de ordem n e c ´e um vetor n×1, de maneira que a soluc¸˜ao x de (2.1) ´e, tamb´em, soluc¸˜ao de Ax = b.

Partindo de uma aproximac¸˜ao x(0), obtemos as aproximac¸˜oes sucessivas x(k)

para a soluc¸˜ao desejada x, usando o processo iterativo estacion´ario definido por: x(k) = T x(k−1)+ c, k = 1, 2, · · · . (2.2) Se a sequˆencia x(k) converge para a soluc¸˜ao x ent˜ao esta coincide com a

soluc¸˜ao x de Ax = b. Nesse caso passando-se o limite em (2.2) em ambos os membros temos que

(15)

Ent˜ao x tamb´em ´e soluc¸˜ao do sistema Ax = b.

O resultado a seguir ´e utilizado no pr´oximo teorema, que fornece a condic¸˜ao necess´aria e suficiente para a convergˆencia da sequˆencia x(k).

Lema 2.1. Se o raio espectral ρ(T ) satisfaz ρ(T ) < 1, ent˜ao (I − T )−1 existe e

(I − T )−1 = I + T + T2+ · · · =

X

j=0

Tj

Esta demonstrac¸˜ao pode ser encontrada em [3] p´ag. 422.

Teorema 2.1. Para qualquer x(0) ∈ Rn, a sequˆencia x(k)definida por

x(k) = T x(k−1)+ c, para cada k ≥ 1,

converge para a soluc¸˜ao ¯x = T ¯x + c se e somente se ρ(T ) < 1.

Demonstrac¸˜ao. (⇐)Suponha ρ(T ) < 1. Ent˜ao: x(k) = T x(k−1)+ c = T (T x(k−2)+ c) + c = T2x(k−2)+ (T + I)c = T2(T x(k−3)+ c) + (T + I)c = T3x(k−3)+ (T2+ T + I)c. x(k) = Tkx(0)+ (T(k−1)+ · · · + T + I)c.

Como ρ(T ) < 1, pelo Teorema 1.3, temos que: lim

k→∞T

kx(0) = 0

O Lema 2.1 implica que: lim k→∞x (k) = lim k→∞[T (k)x(0)+ (T(k−1)+ · · · + T + 1)c] = = 0 + ∞ X j=0 Tjc= (I − T )−1c.

(16)

(⇒) Considere z ∈ Rn, se lim k→∞T

kz = 0, ent˜ao, pelo Teorema 1.3, isto ´e

equivalente a ρ(T ) < 1.

Seja z um vetor arbitr´ario e ¯x a soluc¸˜ao ´unica de ¯x = T ¯x + c, pois se tiver mais de uma soluc¸˜ao n˜ao seria convergente. Defina x(0) = ¯x− z e, para k ≥ 1,

x(k) = T x(k−1)+ c.

Ent˜ao x(k)converge para ¯x.

Al´em disso ¯x − x(k) = (T ¯x− c) − (T x(k−1)+ c) = T (¯x− x(k−1)), desta forma

obtemos que: ¯ x−x(k)= T (¯x−x(k−1)) = T (T (¯x−x(k−2))) = T2x−x(k−2)) = Tkx−x(0)) = = Tkz Logo lim k→∞T kz = lim k→∞T kx− x(0)) = 0.

Como z ∈ Rnera arbitr´ario ent˜ao T ´e uma matriz convergente e segue que ρ(T ) <

1.

Essa demonstrac¸˜ao ´e apresentada em [3] p´ag. 423.

Em geral ´e dif´ıcil verificar o Teorema 2.1. Entretanto, podemos obter uma condic¸˜ao suficiente que a matriz T deve satisfazer para assegurar a convergˆencia do processo iterativo definido por (2.1). Enunciaremos a seguir tal condic¸˜ao em um corol´ario.

Corol´ario 2.1. O processo iterativo definido por x(k)= T x(k−1)+c´e convergente

se, para qualquer norma de matrizes, kT k < 1.

Demonstrac¸˜ao. Vamos introduzir o vetor erro e(k)para estudar a convergˆencia da

sequˆencia x(k) para a soluc¸˜ao x de Ax = b, ent˜ao considere:

e(k)= ¯x− x(k) Subtraindo de (2.1) membro a membro (2.2) obtemos:

¯

x− x(k)= T (¯x− x(k−1)) + c − c

e(k)= T e(k−1) (2.3)

Donde podemos escrever que e(k−1) = T e(k−2)e substituindo em (2.3) temos:

e(k) = T (T e(k−2)) = T2e(k−2) e(k) = T2e(k−2)

e assim, por aplicac¸˜oes sucessivas, segue que:

(17)

em que e(0) ´e o erro inicial. Tomando norma de matriz na express˜ao (2.4), segue que: ke(k)k = kTk.e(0)k ≤ kT kk.ke(0)k Portanto ke(k)k ≤ kT kk .ke(0)k. Se kT k < 1, teremos que ke(k)k = kx − x(k)k → 0

se kT k < 1, para alguma norma de matriz, ent˜ao temos garantida a con-vergˆencia do processo iterativo definido inicialmente.

Demonstrac¸˜ao apresentada em [4] p´ag. 169.

2.1.1 M´etodo de Jacobi

Considere o sistema linear, Ax = b de ordem n, com aii6= 0,

           a11x1 + a12x2+ · · · + a1nxn = b1 a21x1 + a22x2+ · · · + a2nxn = b2 ... an1x1+ an2x2+ · · · + annxn = bn (2.5)

Isolando x mediante a separac¸˜ao pela diagonal temos:

             x1 = a111(b1− a12x2− a13x3− · · · − a1nxn) x2 = a122(b2− a21x1− a23x3− · · · − a2nxn) ... xn= a1nn(bn− an1x1− an2x2− · · · − an,n−1xn−1) (2.6)

Para o sistema linear (2.5), o m´etodo de Jacobi consiste em dado uma aproximac¸˜ao inicial x(0) = (x(0)

1 , x (0)

2 ,· · · , x(0)n )t e uma tolerˆancia, gera-se uma sequˆencia de

vetores

(x(k)1 , x (k)

2 ,· · · , x(k)n )t, k = 1, 2, 3, · · · ,

que converge para a soluc¸˜ao exata, atrav´es do processo iterativo definido por:

               x(k+1)1 = a111(b1− a12x(k)2 − a13x(k)3 − · · · − a1nx(k)n ) x(k+1)2 = a122(b2− a21x(k)1 − a23x(k)3 − · · · − a2nx(k)n ) ... x(k+1)n = 1 ann(bn− an1x (k) 1 − an2x(k)2 − · · · − an,n−1x(k)n−1) (2.7)

(18)

Agora vamos escrever o m´etodo de outra maneira. Seja a matriz A = L+D + U em que:

L=matriz triangular inferior formada pela parte inferior (abaixo da diagonal) da matriz A;

D=matriz diagonal formada pela diagonal da matriz A;

U =matriz triangular superior formada pela parte superior (acima da diagonal) da matriz A.

Ent˜ao escrevemos o sistema linear Ax = b como (L + D + U )x = b Dx= (−L − U )x + b x= D−1(−L − U )x + D−1b

x= T x + c em que T = D−1(−L − U )e c = D−1b.

Determinando a seq¨uˆencia de aproximac¸˜oes (x(k) 1 , x (k) 2 ,· · · , x(k)n ),k = 1, 2, 3, · · · temos: x(k+1) = T x(k)+ c. (2.8) Resumindo:

1)Escolhe-se uma aproximac¸˜ao inicial x(0)e dado  > 0 e M, em que M ∈ N

´e o n´umero m´aximo de iterac¸˜oes e  uma tolerˆancia.

2)Geram-se aproximac¸˜oes sucessivas de x(k)a partir do sistema (2.8).

3)Continua-se a gerar aproximac¸˜oes at´e que um dos crit´erios abaixo seja sat-isfeito:

a)kx(k+1)− x(k)k < ou

b)k > M.

Observac¸˜ao 2.1. Na pr´atica n˜ao efetuamos as iterac¸˜oes com base em (2.8), mas sim em (2.7). A iterac¸˜ao definida por (2.8) tem fins puramente te´oricos para anal-isar a convergˆencia do m´etodo.

2.1.2 M´etodo de Gauss-Seidel

Seja o sistema linear Ax = b, isolando x mediante a separac¸˜ao da diagonal obtemos um sistema como (2.6). O m´etodo iterativo de Gauss-Seidel consiste no

(19)

seguinte fato: a partir de uma aproximac¸˜ao inicial x(0) = (x(0) 1 , x

(0)

2 ,· · · , x(0)n )t,

obter-se uma sequˆencia (x(k)1 , x

(k)

2 ,· · · , x(k)n )t, k = 1, 2, 3, · · · ,

atrav´es do processo iterativo definido por:

               x(k+1)1 = 1 a11(b1− a12x (k) 2 − a13x(k)3 − · · · − a1nx(k)n ) x(k+1)2 = 1 a22(b2− a21x (k+1) 1 − a23x(k)3 − · · · − a2nx(k)n ) ... x(k+1)n = 1 ann(bn− an1x (k+1) 1 − an2x(k+1)2 − · · · − an,n−1x(k+1)n−1 ) (2.9)

Aqui temos que na iterac¸˜ao k + 1 j´a utilizamos os valores das coordenadas do vetor x(k+1) calculados.

Considere novamente o sistema linear Ax = b como: (L + D + U )x = b (L + D)x = −U x + b multiplicando por D−1temos

(L∗+ I)x = −U∗x+ b∗, em que, L∗ = D−1L, U= D−1U, b= D−1b.

Determinando a seq¨uˆencia de aproximac¸˜oes (x(k) 1 , x (k) 2 ,· · · , x(k)n )t, k= 1, 2, 3, · · · temos: (L∗+ I)x(k+1) = −U∗x(k)+ b∗ x(k+1) = −(L∗+ I)−1U∗x(k)+ (L∗+ I)−1b∗ Tomando T = −(L∗+ I)−1Ue c = (L+ I)−1bobtemos: x(k+1) = T x(k)+ c (2.10) Resumindo temos:

1)Escolhe-se uma aproximac¸˜ao inicial x(0) e dado  > 0 e M ∈ N, em que

M ´e o n´umero m´aximo de iterac¸˜oes e  uma tolerˆancia.

2)Geram-se aproximac¸˜oes sucessivas de x(k)a partir do sistema (??).

3)Continua-se a gerar aproximac¸˜oes at´e que um dos crit´erios abaixo seja sat-isfeito:

a)kx(k+1)− x(k)k < ou

b)k > M.

Observac¸˜ao 2.2. Assim como no m´etodo de Jacobi, n˜ao efetuamos as iterac¸˜oes com base em (2.10), mas sim, usando (2.9). Desse modo n˜ao ´e necess´ario inverter a matriz (L∗+ I).

(20)

2.1.3 Convergˆencia dos M´etodos

Considere o sistema Ax = b na sua forma ¯

x= T ¯x+ c com a iterac¸˜ao definida por:

x(k+1)= T x(k)+ c, k= 1, 2, 3, · · · (2.11) Seja e(k), o erro na k-´esima iterac¸˜ao, isto ´e,

e(k) = x(k)− ¯x=⇒ x(k) = e(k)+ ¯x para k + 1 temos: x(k+1) = e(k+1)+ ¯x. Substituindo em (2.11) segue: e(k+1)+ ¯x= T (e(k)+ ¯x) + c, k = 1, 2, · · · e(k+1) = T e(k)+ T ¯x+ c − ¯x como ¯x = T ¯x + c, assim e(k+1) = T e(k).

Teorema 2.2. ´E condic¸˜ao suficiente para que a iterac¸˜ao (2.11) convirja, que os

elementos tij de T satisfac¸am a desigualdade n

X

i=1

|tij| ≤ L < 1, ∀ j = 1, 2, 3, · · · , n,

qualquer que seja a aproximac¸˜ao inicial x(0).

Demonstrac¸˜ao. Escrevendo e(k+1) = T e(k)na sua forma expandida, tem-se:

e(k+1)1 = t11e(k)1 + t12e(k)2 + · · · + t1ne(k)n

e(k+1)2 = t21e(k)1 + t22e(k)2 + · · · + t2ne(k)n

...

e(k+1)n = tn1e(k)1 + tn2e(k)2 + · · · + tnne(k)n

Tomando os m´odulos em ambos os lados e aplicando a desigualdade triangu-lar, tem-se:

|e(k+1)1 | = |t11e(k)1 + t12e(k)2 + · · · + t1ne(k)n | ≤ |t11||e(k)1 | + |t12||e(k)2 | + · · · +

|t1n||e(k)n |

|e(k+1)2 | = |t21e(k)1 + t22e(k)2 + · · · + t2ne(k)n | ≤ |t21||e(k)1 | + |t22||e(k)2 | + · · · +

(21)

... |e(k+1)

n | = |tn1e(k)1 + tn2e(k)2 + · · · + tnne(k)n | ≤ |tn1||e(k)1 | + |tn2||e(k)2 | + · · · +

|tnn||e(k)n |.

Agora somando membro a membro, obt´em-se:

n X i=1 |e(k+1)i | ≤ n X i=1 |e(k)1 ||ti1| + |e(k)2 | n X i=1 |ti2| + · · · + |e(k)n | n X i=1 |tin|. Den X i=1 |tij| ≤ L < 1, para j = 0, 1, · · · , n temos n X i=1 |e(k+1)i | ≤ |e (k) 1 |L + |e (k) 2 |L + · · · + |e(k)n |L Ou seja: n X i=1 |e(k+1)i | ≤ L n X i=1 |e(k)i | (2.12) Se k=0 em (2.12) n X i=1 |e(1)i | ≤ L n X i=1 |e(0)i | (2.13) Se k=1 em (2.12) n X i=1 |e(2)i | ≤ L n X i=1 |e(1)i | Por (2.13) n X i=1 |e(2)i | ≤ L2 n X i=1 |e(0)i | (2.14) Se k=2 em (2.12) n X i=1 |e(3)i | ≤ L n X i=1 |e(2)i | Por (2.14) n X i=1 |e(3)i | ≤ L3 n X i=1 |e(0)i |

(22)

n X i=1 |e(k+1)i | ≤ L(k+1) n X i=1 |e(0)i | Como 0 < L < 1, segue que

lim k→∞ n X i=1 |e(k+1)i | ≤ lim k→∞L (k+1)Xn i=1 |e(0)i | = n X i=1 |e(0)i | lim k→∞L (k+1) = 0 Logo lim k→∞ n X i=1 |e(k+1)i | = 0.

Demonstrac¸˜ao apresentada em [1] p´ag.66.

Corol´ario 2.2. (Crit´erio das Linhas): ´E condic¸˜ao suficiente para que a iterac¸˜ao x(k+1) = T x(k)+ cconvirja, que |tii| > n X j = 1 i6= j |tij|, para i = 1, 2, · · · , n (2.15)

Demonstrac¸˜ao. • Para o m´etodo de Jacobi, temos que,

n X i=1 |tij| = (|t1j| + |t2j| + · · · + |tj−1,j| + |tj+1,j| + · · · + |tnj|) |tjj| , para j = 1, 2, · · · , n. De (2.15) obtemos que,     n X j= 1 i6= j |tij|    |tii| < 1.

Segue pelo Teorema 2.2 que a iterac¸˜ao x(k+1) = T x(k)+ cconverge.

•Para o m´etodo de Gauss-Seidel a prova encontra-se em [8] p´ag. 240.

A matriz que satisfaz as hip´oteses do crit´erio das linhas ´e chamadadiagonal dominante estrita.

Teorema 2.3. ´E condic¸˜ao suficiente, para que a iterac¸˜ao definida por x(k+1) =

T xk+ cconvirja, que os elementos tij de T satisfac¸am a desigualdade: n

X

j=1

|tij| ≤ L < 1, para i = 1, 2, 3, · · · , n,

(23)

Corol´ario 2.3. (Crit´erio das Colunas) ´E condic¸˜ao suficiente para que a iterac¸˜ao x(k+1) = T x(k)+ cconvirja, que |ajj| > X j = 1 i6= j |aij|, para j = 1, 2, · · · , n.

A demonstrac¸˜ao para o m´etodo de Jacobi ´e an´aloga ao Corol´ario 2.2 e para o m´etodo de Gauss-Seidel encontra-se em [8] p´ag. 240.

Na pr´atica s˜ao usados apenas os corol´arios para verificar a convergˆencia dos m´etodos. Note ainda que basta apenas um dos crit´erios ser satisfeito para garantir a convergˆencia.

2.2 Processos de Relaxac¸˜ao

Nesta sec¸˜ao introduziremos alguns m´etodos iterativos para resolver sistemas lineares conhecidos como processos de relaxac¸˜ao. Seja o sistema linear Ax + b = 0em que A ´e uma matriz sim´etrica n×n positiva definida, x e b s˜ao vetores n×1. Considere que o sistema possui uma ´unica soluc¸˜ao.

Seja v uma aproximac¸˜ao da soluc¸˜ao, ent˜ao, r= Av + b

r ´e o vetor res´ıduo que indica o quanto a aproximac¸˜ao da soluc¸˜ao ”falha”em sat-isfazer o sistema. O objetivo do processo de relaxac¸˜ao ´e que o res´ıduo se anule, ou seja, que v seja a soluc¸˜ao do sistema.

Para que isto ocorra considere a func¸˜ao quadr´atica:

F(v) = 1

2hAv, vi + hb, vi (2.16)

em que A = (aij)´e uma matriz sim´etrica, v = (v1, v2,· · · , vn)t, b = (b1, b2,· · · , bn)t.

A id´eia ´e calcular as derivadas parciais de F (v) (em relac¸˜ao a vi) e obtermos

que gradF (v) = 0, assim vamos ter que o res´ıduo se anula, pois gradF (v) = Av+ b = r, conforme vamos mostrar.

Calculando os produtos escalares da func¸˜ao quadr´atica, temos que, F(v) = 1 2 n X i,j=1 aijvivj + n X i=1 bivi. Pois, Av=       a11 a12 · · · a1n a21 a22 · · · a2n ...             v1 v2 ...       =       a11v1+ a12v2+ · · · + a1nvn a21v1+ a22v2+ · · · + a2nvn ...       ,

(24)

de onde segue que, hAv, vi = a11v12+ a12v1v2+ · · · + a1nv1vn+ a21v2v1+ a22v22+ · · · + a2nv2vn+ ... an1vnv1+ an2vnv2 + · · · + annv2n= = n X i=1 n X j=1 aijvivj = n X i,j=1 aijvivj. Al´em disso, hb, vi = b1v1+ b2v2+ · · · + bnvn = n X i=1 bivi.

Diferenciando cada um dos termos de F (v) temos,

∂ n X i,j=1 aijvivj ∂vi = = 2a11v1+ a12v2+ · · · + a1ivi+ · · · + a1nvn+ +ai1v1+ ai2v2+ · · · + 2aiivi+ · · · + a1nvn+ ... +an1v1+ an2v2+ · · · + anivi+ · · · + 2annvn= = 2 n X j=1 aijvj

pois A ´e sim´etrica. E temos tamb´em ∂ n X i=1 bivi ∂vi = b1+ b2 + · · · + bn = bi Logo ∂F(v) ∂vi = 1 22 n X j=1 aijvj+ bi = n X j=1 aijvj+ bi, para i = 1, 2, · · · , n.

(25)

Portanto, grad F(v) = 0 ⇔ ∂F(v) ∂vi = 0, i = 1, 2, · · · , n ⇔ n X j=1 aijvj+ bi = 0, i = 1, 2, · · · , n.

Desta forma, segue grad F (v) = 0 e temosAv + b = 0, poisXn

j=1

aijvj + bi =

Av+ b. Logo se v = x, onde x ´e a soluc¸˜ao, devemos ter o grad F (v) = 0. Note que nos vetores que n˜ao s˜ao soluc¸˜ao, o gradiente representa o res´ıduo, ou seja, grad F(v) = r.

Teorema 2.4. O problema de determinar a soluc¸˜ao do sistema linear Ax+b = 0,

em que A ´e sim´etrica positiva definida, ´e equivalente ao problema de determinar o ponto de m´ınimo de F (v) = 1

2hAv, vi + hb, vi.

Demonstrac¸˜ao. Evidentemente que P = (x1, x2,· · · , xn)t ´e ponto de m´ınimo

de F se e somente se P ´e soluc¸˜ao do sistema Ax + b = 0, pois, se P ´e ponto estacion´ario de F , ent˜ao grad F (v) = 0 ⇒ r = 0 assim P ´e soluc¸˜ao do sistema Ax+ b = 0. Resta provar que F tem um ´unico ponto estacion´ario e que este ponto ´e de m´ınimo.

Temos que v ´e ponto de m´ınimo de F se e somente se grad F (v) = 0, isto ´e, se e somente se:

n

X

j=1

aijvj + bi = 0 , para i = 1, 2, · · · , n.

Como o sistema admite uma ´unica soluc¸˜ao temos que o ponto estacion´ario ´e ´unico, assim ∂2F ∂vi2 (v) = a11,· · · , ∂2F ∂vi∂vj (v) = aij

temos que A = (vij). Como por hip´otese A ´e positiva definida, ent˜ao pelo

resul-tado na p´ag.13 no primeiro cap´ıtulo temos que v ´e ponto de m´ınimo.

Demonstrac¸˜ao apresentada em [4] p´ag.183. 

Os m´etodos de relaxac¸˜ao s˜ao usados apenas para sistemas lineares onde a matriz dos coeficientes ´e positiva definida, caso isso n˜ao acontec¸a os m´etodos de relaxac¸˜ao n˜ao convergem.

(26)

2.2.1 Princ´ıpios B´asicos do Processo de Relaxac¸˜ao

A base do princ´ıpio geral de relaxac¸˜ao ´e determinar o ponto de m´ınimo da func¸˜ao quadr´atica F (v) = 1

2hAv, vi + hb, vi. Para isso comec¸amos com uma

aproximac¸˜ao para a soluc¸˜ao v, selecionamos uma direc¸˜ao p e corrigimos v nesta direc¸˜ao, com o objetivo de minimizar F (v), e continuamos o processo at´e atingir o ponto de m´ınimo. Desta forma anularemos o res´ıduo na direc¸˜ao p.

Variando v na direc¸˜ao p tomamos

v0 = v + tp,

assim temos que encontrar o parˆametro t de modo que a func¸˜ao F atinge o seu min´ımo nesta direc¸˜ao. Vamos determinar o min´ımo de F na direc¸˜ao p. Temos ent˜ao:

F(v0) = 1 2hAv

0, v0i + hb, v0i

= 1

2hA(v + tp), v + tpi + hb, v + tpi = 1

2[hAv, vi + hAv, tpi + hAtp, vi + hAtp, tpi] + hb, vi + hb, tpi = 1

2[hAv, vi + 2hb, vi + 2thAv, pi + t

2hAp, pi] + thb, vi

= F (v) + 1 2[t

2hAp, pi + 2thAv, pi + 2thb, pi]

= F (v) + t 2 2hAp, pi + 1 2[2t(hAv, pi + hb, pi)] = F (v) + t 2 2hAp, pi + thAv + b, pi como r = Av + b temos = F (v) + t 2 2hAp, pi + thr, pi que ´e uma func¸˜ao quadr´atica do parˆametro t.

O parˆametro t ´e selecionado de tal forma que F ´e m´ınimo dentro do conjunto examinado, onde a condic¸˜ao para que isto acontec¸a ´e:

∂F ∂t(v 0) = ∂ ∂t[F (v) + t2 2hAp, pi + thr, pi] = 0

(27)

⇒ thAp, pi + hr, pi = 0logo t = −hr, pi hAp, pi. Como ∂2F ∂t2 (v 0) = hAp, pi > 0,

pois A ´e positiva definida, temos que t ´e m´ınimo como foi visto na p´ag. 13 do Cap´ıtulo 1.

Segue

tmin =

−hr, pi hAp, pi.

Se a direc¸˜ao p da relaxac¸˜ao for ortogonal ao do res´ıduo r, ent˜ao ter´ıamos tmin = 0e assim n˜ao haver´a melhora na aproximac¸˜ao da soluc¸˜ao.

Teorema 2.5. Para o ponto de m´ınimo v0, com t = t

min, o novo res´ıduo r0 =

Av0+ b´e ortogonal `a direc¸˜ao p da relaxac¸˜ao. Demonstrac¸˜ao. Temos que

r0 = Av0+ b = A(v + tp) + b = Av + b + Atp = r + tAp. Portanto

hr0, pi = hr + tAp, pi = hr, pi + thAp, pi.

Para t = tmin

hr0, pi = hr, pi − hr, pi

hAp, pihAp, pi = hr, pi − hr, pi = 0. Logo r0 e p s˜ao ortogonais.

Esta demonstrac¸˜ao esta apresentada em [4] p´ag. 185. 

2.2.2 M´etodo dos Gradientes

Seja Ax = b, com A sim´etrica positiva definida. Vimos anteriormente que a soluc¸˜ao do sistema linear coincide com o ponto de m´ınimo da func¸˜ao quadr´atica F(v). Agora vamos definir a direc¸˜ao p(k)por,

p(k) = −r(k−1), para k = 1, 2, · · · , (2.17) de forma que esta direc¸˜ao ´e dirigida para este ponto de m´ınimo. Ent˜ao vamos reescrever o tminutilizando a direc¸˜ao p(k).

t = −hr, pi = −hr

(k−1), p(k)i

= hr

(28)

Assim temos que: v(k) = v(k−1)+ tp(k) v(k)= v(k−1)− tminr(k−1). e que r(k)= Av(k)+ b r(k)= A(v(k−1)− tminr(k−1)) + b r(k)= Av(k−1)+ b − tminAr(k−1) r(k) = r(k−1)− tminAr(k−1).

Resumindo temos: dado v(0), uma tolerˆancia  > 0, e um M ∈ N, o m´etodo

dos Gradientes consiste em: a)r(0) = Av(0)+ b b)para k = 1, 2, · · · b1)tmin = hr (k−1),r(k−1)i hAr(k−1),r(k−1)i b2)v(k)= v(k−1)− t minr(k−1) b3)r(k)= r(k−1)− t minAr(k−1)

b4)Se kv(k)− v(k−1)k < ou se k ≥ M, fim, sen˜ao b)novamente.

2.2.3 M´etodo dos Gradientes Conjugados

Este ´e outro m´etodo de relaxac¸˜ao, que iremos apresentar agora, mas para isso precisamos considerar a seguinte definic¸˜ao:

Definic¸˜ao 2.1. Dada uma matriz positiva definida A, p(k)e p(k−1) s˜ao direc¸˜oes

conjugadas se

hAp(k), p(k−1)i = hp(k), Ap(k−1)i = 0.

O primeiro passo deste m´etodo ´e igual ao primeiro passo do m´etodo dos Gra-dientes.

Agora escolha p(k), que ´e a direc¸˜ao de relaxac¸˜ao, como uma combinac¸˜ao linear

de r(k−1)e p(k−1), da seguinte forma:

p(k) = −r(k−1)+ αk−1p(k−1), para k = 1, 2, 3, · · · . (2.18)

Precisamos determinar o parˆametro αk−1 que ser´a obtido atrav´es das direc¸˜oes

conjugadas. Como

(29)

de (2.18) obtemos que h−r(k−1)+ αk−1p(k−1), Ap(k−1)i = 0 −hr(k−1), Ap(k−1)i + αk−1hp(k−1), Ap(k−1)i = 0, logo αk−1 = hr(k−1), Ap(k−1)i hp(k−1), Ap(k−1)i.

Agora vamos determinar a sequˆencia de aproximac¸˜oes para a soluc¸˜ao:

v(k)= v(k−1)+ qkp(k) (2.19)

em que

qk=

−hr(k−1), p(k)i

hAp(k), p(k)i .

Subtituimos (2.19) no res´ıduo, que ´e dado por r(k)= Av(k)+ bobtemos,

r(k) = A(v(k−1)+ q

kp(k)) + b

r(k) = r(k−1)+ qkAp(k). (2.20)

Observac¸˜ao 2.3. O res´ıduo de cada passo, possui as seguintes propriedades: a)hr(k), r(k−1)i = 0;

Temos que, substituindo em r(k−1)por (2.17) e pelo Teorema 2.5 segue que res´ıduos

consecutivos s˜ao ortogonais:

hr(k), r(k−1)i = −hr(k), p(k)i = 0, k = 1, 2, · · · . b)hr(k), p(k)i = 0;

Substituindo p(k) pela express˜ao (2.17) e pelo resultado da Observac¸˜ao 2.1

item a) temos:

hr(k), p(k)i = −hr(k), r(k−1)i = 0, k = 1, 2, · · · .

Com estas propriedades obtemos algumas simplificac¸˜oes nas f´ormulas de qke

αk−1.

Primeiramente temos

qk =

−hr(k−1), p(k)i

hAp(k), p(k)i

(30)

= hr(k−1), r(k−1)i − αk−1hr(k−1), p(k−1)i

da Observac¸˜ao 2.1 item b) temos que hr(k−1), p(k−1)i = 0assim:

−hr(k−1), p(k)i = hr(k−1), r(k−1)i

logo

qk=

hr(k−1), r(k−1)i

hAp(k), p(k)i .

Agora vamos simplificar a express˜ao de

αk−1 = hr(k−1), Ap(k−1)i hp(k−1), Ap(k−1)i. primeiramente de (2.20) obtemos Ap(k−1) = 1 qk−1 (r(k−1)− r(k−2)). Substituindo Ap(k−1) no numerador de α k−1temos: hr(k−1), Ap(k−1)i = hr(k−1), 1 qk−1 (r(k−1)− r(k−2))i = = 1 qk−1 hr(k−1), r(k−1)i − 1 qk−1 hr(k−1), r(k−2)i da Observac¸˜ao 2.1 item a) temos que hr(k−1), r(k−1)i = 0, segue:

hr(k−1), Ap(k−1)i = 1 qk−1

hr(k−1), r(k−1)i. (2.21) Agora substituindo Ap(k−1)no denominador de α

k−1 temos: hp(k−1), Ap(k−1)i = hp(k−1), 1 qk−1 (r(k−1)− r(k−2))i = = 1 qk−1 hp(k−1), r(k−1)i − 1 qk−1 hp(k−1), r(k−2)i pela Observac¸˜ao 2.1 item b) hp(k−1), r(k−1)i = 0segue que:

hp(k−1), Ap(k−1)i = − 1 qk−1

hp(k−1), r(k−2)i. (2.22)

(31)

− 1 qk−1 hp(k−1), r(k−2)i = − 1 qk−2 h−r(k−2)+ α k−1p(k−1), r(k−2)i = = 1 qk−1 hr(k−2), r(k−2)i − αk−1 qk−1 hp(k−2), r(k−2)i

pela Observac¸˜ao 2.1 item b) hp(k−2), r(k−2)i = 0segue que:

− 1 qk−1

hp(k−1), r(k−2)i = 1 qk−1

hr(k−2), r(k−2)i. (2.23) Ent˜ao, usando (2.21) e (2.23) obtemos que,

αk−1 = 1 qk−1hr (k−1), r(k−1)i 1 qk−1hr (k−2), r(k−2)i = hr(k−1), r(k−1)i hr(k−2), r(k−2)i.

Resumindo, devemos efetuar o seguinte processo para encontrar a soluc¸˜ao aproximada do sistema utilizando o m´etodo dos gradiente conjugados:

Dado v(0) e  > 0, e M ∈ Ndevemos calcular:

a)r(0) = Av(0)+ b p(1) = −r(0) q1 = hr(0), r(0)i hAr(0), r(0)i v(1) = v(0)+ q1p(1) r(1) = r(0)+ q1Ap(1) b) 1)αk−1 = hr (k−1),r(k−1)i hr(k−2),r(k−2)i b2)p(k)= −r(k−1)+ α k−1p(k−1) b3)qk= hr (k−1),r(k−1)i hAp(k),p(k)i b4)v(k) = v(k−1)+ q kp(k) b5)r(k) = r(k−1)+ q kAp(k)

(32)

Teorema 2.6. O m´etodo dos Gradientes Conjugados fornece a soluc¸˜ao

(33)

Cap´ıtulo 3

Aplicac¸˜oes dos M´etodos Iterativos

Neste cap´ıtulo veremos alguns problemas onde iremos aplicar os quatro m´eto-dos estudam´eto-dos: Jacobi, Gauss-Seidel, Gradiente e Gradiente Conjugado. Ser´a feita uma comparac¸˜ao entre os m´etodos, verificando o n´umero de iterac¸˜oes necess´arias e a soluc¸˜ao aproximada encontrada por cada m´etodo. Os problemas a seguir foram retirados do livro de C´alculo Num´erico da autora Neide Bertoldi Franco (4).

No primeiro exemplo vamos desenvolver o m´etodo dos Gradientes e Gradi-entes Conjugados, mostrando passo a passo como chegar a soluc¸˜ao. Mas antes disto vamos calcular a func¸˜ao quadr´atica dada por (2.20) e mostrar que o ponto de m´ınimo desta func¸˜ao ´e soluc¸˜ao do sistema. Nos exemplos seguintes vamos resolver problemas aplicados.

As soluc¸˜oes aproximadas deste Cap´ıtulo foram obtidas a partir de c´odigos es-critos usando a Linguagem de Programac¸˜ao C++.

Exemplo 3.1. Consideramos o seguinte sistema:

(

3x +2y −2 = 0

2x +6y + 8 = 0 (3.1)

Calcule a func¸˜ao quadr´atica, mostre que o ponto de m´ınimo ´e soluc¸˜ao do sistema (3.1) e aplique os m´etodos dos Gradientes e Gradientes Conjugados.

´E f´acil verificar que a soluc¸˜ao do sistema linear ´e: x = (2, −2)t. Para explicitar

a func¸˜ao quadr´atica, F (v), primeiramente calculamos:

Av = 3 2 2 6 ! v1 v2 ! = 3v1+ 2v2 2v1+ 6v2 ! ,

(34)

assim, hAv, vi = 3v12+ 4v1v2+ 6v22; hb, vi = −2v1+ 8v2. Logo: F(v) = 1 2(3v1 2+ 4v 1v2+ 6v22) − 2v1+ 8v2. Al´em disso: A(P ) =   ∂2F ∂v12 ∂2F ∂v1∂v2 ∂2F ∂v2∂v1 ∂2F ∂v22   3 2 1 6 !

que ´e uma matriz positiva definida, pela Definic¸˜ao 1.12. Assim F (v) tem um ponto de m´ınimo em (2, −2)t, que ´e a soluc¸˜ao do sistema (3.1), conforme foi

provado no Teorema 2.4.

Agora vamos calcular uma aproximac¸˜ao da soluc¸˜ao a partir do vetor v(0) =

(5, −3)tpelos m´etodos do Gradiente e Gradiente Conjugado.

Primeiramente pelo Gradiente. Seja v(0) = (5, −3)t, ent˜ao,

r(0) = Av(0)+ b = 3 2 2 6 ! 5 −3 ! + −2 8 ! = 7 0 ! . Para k = 1, obtemos: hr(0), r(0)i = 49 + 0 = 49, Ar(0) = 3 2 2 6 ! 7 0 ! = 21 14 ! ⇒ hAr(0), r(0)i = 147 + 0 = 147. Assim, tmin = 14749 = 0.33.E, v(1) = v(0)− tminr(0) = 5 −3 ! − 0.33 7 0 ! = 2.69 −3 ! , r(1) = r(0)− tminAr(0) = 7 0 ! − 0.33 21 14 ! = 0.07 −4.62 ! . Para k = 2, obtemos: hr(1), r(1)i = 0.0049 + 21.34 = 21.345, Ar(1) = 3 2 2 6 ! 0.07 −4.62 ! = −9.03 −27.58 ! ⇒ hAr(1), r(1)i = −0.63 + 127.42 = 126.78.

(35)

Desse modo, tmin = 21.349126.78 = 0.168. Segue que, v(2) = v(1)− tminr(1) = 2.69−3 ! − 0.168 0.07 −4.62 ! = 2.67 −2.22 ! , r(2) = r(1)− tminAr(1) = 0.07 −4.62 ! − 0.168 −9.03 −27.58 ! = 1.59 0.01 ! . Para k = 3, obtemos: hr(2), r(2)i = 2.53 + 0.0001 = 2.5301, Ar(2)= 3 2 2 6 ! 1.59 0.01 ! = 4.79 3.24 ! ⇒ hAr(2), r(2)i = 7.62 + 0.0324 = 7.65. Assim, tmin = 2.53017.65 = 0.33. Segue que, v(3) = v(2)− tminr(2) = 2.67 −2.22 ! − 0.33 1.59 0.01 ! = 2.15 −2.22 ! , r(3) = r(2)− tminAr(2) = 1.590.01 ! − 0.33 4.79 3.24 ! = 0.01 −1.06 ! . Para k = 4, obtemos: hr(3), r(3)i = 0.0001 + 1.12 = 1.12, Ar(3) = 3 2 2 6 ! 0.01 −1.06 ! = −2.09 −6.34 ! ⇒ hAr(3), r(3)i = −0.0209 + 6.72 = 6.70. Desse modo, tmin = 1.126.70 = 0.16.

Agora, v(4) = v(3)− tminr(3) = −2.222.15 ! − 0.16 0.01 −1.06 ! = 2.14 −2.05 ! , r(4) = r(3)− tminAr(3) = −1.060.01 ! − 0.16 −2.09 −6.34 ! = 0.34 −0.05 ! . Para k = 5, obtemos: hr(4), r(4)i = 0.12 + 0.0025 = 0.12,

(36)

Ar(4) = 3 2 2 6 ! 0.34 −0.05 ! = 0.92 0.38 ! ⇒ hAr(3), r(3)i = 0.31 − 0.019 = 0.291. Assim: tmin = 0.2910.12 = 0.41. Logo, v(5) = v(4)− tminr(4) = −2.052.14 ! − 0.41 0.34 −0.05 ! = 2.00 −2.02 ! . Agora aplicando o m´etodo dos Gradientes Conjugados. Considere v(0) =

(5, −3)tent˜ao: r(0) = Av(0)+ b = 3 2 2 6 ! 5 −3 ! + −2 8 ! = 7 0 ! , p(1) = −r(0) = −7 0 ! , hr(0), r(0)i = 49 + 0 = 49, Ar(0) = 3 2 2 6 ! 7 0 ! = 21 14 ! , ⇒ hAr(0), r(0)i = 147 + 0 = 147. Assim, q1 = hr(0), r(0)i hAr(0), r(0)i = 49 147 = 0.33, e, v(1) = v(0)+ q1p(1) = 5 −3 ! + 0.33 −7 0 ! = 2.69 −3 ! , Ap(1) = 3 2 2 6 ! −7 0 ! = −21 −14 ! r(1) = r(0)+ q1Ap(1) = 7 0 ! + 0.33 −21 −14 ! = 0.07 −4.62 ! . Para k = 2, temos, hr(1), r(1)i = 0.0049 + 21.34 = 21, 345, α1 = hr(1), r(1)i hr(0), r(0)i = 21.345 49 = 0.436,

(37)

p(2) = −r(1)+ α1p(1) = −0.074.62 ! + 0.436 −7 0 ! = −3.12 4.62 ! , Ap(2) = 3 2 2 6 ! −3.12 4.62 ! = −0.12 21.48 ! , ⇒ hAp(2), p(2)i = 0.37 + 99.24 = 99.61. Assim, q2 = hr(1), r(1)i hAp(2), p(2)i = 21.349 99.61 = 0.214, v(2) = v(1)+ q 2p(2) = 2.69−3 ! + 0.214 −3.12 4.62 ! = 2.02 −2.01 ! . Comparando a soluc¸˜ao aproximada do m´etodo dos Gradientes na iterac¸˜ao k = 2 com a obtida acima para o m´etodo dos Gradientes Conjugados vemos que o m´etodo dos Gradientes Conjugados converge para a soluc¸˜ao com menos iterac¸˜oes. Pelo Teorema 2.6 o m´etodo dos Gradientes Conjugados deveria convergir em duas iterac¸˜oes (pois a matriz ´e 2 × 2). No entanto, a soluc¸˜ao obtida acima para k = 2 n˜ao ´e exatamente (2, −2)t, isto provavelmente deve-se ao fato dos c´alculos terem

sidos feitos sem a precis˜ao requerida.

Exemplo 3.2. Considere o circuito 3.1, com resistˆencias e baterias tal como indi-cado; escolhemos arbitrariamente as orientac¸˜oes das correntes.

(38)

Aplicando a lei de Kirchoff, que diz que a soma alg´ebrica das diferenc¸as de potencial em qualquer circuito fechado ´e zero, achamos para as correntes i1, i2, i3:

     6i1 + 10(i1− i2) + 4(i1− i3) − 26 = 0 5i2 + 5i2 + 5(i2− i3) + 10(i2− i1) = 0

11i3 + 4(i3− i1) + 5(i3− i2) − 7 = 0

Organizando o sistema obtemos:

     20i1 − 10i2 − 4i3 = 26 −10i1 + 25i2 − 5i3 = 0 −4i1 − 5i2 + 20i3 = 7

a) ´E poss´ıvel aplicar os m´etodos com convergˆencia assegurada? Justifique. Vamos aplicar o crit´erio das linhas, conforme o Corol´ario 2.2, para verificar a convergˆencia do sistema. O crit´erio nos diz que se

|aii| >

X

j=1i6=j

|aij| ∀i = 1, 2, · · · , n.

Para a primeira linha temos que:

|a11| = 20e |a12| + |a13| = 10 + 4 = 14

assim |a11| > |a12| + |a13|.

Para a segunda linha : |a22| = 25e |a21| + |a23| = 10 + 5 = 15

assim |a22| > |a21| + |a23|.

Para a terceira linha: |a33| = 20e |a31| + |a32| = 4 + 5 = 9

logo |a33| > |a31| + |a32|.

Desta forma ´e poss´ıvel aplicar os m´etodos de Gauss e Jacobi, no sistema das correntes. Podemos aplicar tamb´em o m´etodo dos Gradientes Conjugados pois a matriz ´e sim´etrica positiva definida.

b)Obtenha a soluc¸˜ao aproximada com uma tolerˆancia  < 10−2e i(0) = (0, 0, 0)t.

A partir do m´etodo de Jacobi obtemos a soluc¸˜ao (1.99108, 0.99216, 0.993717)t

na 10a iterac¸˜ao com um tolerˆancia de 0.00899503. Utilizando o m´etodo de Gauss

encontramos a soluc¸˜ao (1.99814, 0.998904, 0.999355)t na 7a iterac¸˜ao com uma

tolerˆancia de 0.00391774. J´a o m´etodo do Gradiente Conjugado alcanc¸ou a soluc¸˜ao exata (2, 1, 1)tna 3a iterac¸˜ao com tolerˆancia zero.

Podemos ver que o m´etodo de Gauss converge mais r´apido que o de Jacobi, conforme o esperado. O Gradiente Conjugado convergiu para a soluc¸˜ao, na ter-ceira iterac¸˜ao, satisfazendo o Teorema 2.6.

Exemplo 3.3. Suponha uma barra R de metal homegˆeneo onde: AB = CD = 4 e AC = BD = 3u.m.. Veja Figura 3.2.

(39)

Figura 3.2: Barra de metal homogˆeneo.

A temperatura ao longo de AB, AC, BD ´e mantida constante e igual a 0◦C,

enquanto ao longo de CD ela ´e igual a 1◦C. A distribuic¸˜ao do calor na barra R

obedece `a seguinte equac¸˜ao, conhecida como Equac¸˜ao de Laplace. ∂2u

∂x2 +

∂2u

∂y2 = 0 (3.2)

com as condic¸˜oes de contorno:

u(x, 3) = 1 para 0 < x < 4, u(x, 0) = 0 para 0 < x < 4, u(0, y) = 0 para 0 < y < 3, u(4, y) = 0 para 0 < y < 3,

Consideremos uma divis˜ao do retˆangulo ABCD em retˆangulos menores a partir de uma divis˜ao de AB em intervalos de amplitude h = 1, e de uma divis˜ao de CD em intervalos iguais de amplitude k = 1, como mostra a Figura 3.3.

A temperatura u nos pontos internos pode ser obtida numericamente aproxi-mando as derivadas segundas da equac¸˜ao (3.2) pelas diferenc¸as de segunda ordem. Considando o desenvolvimento de u(x+h, y) e u(x−h, y) em s´erie de Taylor em torno do ponto x,

(40)

Figura 3.3: Divis˜ao da barra homogˆenea em retˆangulos.

u(x+h, y) = u(x, y)+hux(x, y)+

h2 2!uxx(x, y)+ h3 3!uxxx(x, y)+ h4 4!uxxxx(x, y)+· · · e

u(x−h, y) = u(x, y)−hux(x, y)+

h2 2!uxx(x, y)− h3 3!uxxx(x, y)+ h4 4!uxxxx(x, y)+· · · . Somando, obtemos:

u(x + h, y) + u(x − h, y) = 2u(x, y) + 2h

2 2!uxx(x, y) + 2 h4 4!uxxxx(x, y) + · · · isolando uxx(x, y), uxx(x, y) =

u(x − h, y) − 2u(x, y) + u(x + h, y) − 2h4

4!uxxxx(x, y)

h2 + · · ·

dessa forma, o ´ultimo termo ´e o erro de truncamento em que

uxx(x, y) =

u(x − h, y) − 2u(x, y) + u(x + h, y)

h2 + θ(h

(41)

em que o ´ultimo termo ´e o erro de truncamento. De modo an´alogo desenvolvendo u(x, y + h)e u(x, y −h), estamos considerando k = h na s´erie de Taylor em torno do ponto y, obtemos:

uyy(x, y) =

u(x, y − h) − 2u(x, y) + u(x, y + h)

h2 + θ(h

2).

Desta forma;

u(x − h, y) − 2u(x, y) + u(x + h, y)

h2 (3.3)

e

u(x, y − h) − 2u(x, y) + u(x, y + h)

h2 (3.4)

aproximam as derivadas segundas uxxe uyy, respectivamente, com θ(h2).

Substi-tuindo (3.3) e (3.4) em (3.2) obtemos

u(x − h, y) − 2u(x, y) + u(x + h, y)

h2 +

u(x, y − h) − 2u(x, y) + u(x, y + h)

h2 = 0

(3.5) para cada par (x, y) em R.

Agora vamos determinar um sistema de seis equac¸˜oes lineares nas inc´ognitas u1, u2,· · · , u6. Resolva-o pelos m´etodos de: Jacobi, Gauss-Seidel e Gradiente

Conjugado e resolvˆe-los.

Para u1 = u(1, 2)em (3.5) temos:

u(0, 2) − 2u(1, 2) + u(2, 2) + u(1, 1) − 2u(1, 2) + u(1, 3)

1 = 0

−4u1 + u2+ u4+ 1 = 0

−4u1+ u2+ u4 = −1 (3.6)

Para u2 = u(2, 2)em (3.5) temos:

u(1, 2) − 2u(2, 2) + u(3, 2) + u(2, 1) − 2u(2, 2) + u(2, 3)

1 = 0

u1− 2u2+ u3+ u5 − 2u2+ 1 = 0

ou

(42)

Para u3 = u(3, 2)em (3.5) temos:

u(2, 2) − 2u(3, 2) + u(4, 2) + u(3, 1) − 2u(3, 2) + u(3, 3)

1 = 0

u2 − 2u3+ 0 + u6− 2u3+ 1 = 0

ou

u2− 4u3+ u6 = −1. (3.8)

Para u4 = u(1, 1)em (3.5) temos:

u(0, 1) − 2u(1, 1) + u(2, 1) + u(1, 0) − 2u(1, 1) + u(1, 2)

1 = 0

0 − 2u4+ u5+ 0 − 2u4+ u1 = 0

ou

u1− 4u4+ u5 = 0. (3.9)

Para u5 = u(2, 1)em (3.5) temos:

u(1, 1) − 2u(2, 1) + u(3, 1) + u(2, 0) − 2u(2, 1) + u(2, 2)

1 = 0

u4− 2u5+ u6+ 0 − 2u5+ u2 = 0

ou

u2+ u4− 4u5 + u6 = 0. (3.10)

Para u6 = u(3, 1)em (3.5) temos:

u(2, 1) − 2u(3, 1) + u(4, 1) + u(3, 0) − 2u(3, 1) + u(3, 2)

1 = 0

u5 − 2u6+ 0 + 0 − 2u6+ u3 = 0

ou

u3+ u5− 4u6 = 0. (3.11)

A partir das equac¸˜oes (3.6) `a (3.11), obtemos o seguinte sistema:

                   −4u1 + u2 + 0 + u4 + 0 + 0 = −1 u1 + −4u2 + u3 + 0 + u5 + 0 = −1 0 + u2 + −4u3 + 0 + 0 + u6 = −1 u1 + 0 + 0 + −4u4 + u5 + 0 = 0 0 + u2 + 0 + u4 + −4u5 + u6 = 0 0 + 0 + u3 + 0 + u5 + −4u6 = 0

(43)

Escrevendo da forma Ax = b segue:           −4 1 0 1 0 0 1 −4 1 0 1 0 0 1 −4 0 0 1 1 0 0 −4 1 0 0 1 0 1 −4 1 0 0 1 0 1 −4                     u1 u2 u3 u4 u5 u6           =           −1 −1 −1 0 0 0          

Considere uma tolerˆancia  < 10−3e u(0) = (0, 0, 0, 0, 0, 0)t.

A partir do m´etodo de Jacobi obtemos a soluc¸˜ao (0.415786, 0.508757, 0.415786, 0.154884, 0.204455, 0.154884)tna 13aiterac¸˜ao com uma tolerˆancia 0.000715441.

Atrav´es do m´etodo de Gauss obtemos a soluc¸˜ao (0.415963, 0.509158, 0.416081, 0.155167, 0.204873, 0.155239)tna 8aiterac¸˜ao com tolerˆancia 9.08881e−6.

J´a m´etodo do Gradiente Conjugado teve como soluc¸˜ao (0.416149, 0.509317, 0.416149, 0.15528, 0.204969, 0.15528)t na 4a iterac¸˜ao com

tolerˆancia zero.

Podemos observar que o m´etodo dos Gradientes Conjugados converge mais depressa que os outros dois. E, o Teorema 2.6 foi novamente satisfeito, pois o sis-tema no m´etodo dos Gradientes Conjugados convergiu em 4aiterac¸˜oes, enquanto

que o sistema tem ordem 6.

Exemplo 3.4. Considere a malha quadrada da Figura 3.4, cujos bordos AC e BD s˜ao mantidos `a temperatura de 20◦C, o bordo AB, a 40C; e o bordo CD, a 10C,

com o uso de isolantes t´ermicos em A,B,C,D.

Para determinar a temperatura nos pontos interiores da malha, pode-se supor que a temperatura em cada ponto ´e igual a m´edia aritm´etica dos quatro pontos vizinhos. Considerando as coordenadas na Figura 3.4 vamos determinar as 16 relac¸˜oes que s˜ao encontradas a partir da temperatura dos pontos interiores. Na verdade, faremos a seguir somente algumas delas.

a11= a01+ a12+ a10+ a21 4 = 40 + a12+ 20 + a21 4 −4a11+ a12+ a21= −60 (3.12) a12 = a02+ a11+ a13+ a22 4 = 40 + a11+ a13+ a22 4 a11− 4a12+ a13+ a22= −40 (3.13) = a03+ a12+ a14+ a23 = 40 + a12+ a14+ a23

(44)

Figura 3.4: Malha quadrada. a12− 4a13+ a14+ a23= −40 (3.14) a14= a04+ a13+ a15+ a24 4 = 40 + a13+ 20 + a24 4 a13− 4a14+ a24= −60 (3.15) a21 = a20+ a11+ a22+ a31 4 = 20 + a11+ a22+ a31 4 a11− 4a21+ a22+ a31= −20 (3.16) a31 = a30+ a21+ a32+ a41 4 = 20 + a21+ a32+ a41 4 a21− 4a31+ a32+ a41= −20 (3.17) a41= a40+ a31+ a42+ a51 4 = 20 + a31+ a42+ 10 4 a31− 4a41+ a42= −30 (3.18)

(45)

A partir das equac¸˜oes (3.12) `a (3.18) e de modo an´alogo para as demais obte-mos o sistema Ax = b, em que:

A=                                 −4 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 −4 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 −4 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 −4                                 , x= a11 a12 a13 a14 a21 a22 a23 a24 a31 a32 a33 a34 a41 a42 a43 a44 t b= −60 −40 −40 −60 −20 0 0 −20 −20 0 0 −20 −30 −10 −10 −30 t

Para resolver o sistema Ax=b, vamos considerar a tolerˆancia  como sendo  < 10−3

e v(0) = (0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0)t.

Atrav´es do m´etodo de Jacobi obteve-se na 47a iterac¸˜ao uma tolerˆancia de

0.000950029. J´a no m´etodo de Gauss obteve-se uma tolerˆancia de 0.000843505 na 26a

iterac¸˜ao. E no m´etodo do Gradiente Conjugado obtivesse tolerˆancia 0 na 6aiterac¸˜ao.

Neste exemplo temos que o Teorema 2.6 foi novamente satisfeito, pois obtemos a soluc¸˜ao na 6aiterac¸˜ao e o sistema ´e de ordem 16.

(46)

Considerac¸˜oes Finais

No primeiro cap´ıtulo, apresentamos definic¸˜oes e resultados b´asicos necess´arios para o desenvolvimento dos m´etodos iterativos abordados nesse trabalho. Na sequˆencia, no Capitulo 2, desenvolvemos os m´etodos iterativos de Jacobi, Gauss-Seidel, Gradiente e Gradiente Conjugado. Al´em disso, apresentamos tamb´em resultados te´oricos referentes a convergˆencia dos m´etodos.

No terceiro cap´ıtulo, resolvemos numericamente alguns problemas aplica-dos, com a finalidade de aplicar e comparar os m´etodos desenvolvidos. Para isso, usamos c´odigos escritos na linguagem de programac¸˜ao C++. Dessa forma,

podemos evidenciar que o m´etodo dos Gradientes Conjugados converge com um n´umero menor de iterac¸˜oes quando comparado com os outros m´etodos apresenta-dos e tamb´em em at´e n passos, onde n ´e a ordem do sistema.

Os m´etodos iterativos tamb´em podem ser estudados a partir do subespac¸o de Krilov, tanto os m´etodos deste trabalho como os que n˜ao foram como: Gradiente Pr´e-Condicionado, SOR, SSOR e outros. Uma ´area bastante interessante para continuar o estudo sobre este assunto.

(47)

Referˆencias Bibliogr´aficas

[1] BARROSO, Leˆonidas Conceic¸˜ao - C´alculo Num´erico. 2aedic¸˜ao, Ed. Harbra,

S˜ao Paulo, 1987.

[2] BOLDRINI, J.L.; COSTA S.I.R.; FIGUEIREDO, V.L.; H. G. Wetzler

-´Algebra Linear.3a edic¸˜ao, Ed. Harbra, 1980.

[3] BURDEN, Richard L.; FARIES J. Douglas - An´alise Num´erica. Cengage Leaning, S˜ao Paulo, 2008.

[4] FRANCO, Neide Bertoldi - C´alculo Num´erico. Pearson Pretince Hall, S˜ao Paulo, 2006.

[5] ISSACSON, E.; KELLER, H. B. - Analysis of numerical methods. John Wi-ley e Sons, New York, 1966.

[6] ORTEGA, J.M.- Numerical analysis; a second course. Academic Press, New York, 1972.

[7] POOLE, David - ´Algebra Linear. Thonson, S˜ao Paulo, 2004.

[8] SANTOS, Vitoriano Ruas de Barros - Curso de C´alculo Num´erico. 3a

edic¸˜ao, Livros T´ecnicos e Cient´ıficos Editora S. A., Rio de Janeiro, 1976. [9] SCHWARZ, H.R.; RUTISHAUSER, H. ; STIEFEL, E. - Numerical analysis

of symmetric matrices. Prentice-Hall, 1973.

Referências

Documentos relacionados

Cultures (under a 12-h photoperiod, 25 °C, one week): Colonies on PDA attaining 78 mm diam after seven days at 25 °C, with undulate edge, whitish, with dense aerial mycelium on

a) Falta aos entrevistados embasamento teórico sobre o conceito global de direitos humanos que lhes permitam organizar seus pensamentos, refletindo sobre as ideias, para criar

chamam a atenção para o facto de o acesso a fontes de energia sustentáveis e a existência de preços de energia acessíveis constituírem um verdadeiro desafio para os países ACP;

Dado que, “as crianças constroem de maneira espontânea conceitos sobre o mundo que as cercam e que esses conceitos em muitos casos chegam naturalmente a um

No desenvolvimento prático deste trabalho, serão relacionados todos os custos do empregador ao longo de 2008 com direitos trabalhistas e encargos sociais,

Entre em contato via email opr-apoiogate@portoitapoa.com.br informando o número do booking, contêiner e data/horário desejado, para análise e confirmação da viabilidade de

Esta pesquisa, inicialmente, apresentou os resultados de uma investigação de caráter revisionista sobre o estado da pesquisa em evidenciação voluntária de Capital Intelectual (CI),

A “incúria dos párocos”, destacada em quase todos os estudos que se debruçaram sobre os livros paroquiais, pode ter sido a causa da desordem em que se encontra este livro,