UNIVERSIDADE FEDERAL DE SANTA CATARINA Centro de Ciˆencias F´ısicas e Matem´aticas
Curso de Licenciatura em Matem´atica
M ´ETODOS ITERATIVOS PARA SISTEMAS
LINEARES
Autora: Ivandra Kremer
Orientador: Prof. Dr. Paulo Rafael B¨osing Florian´opolis
Ivandra Kremer
M´etodos Iterativos para Sistemas Lineares
Trabalho acadˆemico de graduac¸˜ao apresentado `a disciplina Trabalho de Conclus˜ao de Curso II, do Curso de Matem´atica - Habilitac¸˜ao Licenciatura, do Centro Ciˆencias F´ısicas e Matem´aticas da Universidade Federal de Santa Catarina
Professora: Carmem Suzane Comitre Gimenez
Florian´opolis Fevereiro 2009
Agradecimentos
Nestes cinco anos de muitos aprendizados gostaria de agradecer a
muitas pessoas que estiveram do meu lado: `A Deus, pela
oportunidade de desfrutar das maravilhas do aprender e ter
confiado a mim a tarefa de ensinar. Ao meu orientador Paulo, pelo
incentivo, apoio, compreens˜ao e por acreditar e acompanhar cada
passo do meu trabalho. Ao meus av´os, por me acolheram em sua
casa, e me incentivaram nos momentos em que precisei. A minha
fam´ılia, pelo incentivo dado em todos os momentos de minha vida.
Ao meu namorado Marcos, pelo companheirismo, incentivo e
compreens˜ao. E aos meus amigos, que me incentivaram nas horas
Sum´ario
1 Noc¸˜oes B´asicas 8 2 M´etodos Iterativos 14 2.1 Processos Estacion´arios . . . 14 2.1.1 M´etodo de Jacobi . . . 17 2.1.2 M´etodo de Gauss-Seidel . . . 182.1.3 Convergˆencia dos M´etodos . . . 20
2.2 Processos de Relaxac¸˜ao . . . 23
2.2.1 Princ´ıpios B´asicos do Processo de Relaxac¸˜ao . . . 26
2.2.2 M´etodo dos Gradientes . . . 27
2.2.3 M´etodo dos Gradientes Conjugados . . . 28
3 Aplicac¸˜oes dos M´etodos Iterativos 33
Introduc¸˜ao
Os m´etodos iterativos foram muito utilizados durante o s´eculo XX, por causa dos avanc¸os tecnol´ogicos. Estes m´etodos servem para resolver sistemas lineares que surgem em diversas ´areas como: engenharia e matem´atica.
Dentre os tipos de m´etodos para resoluc¸˜ao de sistemas lineares podemos desta-car os m´etodos diretos e os iterativos, sendo que no primeiro as soluc¸˜oes s˜ao obti-das sem a necessidade de qualquer tipo de aproximac¸˜ao (`a excec¸˜ao da precis˜ao da m´aquina) e no segundo a soluc¸˜ao aproximada do sistema ´e encontrada sob uma certa tolerˆancia previamente determinada.
Os m´etodos iterativos tem por finalidade o melhoramento cont´ınuo da soluc¸˜ao aproximada at´e que esta esteja precisa o “suficiente”. Sendo que, nestes m´etodos s˜ao utilizadas t´ecnicas para aproximac¸˜oes sucessivas chegando a soluc¸˜oes mais precisas a cada passo, para um dado sistema linear.
N˜ao se pode garantir a priori que os m´etodos iterativos resolvam qualquer tipo de sistema, ´e necess´ario analisar certos crit´erios estabelecidos em relac¸˜ao ao sistema. J´a os m´etodos diretos resolvem todos os tipos de sistema determinados, mas alguns de forma mais demorada.
Os m´etodos iterativos se dividem em estacion´arios e n˜ao-estacion´arios. Um m´etodo ´e estacion´ario quando cada aproximante da soluc¸˜ao ´e obtido do anterior sempre pelo mesmo processo. Entre os m´etodos iterativos estacion´arios temos o Jacobi, Gauss-Seidel, Gradiente, SOR e SSOR. E entre os n˜ao-estacion´arios temos o Gradiente Conjugado (GC).
O m´etodo de Jacobi ´e uma homenagem ao matem´atico Carl Gustav Jacob Ja-cobi (1804−1851), que teve uma grande influˆencia no renascimento da Matem´atica em universidades alem˜as no s´eculo XIX. O m´etodo consiste em dada uma aproximac¸˜ao inicial e uma tolerˆancia para a soluc¸˜ao, gera-se uma sequˆencia de vetores que converge para a soluc¸˜ao exata, efetuando o mesmo processo uma quantidade finita de vezes.
J´a o m´etodo de Gauss-Seidel ´e uma homenagem aos matem´aticos alem˜aes Carl Friedrich Gauss(1777 − 1855) e Philipp Ludwig von Seidel (1821 − 1896), este ´ultimo trabalhou como assistente de Jacobi resolvendo problemas que resul-taram do estudo de Gauss. Este m´etodo difere-se apenas do Jacobi por utilizar valores mais atualizados para algumas componentes, o que faz reduzir o n´umero de iterac¸˜oes at´e obter a tolerˆancia determinada.
Um dos m´etodos iterativos mais conhecidos ´e o Gradiente Conjugado. Ele foi introduzido nos anos 50 por: Magnus Hestenes(1906 − 1991) e Edward Stiefel (1875 − 1968). O m´etodo resolve sistemas lineares onde a matriz A ´e positiva definida e sim´etrica. Ele possui como base para o seu desenvolvimento o m´etodo dos Gradientes.
O Gradiente Conjugado ´e utilizado frequentemente quando se resolve nu-mericamente equac¸˜oes diferencias parciais. O m´etodo consiste em, dado uma aproximac¸˜ao inicial e uma tolerˆancia, calcula-se o res´ıduo e a direc¸˜ao de relaxac¸˜ao e em seguida gera-se uma sequˆencia de vetores, que a cada iterac¸˜ao se aproxima da soluc¸˜ao exata, em que o res´ıduo ´e ortogonal a direc¸˜ao de relaxac¸˜ao.
O objetivo principal deste trabalho ´e abordar trˆes m´etodos iterativos: Jacobi, Gauss-Seidel e Gradiente Conjugado. Tamb´em mostraremos alguns exemplos fazendo comparac¸˜oes entre as soluc¸˜oes obtidas atrav´es de cada m´etodo.
Para tanto, dividiremos o trabalho em trˆes cap´ıtulos.
No primeiro apresentaremos os conceitos b´asicos de ´algebra linear e c´alculo, necess´arios para alcanc¸ar nossos objetivos. No segundo, desenvolveremos os m´etodos iterativos e observaremos as condic¸˜oes de convergˆencia do sistema lin-ear. Para finalizar, no terceiro cap´ıtulo resolveremos alguns exemplos aplicando o que foi desenvolvido anteriormente.
Cap´ıtulo 1
Noc¸˜oes B´asicas
Neste cap´ıtulo, apresentaremos as ferramentas que ser˜ao utilizadas no decorrer do trabalho. Tais ferramentas, s˜ao resultados cl´assicos de ´algebra linear e c´alculo. Primeiramente introduzimos conceitos b´asicos de ´algebra linear, tais como: espac¸o vetorial real, produto interno, norma, autovalores, autovetores e raio es-pectral.
Definic¸˜ao 1.1. Seja V um conjunto n˜ao vazio. V ´e um espac¸o vetorial real se as operac¸˜oes de adic¸˜ao e multiplicac¸˜ao por escalar est˜ao definidas em V , isto ´e, a) se u, v ∈ V , ent˜ao u + v ∈ V ;
a1)u + v = v + u, ∀u, v ∈ V;
a2)(u + v) + z = u + (v + z), ∀u, v, z ∈ V;
a3) ∃ 0(vetor nulo) ∈ V tal que u + 0 = u, ∀u ∈ V ;
a4)∀u ∈ V, ∃ − u ∈ V, u + (−u) = 0;
b) se k ∈ R e u ∈ V , ent˜ao ku ∈ V ;
b1)a.(u + v) = a.u + a.v, ∀a ∈ R, ∀u, v ∈ V;
b2)(a + b).u = a.u + b.u, ∀a, b ∈ R, ∀u ∈ V;
b3)a(b.u) = (a.b)u, ∀a, b ∈ R, ∀u ∈ V;
b4)1.u = u, ∀u ∈ V.
Definic¸˜ao 1.2. Seja V um espac¸o vetorial. Dizemos que um vetor v ´e uma combinac¸˜ao linear dos vetores v1, v2, . . . , vn, se v pode ser escrito na forma:
v = α1v1+ α2v2+ . . . + αnvn= n
X
i=1
Definic¸˜ao 1.3. Seja V um espac¸o vetorial real. Sejam u e v elementos de V . Um produto escalar (produto interno) ´e uma aplicac¸˜ao
h·, ·i : V × V −→ R (u, v) 7−→ hu, vi que satisfaz as seguintes propriedades:
i)hu, vi = hv, ui, ∀u, v ∈ V (simetria); ii)hv, u + wi = hv, ui + hv, wi(linearidade);
iii)hα.v, ui = α.hv, ui, ∀α ∈ R, ∀v, u ∈ V (transitividade); iv)hv, vi ≥ 0e hv, vi = 0 ⇔ v = 0.
Um espac¸o vetorial real V no qual est´a definido um produto escalar ´e chamado espac¸o vetorial euclidiano real.
Exemplo 1.1. Seja V = Rn. Sejam u e v ∈ V , dados por u = (u
1, u2, ..., un)e v = (v1, v2, ..., vn), ent˜ao, hu, vi = u1v1+ u2v2+ ... + unvn = n X i=1 uivi
´e um produto interno em V = Rn, que ´e oproduto interno usual no Rn.
Definic¸˜ao 1.4. Seja V um espac¸o vetorial euclidiano real. Sejam u e v elementos de V . Dizemos que u ´e ortogonal a v se hu, vi = 0.
Definic¸˜ao 1.5. Seja V um espac¸o vetorial euclidiano. Uma norma, denotada por k · k, ´e uma aplicac¸˜ao:
V −→ R
v 7−→ kvk Com as seguintes propriedades:
i)kvk ≥ 0para todo v ∈ V ; ii)kvk = 0 ⇐⇒ v = 0;
iii)kαvk = |α|kvkpara todo α ∈ R e v ∈ V ; iv)kv + uk ≤ kvk + kukpara todo v, u ∈ V . Exemplo 1.2. Seja V = Rn e u = (u
1, u2,· · · , un) ∈ Rn, ent˜ao, as seguintes
aplicac¸˜oes s˜ao normas em Rn:
a) kuk∞= max 1≤i≤n|ui|. b) kuk1 = n X |ui|.
c) kuk2 =
q
hu, ui.
Definic¸˜ao 1.6. Diz-se que uma sequˆencia de vetores x(k) em Rn converge para
x∈ Rncom relac¸˜ao a uma norma k · k se, dado qualquer > 0, existir um inteiro
N()tal que:
kxk− xk < , para todo k ≥ N ().
Definic¸˜ao 1.7. Chama-se norma de uma matriz A qualquer func¸˜ao definida no espac¸o vetorial das matrizes, com valores em R, satisfazendo as seguintes pro-priedades:
i)kAk ≥ 0;
ii)kAk = 0, se e somente se A for 0 ( matriz com todos os elementos 0); iii)kαAk = |α|kAk;
iv)kA + Bk ≤ kAk + kBk; v)kABk ≤ kAkkBk.
A distˆancia entre as matrizes A e B com relac¸˜ao a esta norma de matriz ´e kA−Bk. Exemplo 1.3. Seja A uma matriz n × n, ent˜ao as seguintes aplicac¸˜oes s˜ao normas no espac¸o vetorial das matrizes n × n, com valores em R:
a) kAk∞ = max 1≤i≤n n X j=1 |aij|(norma linha); b) kAk1 = max 1≤j≤n n X i=1 |aij|(norma coluna); c) kAk2 = v u u t n X i,j=1 a2ij (norma euclidiana).
Uma matriz n × m pode ser considerada como uma func¸˜ao que utiliza mul-tiplicac¸˜ao de matrizes para transformar vetores m dimensionais em vetores n di-mensionais. Uma matriz quadrada A leva o conjunto de vetores n dimensionais em vetores n dimensionais. Neste caso, certos vetores x, n˜ao nulos, s˜ao paralelos a Ax, o que significa que existe uma constante λ tal que Ax = λx. Para esses vetores, temos (A − λI)x = 0.
Definic¸˜ao 1.8. Se A for uma matriz quadrada, o polinˆomio caracter´ıstico de A ´e definido por
p(λ) = det(A − λI)
Definic¸˜ao 1.9. Se p for o polinˆomio caracter´ıstico da matriz A, os zeros de p s˜ao os autovalores, ou valores pr´oprios, da matriz A. Se λ for um autovalor de A e x6= 0satisfazer (A − λI)x = 0, ent˜ao x ´e umautovetor, ou vetor pr´oprio, de A, correspondente ao autovalor λ.
Exemplo 1.4. Para a matriz A= 2 0 0 1 1 2 1 −1 4
o polinˆomio caracter´ıstico ´e
p(λ) = det(A − λI) = det
2 − λ 0 0 1 1 − λ 2 1 −1 4 − λ = λ3− 7λ2+ 16λ − 12 = (λ − 3)(λ − 2)2.
Assim os autovalores de A s˜ao λ1 = 3e λ2 = 2. Um autovetor x = (w, k, u)
correspondente ao autovalor λ1 = 3´e soluc¸˜ao da equac¸˜ao matriz-vetor
(A − 3.I)x = 0, isto ´e:
0 0 0 = −1 0 0 1 −2 2 1 −1 1 . w k v
, o que implica w = 0 e k = v. Ent˜ao
vλ1 = (0, y, y), y ∈ R
n, y 6= 0.
Agora para o autovalor λ2 = 2 um autovetor x = (w, k, u) ´e soluc¸˜ao do
sistema (A − 2.I)x = 0, isto ´e:
0 0 0 = 0 0 0 1 −1 2 1 −1 2 . w k v
, o que implica que w − k + 2.v = 0. Ent˜ao
vλ2 = (−2z, 2y, y + z), y, z ∈ R
n
Teorema 1.1. Se k · k for norma de vetor em Rn, ent˜ao
kAk = max
kxk=1kAxk
´e uma norma de matriz.
Pode ser visto em [8] p´ag 509.
Cada norma de vetor produz uma norma de matriz natural associada, e esta ´e denominada por norma de matriz natural.
Definic¸˜ao 1.10. O raio espectral ρ(A) de uma matriz A ´e definido por ρ(A) = max(λi)
Para a matriz do Exemplo 1.4 temos, ρ(A) = max
1≤i≤n{2, 2, 3} = 3.
O raio espectral esta intimamente ligado a norma da matriz, conforme veremos a seguir.
Teorema 1.2. Seja A uma matriz n × n, ent˜ao: i)kAk2 = [ρ(ATA)]1/2,
ii)ρ(A) ≤ kAk, para qualquer norma de matriz k · k.
Demonstrac¸˜ao. i) A demonstrac¸˜ao desta parte n˜ao ser´a feita, mas pode ser en-contrada em [7] p´ag. 21.
ii)Suponha que λi seja um autovalor qualquer de A com autovetor x e que
kxk = 1. Como x ´e um autovetor associado ao autovalor λitemos que Ax = λix.
Ent˜ao,
|λi| = |λi|kxk = kλixk = kAxk ≤ kAkkxk = kAk
Assim ρ(A) = max
1≤i≤n|λi| ≤ kAk
Definic¸˜ao 1.11. Uma matriz A, n × n, ´e uma matriz convergente, se lim
k→∞a k
ij = 0para i = 1, 2, · · · , n e j = 1, 2, · · · , n.
Teorema 1.3. As seguintes afirmac¸˜oes s˜ao equivalentes: i)A ´e uma matriz convergente;
ii) lim
n→∞kA
nk = 0para alguma norma de matriz;
iii) lim
n→∞kA
nk = 0para todas as normas de matrizes;
iv)ρ(A) < 1; v) lim
n→∞A
nx= 0, para todo x.
A demonstrac¸˜ao deste teorema pode ser encontrada em [3] p´ag. 14.
Agora vamos abordar alguns conceitos de c´alculo que s˜ao utilizados para anal-isar os pontos cr´ıticos de uma func¸˜ao. Primeiramente para uma vari´avel e em seguida para n vari´aveis. Mas antes vamos considerar algumas definic¸˜oes que ser˜ao necess´arias durante o processo.
Definic¸˜ao 1.12. Seja A uma matriz n × n e x ∈ Rn, ent˜ao uma forma quadr´atica
1)Positiva definida se f(x) > 0 para todo x 6= 0; 2)Positiva semidefinida se f(x) ≥ 0 para todo x; 3)Negativa definida se f(x) < 0 para todo x 6= 0; 4)Negativa semidefinida se f(x) ≤ 0 para todo x;
5)Indefinida se f(x) assume tanto valores positivos quanto negativos.
Uma matriz sim´etrica A ´e chamada de positiva definida, positiva semidefinida, negativa definida, negativa semidefinida ou indefinida se a forma quadr´atica f(x) = xtAxtem a propriedade correspondente.
Definic¸˜ao 1.13. Seja y = f(x) uma func¸˜ao de uma vari´avel, se x ∈ R, ent˜ao, um ponto x0 ´e denominadoponto cr´ıtico de f se f0(x) = 0.
Teorema 1.4. Suponha que f00seja cont´ınua na proximidade x.
a)Se f00(x
0) > 0, ent˜ao x0 ´eponto de m´ınimo;
b)Se f00(x
0) < 0, ent˜ao x0 ´eponto de m´aximo;
c)Se f00(x
0) = 0, ent˜ao x0 ´eponto de inflex˜ao.
Definic¸˜ao 1.14. Um ponto P = (x1, x2,· · · , xn)t tal que o grad f(P ) = 0 ´e
denominado ponto cr´ıtico de f.
Seja A a matriz cujos elementos (aij) = ∂
2f ∂xi∂xj isto ´e: A(P ) = ∂2f ∂x12 ∂2f ∂x1∂x2 · · · ∂2f ∂x1∂xn ∂2f ∂x2∂x1 ∂2f ∂x22 · · · ∂2f ∂x2∂xn ... ∂2f ∂xn∂x1 ∂2f ∂xn∂x2 . . . ∂2f ∂xn2 .
Teorema 1.5. Suponha que A(P ) seja cont´ınua na proximidade de P . Ent˜ao: a)Se A(P ):positiva definida, ent˜ao P ´e ponto de m´ınimo;
b)Se A(P ):negativa definida, ent˜ao P ´e ponto de m´aximo; c)Se A(P ): indefinida, ent˜ao P ´e ponto de sela.
Cap´ıtulo 2
M´etodos Iterativos
O objetivo deste cap´ıtulo ´e inicialmente desenvolver a construc¸˜ao dos m´etodos iterativos de Jacobi, Gauss-Seidel, Gradiente e Gradiente Conjugado. Em seguida, apresentaremos resultados que garantem a convergˆencia dos m´etodos desenvolvi-dos.
2.1 Processos Estacion´arios
Umm´etodo iterativo ´e estacion´ario se cada aproximante da soluc¸˜ao ´e obtido do anterior sempre pelo mesmo processo. Como j´a afirmamos na introduc¸˜ao desse trabalho os m´etodos estacion´arios abordados nesse trabalho ser˜ao: o m´etodo de Jacobi, o m´etodo de Gauss-Seidel e o m´etodo de Gradiente.
Considere o sistema linear Ax = b, em que A ´e uma matriz quadrada de ordem n, x ´e um vetor n × 1 e b ´e um vetor n × 1.
Suponha que esse sistema seja transformado (de forma equivalente) em: ¯
x= T ¯x+ c (2.1)
em que T = I − A e c = b.
A matriz T ´e uma matriz quadrada de ordem n e c ´e um vetor n×1, de maneira que a soluc¸˜ao x de (2.1) ´e, tamb´em, soluc¸˜ao de Ax = b.
Partindo de uma aproximac¸˜ao x(0), obtemos as aproximac¸˜oes sucessivas x(k)
para a soluc¸˜ao desejada x, usando o processo iterativo estacion´ario definido por: x(k) = T x(k−1)+ c, k = 1, 2, · · · . (2.2) Se a sequˆencia x(k) converge para a soluc¸˜ao x ent˜ao esta coincide com a
soluc¸˜ao x de Ax = b. Nesse caso passando-se o limite em (2.2) em ambos os membros temos que
Ent˜ao x tamb´em ´e soluc¸˜ao do sistema Ax = b.
O resultado a seguir ´e utilizado no pr´oximo teorema, que fornece a condic¸˜ao necess´aria e suficiente para a convergˆencia da sequˆencia x(k).
Lema 2.1. Se o raio espectral ρ(T ) satisfaz ρ(T ) < 1, ent˜ao (I − T )−1 existe e
(I − T )−1 = I + T + T2+ · · · =
∞
X
j=0
Tj
Esta demonstrac¸˜ao pode ser encontrada em [3] p´ag. 422.
Teorema 2.1. Para qualquer x(0) ∈ Rn, a sequˆencia x(k)definida por
x(k) = T x(k−1)+ c, para cada k ≥ 1,
converge para a soluc¸˜ao ¯x = T ¯x + c se e somente se ρ(T ) < 1.
Demonstrac¸˜ao. (⇐)Suponha ρ(T ) < 1. Ent˜ao: x(k) = T x(k−1)+ c = T (T x(k−2)+ c) + c = T2x(k−2)+ (T + I)c = T2(T x(k−3)+ c) + (T + I)c = T3x(k−3)+ (T2+ T + I)c. x(k) = Tkx(0)+ (T(k−1)+ · · · + T + I)c.
Como ρ(T ) < 1, pelo Teorema 1.3, temos que: lim
k→∞T
kx(0) = 0
O Lema 2.1 implica que: lim k→∞x (k) = lim k→∞[T (k)x(0)+ (T(k−1)+ · · · + T + 1)c] = = 0 + ∞ X j=0 Tjc= (I − T )−1c.
(⇒) Considere z ∈ Rn, se lim k→∞T
kz = 0, ent˜ao, pelo Teorema 1.3, isto ´e
equivalente a ρ(T ) < 1.
Seja z um vetor arbitr´ario e ¯x a soluc¸˜ao ´unica de ¯x = T ¯x + c, pois se tiver mais de uma soluc¸˜ao n˜ao seria convergente. Defina x(0) = ¯x− z e, para k ≥ 1,
x(k) = T x(k−1)+ c.
Ent˜ao x(k)converge para ¯x.
Al´em disso ¯x − x(k) = (T ¯x− c) − (T x(k−1)+ c) = T (¯x− x(k−1)), desta forma
obtemos que: ¯ x−x(k)= T (¯x−x(k−1)) = T (T (¯x−x(k−2))) = T2(¯x−x(k−2)) = Tk(¯x−x(0)) = = Tkz Logo lim k→∞T kz = lim k→∞T k(¯x− x(0)) = 0.
Como z ∈ Rnera arbitr´ario ent˜ao T ´e uma matriz convergente e segue que ρ(T ) <
1.
Essa demonstrac¸˜ao ´e apresentada em [3] p´ag. 423.
Em geral ´e dif´ıcil verificar o Teorema 2.1. Entretanto, podemos obter uma condic¸˜ao suficiente que a matriz T deve satisfazer para assegurar a convergˆencia do processo iterativo definido por (2.1). Enunciaremos a seguir tal condic¸˜ao em um corol´ario.
Corol´ario 2.1. O processo iterativo definido por x(k)= T x(k−1)+c´e convergente
se, para qualquer norma de matrizes, kT k < 1.
Demonstrac¸˜ao. Vamos introduzir o vetor erro e(k)para estudar a convergˆencia da
sequˆencia x(k) para a soluc¸˜ao x de Ax = b, ent˜ao considere:
e(k)= ¯x− x(k) Subtraindo de (2.1) membro a membro (2.2) obtemos:
¯
x− x(k)= T (¯x− x(k−1)) + c − c
e(k)= T e(k−1) (2.3)
Donde podemos escrever que e(k−1) = T e(k−2)e substituindo em (2.3) temos:
e(k) = T (T e(k−2)) = T2e(k−2) e(k) = T2e(k−2)
e assim, por aplicac¸˜oes sucessivas, segue que:
em que e(0) ´e o erro inicial. Tomando norma de matriz na express˜ao (2.4), segue que: ke(k)k = kTk.e(0)k ≤ kT kk.ke(0)k Portanto ke(k)k ≤ kT kk .ke(0)k. Se kT k < 1, teremos que ke(k)k = kx − x(k)k → 0
se kT k < 1, para alguma norma de matriz, ent˜ao temos garantida a con-vergˆencia do processo iterativo definido inicialmente.
Demonstrac¸˜ao apresentada em [4] p´ag. 169.
2.1.1 M´etodo de Jacobi
Considere o sistema linear, Ax = b de ordem n, com aii6= 0,
a11x1 + a12x2+ · · · + a1nxn = b1 a21x1 + a22x2+ · · · + a2nxn = b2 ... an1x1+ an2x2+ · · · + annxn = bn (2.5)
Isolando x mediante a separac¸˜ao pela diagonal temos:
x1 = a111(b1− a12x2− a13x3− · · · − a1nxn) x2 = a122(b2− a21x1− a23x3− · · · − a2nxn) ... xn= a1nn(bn− an1x1− an2x2− · · · − an,n−1xn−1) (2.6)
Para o sistema linear (2.5), o m´etodo de Jacobi consiste em dado uma aproximac¸˜ao inicial x(0) = (x(0)
1 , x (0)
2 ,· · · , x(0)n )t e uma tolerˆancia, gera-se uma sequˆencia de
vetores
(x(k)1 , x (k)
2 ,· · · , x(k)n )t, k = 1, 2, 3, · · · ,
que converge para a soluc¸˜ao exata, atrav´es do processo iterativo definido por:
x(k+1)1 = a111(b1− a12x(k)2 − a13x(k)3 − · · · − a1nx(k)n ) x(k+1)2 = a122(b2− a21x(k)1 − a23x(k)3 − · · · − a2nx(k)n ) ... x(k+1)n = 1 ann(bn− an1x (k) 1 − an2x(k)2 − · · · − an,n−1x(k)n−1) (2.7)
Agora vamos escrever o m´etodo de outra maneira. Seja a matriz A = L+D + U em que:
L=matriz triangular inferior formada pela parte inferior (abaixo da diagonal) da matriz A;
D=matriz diagonal formada pela diagonal da matriz A;
U =matriz triangular superior formada pela parte superior (acima da diagonal) da matriz A.
Ent˜ao escrevemos o sistema linear Ax = b como (L + D + U )x = b Dx= (−L − U )x + b x= D−1(−L − U )x + D−1b
x= T x + c em que T = D−1(−L − U )e c = D−1b.
Determinando a seq¨uˆencia de aproximac¸˜oes (x(k) 1 , x (k) 2 ,· · · , x(k)n ),k = 1, 2, 3, · · · temos: x(k+1) = T x(k)+ c. (2.8) Resumindo:
1)Escolhe-se uma aproximac¸˜ao inicial x(0)e dado > 0 e M, em que M ∈ N∗
´e o n´umero m´aximo de iterac¸˜oes e uma tolerˆancia.
2)Geram-se aproximac¸˜oes sucessivas de x(k)a partir do sistema (2.8).
3)Continua-se a gerar aproximac¸˜oes at´e que um dos crit´erios abaixo seja sat-isfeito:
a)kx(k+1)− x(k)k < ou
b)k > M.
Observac¸˜ao 2.1. Na pr´atica n˜ao efetuamos as iterac¸˜oes com base em (2.8), mas sim em (2.7). A iterac¸˜ao definida por (2.8) tem fins puramente te´oricos para anal-isar a convergˆencia do m´etodo.
2.1.2 M´etodo de Gauss-Seidel
Seja o sistema linear Ax = b, isolando x mediante a separac¸˜ao da diagonal obtemos um sistema como (2.6). O m´etodo iterativo de Gauss-Seidel consiste no
seguinte fato: a partir de uma aproximac¸˜ao inicial x(0) = (x(0) 1 , x
(0)
2 ,· · · , x(0)n )t,
obter-se uma sequˆencia (x(k)1 , x
(k)
2 ,· · · , x(k)n )t, k = 1, 2, 3, · · · ,
atrav´es do processo iterativo definido por:
x(k+1)1 = 1 a11(b1− a12x (k) 2 − a13x(k)3 − · · · − a1nx(k)n ) x(k+1)2 = 1 a22(b2− a21x (k+1) 1 − a23x(k)3 − · · · − a2nx(k)n ) ... x(k+1)n = 1 ann(bn− an1x (k+1) 1 − an2x(k+1)2 − · · · − an,n−1x(k+1)n−1 ) (2.9)
Aqui temos que na iterac¸˜ao k + 1 j´a utilizamos os valores das coordenadas do vetor x(k+1) calculados.
Considere novamente o sistema linear Ax = b como: (L + D + U )x = b (L + D)x = −U x + b multiplicando por D−1temos
(L∗+ I)x = −U∗x+ b∗, em que, L∗ = D−1L, U∗ = D−1U, b∗ = D−1b.
Determinando a seq¨uˆencia de aproximac¸˜oes (x(k) 1 , x (k) 2 ,· · · , x(k)n )t, k= 1, 2, 3, · · · temos: (L∗+ I)x(k+1) = −U∗x(k)+ b∗ x(k+1) = −(L∗+ I)−1U∗x(k)+ (L∗+ I)−1b∗ Tomando T = −(L∗+ I)−1U∗e c = (L∗+ I)−1b∗obtemos: x(k+1) = T x(k)+ c (2.10) Resumindo temos:
1)Escolhe-se uma aproximac¸˜ao inicial x(0) e dado > 0 e M ∈ N∗, em que
M ´e o n´umero m´aximo de iterac¸˜oes e uma tolerˆancia.
2)Geram-se aproximac¸˜oes sucessivas de x(k)a partir do sistema (??).
3)Continua-se a gerar aproximac¸˜oes at´e que um dos crit´erios abaixo seja sat-isfeito:
a)kx(k+1)− x(k)k < ou
b)k > M.
Observac¸˜ao 2.2. Assim como no m´etodo de Jacobi, n˜ao efetuamos as iterac¸˜oes com base em (2.10), mas sim, usando (2.9). Desse modo n˜ao ´e necess´ario inverter a matriz (L∗+ I).
2.1.3 Convergˆencia dos M´etodos
Considere o sistema Ax = b na sua forma ¯
x= T ¯x+ c com a iterac¸˜ao definida por:
x(k+1)= T x(k)+ c, k= 1, 2, 3, · · · (2.11) Seja e(k), o erro na k-´esima iterac¸˜ao, isto ´e,
e(k) = x(k)− ¯x=⇒ x(k) = e(k)+ ¯x para k + 1 temos: x(k+1) = e(k+1)+ ¯x. Substituindo em (2.11) segue: e(k+1)+ ¯x= T (e(k)+ ¯x) + c, k = 1, 2, · · · e(k+1) = T e(k)+ T ¯x+ c − ¯x como ¯x = T ¯x + c, assim e(k+1) = T e(k).
Teorema 2.2. ´E condic¸˜ao suficiente para que a iterac¸˜ao (2.11) convirja, que os
elementos tij de T satisfac¸am a desigualdade n
X
i=1
|tij| ≤ L < 1, ∀ j = 1, 2, 3, · · · , n,
qualquer que seja a aproximac¸˜ao inicial x(0).
Demonstrac¸˜ao. Escrevendo e(k+1) = T e(k)na sua forma expandida, tem-se:
e(k+1)1 = t11e(k)1 + t12e(k)2 + · · · + t1ne(k)n
e(k+1)2 = t21e(k)1 + t22e(k)2 + · · · + t2ne(k)n
...
e(k+1)n = tn1e(k)1 + tn2e(k)2 + · · · + tnne(k)n
Tomando os m´odulos em ambos os lados e aplicando a desigualdade triangu-lar, tem-se:
|e(k+1)1 | = |t11e(k)1 + t12e(k)2 + · · · + t1ne(k)n | ≤ |t11||e(k)1 | + |t12||e(k)2 | + · · · +
|t1n||e(k)n |
|e(k+1)2 | = |t21e(k)1 + t22e(k)2 + · · · + t2ne(k)n | ≤ |t21||e(k)1 | + |t22||e(k)2 | + · · · +
... |e(k+1)
n | = |tn1e(k)1 + tn2e(k)2 + · · · + tnne(k)n | ≤ |tn1||e(k)1 | + |tn2||e(k)2 | + · · · +
|tnn||e(k)n |.
Agora somando membro a membro, obt´em-se:
n X i=1 |e(k+1)i | ≤ n X i=1 |e(k)1 ||ti1| + |e(k)2 | n X i=1 |ti2| + · · · + |e(k)n | n X i=1 |tin|. Den X i=1 |tij| ≤ L < 1, para j = 0, 1, · · · , n temos n X i=1 |e(k+1)i | ≤ |e (k) 1 |L + |e (k) 2 |L + · · · + |e(k)n |L Ou seja: n X i=1 |e(k+1)i | ≤ L n X i=1 |e(k)i | (2.12) Se k=0 em (2.12) n X i=1 |e(1)i | ≤ L n X i=1 |e(0)i | (2.13) Se k=1 em (2.12) n X i=1 |e(2)i | ≤ L n X i=1 |e(1)i | Por (2.13) n X i=1 |e(2)i | ≤ L2 n X i=1 |e(0)i | (2.14) Se k=2 em (2.12) n X i=1 |e(3)i | ≤ L n X i=1 |e(2)i | Por (2.14) n X i=1 |e(3)i | ≤ L3 n X i=1 |e(0)i |
n X i=1 |e(k+1)i | ≤ L(k+1) n X i=1 |e(0)i | Como 0 < L < 1, segue que
lim k→∞ n X i=1 |e(k+1)i | ≤ lim k→∞L (k+1)Xn i=1 |e(0)i | = n X i=1 |e(0)i | lim k→∞L (k+1) = 0 Logo lim k→∞ n X i=1 |e(k+1)i | = 0.
Demonstrac¸˜ao apresentada em [1] p´ag.66.
Corol´ario 2.2. (Crit´erio das Linhas): ´E condic¸˜ao suficiente para que a iterac¸˜ao x(k+1) = T x(k)+ cconvirja, que |tii| > n X j = 1 i6= j |tij|, para i = 1, 2, · · · , n (2.15)
Demonstrac¸˜ao. • Para o m´etodo de Jacobi, temos que,
n X i=1 |tij| = (|t1j| + |t2j| + · · · + |tj−1,j| + |tj+1,j| + · · · + |tnj|) |tjj| , para j = 1, 2, · · · , n. De (2.15) obtemos que, n X j= 1 i6= j |tij| |tii| < 1.
Segue pelo Teorema 2.2 que a iterac¸˜ao x(k+1) = T x(k)+ cconverge.
•Para o m´etodo de Gauss-Seidel a prova encontra-se em [8] p´ag. 240.
A matriz que satisfaz as hip´oteses do crit´erio das linhas ´e chamadadiagonal dominante estrita.
Teorema 2.3. ´E condic¸˜ao suficiente, para que a iterac¸˜ao definida por x(k+1) =
T xk+ cconvirja, que os elementos tij de T satisfac¸am a desigualdade: n
X
j=1
|tij| ≤ L < 1, para i = 1, 2, 3, · · · , n,
Corol´ario 2.3. (Crit´erio das Colunas) ´E condic¸˜ao suficiente para que a iterac¸˜ao x(k+1) = T x(k)+ cconvirja, que |ajj| > X j = 1 i6= j |aij|, para j = 1, 2, · · · , n.
A demonstrac¸˜ao para o m´etodo de Jacobi ´e an´aloga ao Corol´ario 2.2 e para o m´etodo de Gauss-Seidel encontra-se em [8] p´ag. 240.
Na pr´atica s˜ao usados apenas os corol´arios para verificar a convergˆencia dos m´etodos. Note ainda que basta apenas um dos crit´erios ser satisfeito para garantir a convergˆencia.
2.2 Processos de Relaxac¸˜ao
Nesta sec¸˜ao introduziremos alguns m´etodos iterativos para resolver sistemas lineares conhecidos como processos de relaxac¸˜ao. Seja o sistema linear Ax + b = 0em que A ´e uma matriz sim´etrica n×n positiva definida, x e b s˜ao vetores n×1. Considere que o sistema possui uma ´unica soluc¸˜ao.
Seja v uma aproximac¸˜ao da soluc¸˜ao, ent˜ao, r= Av + b
r ´e o vetor res´ıduo que indica o quanto a aproximac¸˜ao da soluc¸˜ao ”falha”em sat-isfazer o sistema. O objetivo do processo de relaxac¸˜ao ´e que o res´ıduo se anule, ou seja, que v seja a soluc¸˜ao do sistema.
Para que isto ocorra considere a func¸˜ao quadr´atica:
F(v) = 1
2hAv, vi + hb, vi (2.16)
em que A = (aij)´e uma matriz sim´etrica, v = (v1, v2,· · · , vn)t, b = (b1, b2,· · · , bn)t.
A id´eia ´e calcular as derivadas parciais de F (v) (em relac¸˜ao a vi) e obtermos
que gradF (v) = 0, assim vamos ter que o res´ıduo se anula, pois gradF (v) = Av+ b = r, conforme vamos mostrar.
Calculando os produtos escalares da func¸˜ao quadr´atica, temos que, F(v) = 1 2 n X i,j=1 aijvivj + n X i=1 bivi. Pois, Av= a11 a12 · · · a1n a21 a22 · · · a2n ... v1 v2 ... = a11v1+ a12v2+ · · · + a1nvn a21v1+ a22v2+ · · · + a2nvn ... ,
de onde segue que, hAv, vi = a11v12+ a12v1v2+ · · · + a1nv1vn+ a21v2v1+ a22v22+ · · · + a2nv2vn+ ... an1vnv1+ an2vnv2 + · · · + annv2n= = n X i=1 n X j=1 aijvivj = n X i,j=1 aijvivj. Al´em disso, hb, vi = b1v1+ b2v2+ · · · + bnvn = n X i=1 bivi.
Diferenciando cada um dos termos de F (v) temos,
∂ n X i,j=1 aijvivj ∂vi = = 2a11v1+ a12v2+ · · · + a1ivi+ · · · + a1nvn+ +ai1v1+ ai2v2+ · · · + 2aiivi+ · · · + a1nvn+ ... +an1v1+ an2v2+ · · · + anivi+ · · · + 2annvn= = 2 n X j=1 aijvj
pois A ´e sim´etrica. E temos tamb´em ∂ n X i=1 bivi ∂vi = b1+ b2 + · · · + bn = bi Logo ∂F(v) ∂vi = 1 22 n X j=1 aijvj+ bi = n X j=1 aijvj+ bi, para i = 1, 2, · · · , n.
Portanto, grad F(v) = 0 ⇔ ∂F(v) ∂vi = 0, i = 1, 2, · · · , n ⇔ n X j=1 aijvj+ bi = 0, i = 1, 2, · · · , n.
Desta forma, segue grad F (v) = 0 e temosAv + b = 0, poisXn
j=1
aijvj + bi =
Av+ b. Logo se v = x, onde x ´e a soluc¸˜ao, devemos ter o grad F (v) = 0. Note que nos vetores que n˜ao s˜ao soluc¸˜ao, o gradiente representa o res´ıduo, ou seja, grad F(v) = r.
Teorema 2.4. O problema de determinar a soluc¸˜ao do sistema linear Ax+b = 0,
em que A ´e sim´etrica positiva definida, ´e equivalente ao problema de determinar o ponto de m´ınimo de F (v) = 1
2hAv, vi + hb, vi.
Demonstrac¸˜ao. Evidentemente que P = (x1, x2,· · · , xn)t ´e ponto de m´ınimo
de F se e somente se P ´e soluc¸˜ao do sistema Ax + b = 0, pois, se P ´e ponto estacion´ario de F , ent˜ao grad F (v) = 0 ⇒ r = 0 assim P ´e soluc¸˜ao do sistema Ax+ b = 0. Resta provar que F tem um ´unico ponto estacion´ario e que este ponto ´e de m´ınimo.
Temos que v ´e ponto de m´ınimo de F se e somente se grad F (v) = 0, isto ´e, se e somente se:
n
X
j=1
aijvj + bi = 0 , para i = 1, 2, · · · , n.
Como o sistema admite uma ´unica soluc¸˜ao temos que o ponto estacion´ario ´e ´unico, assim ∂2F ∂vi2 (v) = a11,· · · , ∂2F ∂vi∂vj (v) = aij
temos que A = (vij). Como por hip´otese A ´e positiva definida, ent˜ao pelo
resul-tado na p´ag.13 no primeiro cap´ıtulo temos que v ´e ponto de m´ınimo.
Demonstrac¸˜ao apresentada em [4] p´ag.183.
Os m´etodos de relaxac¸˜ao s˜ao usados apenas para sistemas lineares onde a matriz dos coeficientes ´e positiva definida, caso isso n˜ao acontec¸a os m´etodos de relaxac¸˜ao n˜ao convergem.
2.2.1 Princ´ıpios B´asicos do Processo de Relaxac¸˜ao
A base do princ´ıpio geral de relaxac¸˜ao ´e determinar o ponto de m´ınimo da func¸˜ao quadr´atica F (v) = 1
2hAv, vi + hb, vi. Para isso comec¸amos com uma
aproximac¸˜ao para a soluc¸˜ao v, selecionamos uma direc¸˜ao p e corrigimos v nesta direc¸˜ao, com o objetivo de minimizar F (v), e continuamos o processo at´e atingir o ponto de m´ınimo. Desta forma anularemos o res´ıduo na direc¸˜ao p.
Variando v na direc¸˜ao p tomamos
v0 = v + tp,
assim temos que encontrar o parˆametro t de modo que a func¸˜ao F atinge o seu min´ımo nesta direc¸˜ao. Vamos determinar o min´ımo de F na direc¸˜ao p. Temos ent˜ao:
F(v0) = 1 2hAv
0, v0i + hb, v0i
= 1
2hA(v + tp), v + tpi + hb, v + tpi = 1
2[hAv, vi + hAv, tpi + hAtp, vi + hAtp, tpi] + hb, vi + hb, tpi = 1
2[hAv, vi + 2hb, vi + 2thAv, pi + t
2hAp, pi] + thb, vi
= F (v) + 1 2[t
2hAp, pi + 2thAv, pi + 2thb, pi]
= F (v) + t 2 2hAp, pi + 1 2[2t(hAv, pi + hb, pi)] = F (v) + t 2 2hAp, pi + thAv + b, pi como r = Av + b temos = F (v) + t 2 2hAp, pi + thr, pi que ´e uma func¸˜ao quadr´atica do parˆametro t.
O parˆametro t ´e selecionado de tal forma que F ´e m´ınimo dentro do conjunto examinado, onde a condic¸˜ao para que isto acontec¸a ´e:
∂F ∂t(v 0) = ∂ ∂t[F (v) + t2 2hAp, pi + thr, pi] = 0
⇒ thAp, pi + hr, pi = 0logo t = −hr, pi hAp, pi. Como ∂2F ∂t2 (v 0) = hAp, pi > 0,
pois A ´e positiva definida, temos que t ´e m´ınimo como foi visto na p´ag. 13 do Cap´ıtulo 1.
Segue
tmin =
−hr, pi hAp, pi.
Se a direc¸˜ao p da relaxac¸˜ao for ortogonal ao do res´ıduo r, ent˜ao ter´ıamos tmin = 0e assim n˜ao haver´a melhora na aproximac¸˜ao da soluc¸˜ao.
Teorema 2.5. Para o ponto de m´ınimo v0, com t = t
min, o novo res´ıduo r0 =
Av0+ b´e ortogonal `a direc¸˜ao p da relaxac¸˜ao. Demonstrac¸˜ao. Temos que
r0 = Av0+ b = A(v + tp) + b = Av + b + Atp = r + tAp. Portanto
hr0, pi = hr + tAp, pi = hr, pi + thAp, pi.
Para t = tmin
hr0, pi = hr, pi − hr, pi
hAp, pihAp, pi = hr, pi − hr, pi = 0. Logo r0 e p s˜ao ortogonais.
Esta demonstrac¸˜ao esta apresentada em [4] p´ag. 185.
2.2.2 M´etodo dos Gradientes
Seja Ax = b, com A sim´etrica positiva definida. Vimos anteriormente que a soluc¸˜ao do sistema linear coincide com o ponto de m´ınimo da func¸˜ao quadr´atica F(v). Agora vamos definir a direc¸˜ao p(k)por,
p(k) = −r(k−1), para k = 1, 2, · · · , (2.17) de forma que esta direc¸˜ao ´e dirigida para este ponto de m´ınimo. Ent˜ao vamos reescrever o tminutilizando a direc¸˜ao p(k).
t = −hr, pi = −hr
(k−1), p(k)i
= hr
Assim temos que: v(k) = v(k−1)+ tp(k) v(k)= v(k−1)− tminr(k−1). e que r(k)= Av(k)+ b r(k)= A(v(k−1)− tminr(k−1)) + b r(k)= Av(k−1)+ b − tminAr(k−1) r(k) = r(k−1)− tminAr(k−1).
Resumindo temos: dado v(0), uma tolerˆancia > 0, e um M ∈ N∗, o m´etodo
dos Gradientes consiste em: a)r(0) = Av(0)+ b b)para k = 1, 2, · · · b1)tmin = hr (k−1),r(k−1)i hAr(k−1),r(k−1)i b2)v(k)= v(k−1)− t minr(k−1) b3)r(k)= r(k−1)− t minAr(k−1)
b4)Se kv(k)− v(k−1)k < ou se k ≥ M, fim, sen˜ao b)novamente.
2.2.3 M´etodo dos Gradientes Conjugados
Este ´e outro m´etodo de relaxac¸˜ao, que iremos apresentar agora, mas para isso precisamos considerar a seguinte definic¸˜ao:
Definic¸˜ao 2.1. Dada uma matriz positiva definida A, p(k)e p(k−1) s˜ao direc¸˜oes
conjugadas se
hAp(k), p(k−1)i = hp(k), Ap(k−1)i = 0.
O primeiro passo deste m´etodo ´e igual ao primeiro passo do m´etodo dos Gra-dientes.
Agora escolha p(k), que ´e a direc¸˜ao de relaxac¸˜ao, como uma combinac¸˜ao linear
de r(k−1)e p(k−1), da seguinte forma:
p(k) = −r(k−1)+ αk−1p(k−1), para k = 1, 2, 3, · · · . (2.18)
Precisamos determinar o parˆametro αk−1 que ser´a obtido atrav´es das direc¸˜oes
conjugadas. Como
de (2.18) obtemos que h−r(k−1)+ αk−1p(k−1), Ap(k−1)i = 0 −hr(k−1), Ap(k−1)i + αk−1hp(k−1), Ap(k−1)i = 0, logo αk−1 = hr(k−1), Ap(k−1)i hp(k−1), Ap(k−1)i.
Agora vamos determinar a sequˆencia de aproximac¸˜oes para a soluc¸˜ao:
v(k)= v(k−1)+ qkp(k) (2.19)
em que
qk=
−hr(k−1), p(k)i
hAp(k), p(k)i .
Subtituimos (2.19) no res´ıduo, que ´e dado por r(k)= Av(k)+ bobtemos,
r(k) = A(v(k−1)+ q
kp(k)) + b
r(k) = r(k−1)+ qkAp(k). (2.20)
Observac¸˜ao 2.3. O res´ıduo de cada passo, possui as seguintes propriedades: a)hr(k), r(k−1)i = 0;
Temos que, substituindo em r(k−1)por (2.17) e pelo Teorema 2.5 segue que res´ıduos
consecutivos s˜ao ortogonais:
hr(k), r(k−1)i = −hr(k), p(k)i = 0, k = 1, 2, · · · . b)hr(k), p(k)i = 0;
Substituindo p(k) pela express˜ao (2.17) e pelo resultado da Observac¸˜ao 2.1
item a) temos:
hr(k), p(k)i = −hr(k), r(k−1)i = 0, k = 1, 2, · · · .
Com estas propriedades obtemos algumas simplificac¸˜oes nas f´ormulas de qke
αk−1.
Primeiramente temos
qk =
−hr(k−1), p(k)i
hAp(k), p(k)i
= hr(k−1), r(k−1)i − αk−1hr(k−1), p(k−1)i
da Observac¸˜ao 2.1 item b) temos que hr(k−1), p(k−1)i = 0assim:
−hr(k−1), p(k)i = hr(k−1), r(k−1)i
logo
qk=
hr(k−1), r(k−1)i
hAp(k), p(k)i .
Agora vamos simplificar a express˜ao de
αk−1 = hr(k−1), Ap(k−1)i hp(k−1), Ap(k−1)i. primeiramente de (2.20) obtemos Ap(k−1) = 1 qk−1 (r(k−1)− r(k−2)). Substituindo Ap(k−1) no numerador de α k−1temos: hr(k−1), Ap(k−1)i = hr(k−1), 1 qk−1 (r(k−1)− r(k−2))i = = 1 qk−1 hr(k−1), r(k−1)i − 1 qk−1 hr(k−1), r(k−2)i da Observac¸˜ao 2.1 item a) temos que hr(k−1), r(k−1)i = 0, segue:
hr(k−1), Ap(k−1)i = 1 qk−1
hr(k−1), r(k−1)i. (2.21) Agora substituindo Ap(k−1)no denominador de α
k−1 temos: hp(k−1), Ap(k−1)i = hp(k−1), 1 qk−1 (r(k−1)− r(k−2))i = = 1 qk−1 hp(k−1), r(k−1)i − 1 qk−1 hp(k−1), r(k−2)i pela Observac¸˜ao 2.1 item b) hp(k−1), r(k−1)i = 0segue que:
hp(k−1), Ap(k−1)i = − 1 qk−1
hp(k−1), r(k−2)i. (2.22)
− 1 qk−1 hp(k−1), r(k−2)i = − 1 qk−2 h−r(k−2)+ α k−1p(k−1), r(k−2)i = = 1 qk−1 hr(k−2), r(k−2)i − αk−1 qk−1 hp(k−2), r(k−2)i
pela Observac¸˜ao 2.1 item b) hp(k−2), r(k−2)i = 0segue que:
− 1 qk−1
hp(k−1), r(k−2)i = 1 qk−1
hr(k−2), r(k−2)i. (2.23) Ent˜ao, usando (2.21) e (2.23) obtemos que,
αk−1 = 1 qk−1hr (k−1), r(k−1)i 1 qk−1hr (k−2), r(k−2)i = hr(k−1), r(k−1)i hr(k−2), r(k−2)i.
Resumindo, devemos efetuar o seguinte processo para encontrar a soluc¸˜ao aproximada do sistema utilizando o m´etodo dos gradiente conjugados:
Dado v(0) e > 0, e M ∈ N∗devemos calcular:
a)r(0) = Av(0)+ b p(1) = −r(0) q1 = hr(0), r(0)i hAr(0), r(0)i v(1) = v(0)+ q1p(1) r(1) = r(0)+ q1Ap(1) b) 1)αk−1 = hr (k−1),r(k−1)i hr(k−2),r(k−2)i b2)p(k)= −r(k−1)+ α k−1p(k−1) b3)qk= hr (k−1),r(k−1)i hAp(k),p(k)i b4)v(k) = v(k−1)+ q kp(k) b5)r(k) = r(k−1)+ q kAp(k)
Teorema 2.6. O m´etodo dos Gradientes Conjugados fornece a soluc¸˜ao
Cap´ıtulo 3
Aplicac¸˜oes dos M´etodos Iterativos
Neste cap´ıtulo veremos alguns problemas onde iremos aplicar os quatro m´eto-dos estudam´eto-dos: Jacobi, Gauss-Seidel, Gradiente e Gradiente Conjugado. Ser´a feita uma comparac¸˜ao entre os m´etodos, verificando o n´umero de iterac¸˜oes necess´arias e a soluc¸˜ao aproximada encontrada por cada m´etodo. Os problemas a seguir foram retirados do livro de C´alculo Num´erico da autora Neide Bertoldi Franco (4).No primeiro exemplo vamos desenvolver o m´etodo dos Gradientes e Gradi-entes Conjugados, mostrando passo a passo como chegar a soluc¸˜ao. Mas antes disto vamos calcular a func¸˜ao quadr´atica dada por (2.20) e mostrar que o ponto de m´ınimo desta func¸˜ao ´e soluc¸˜ao do sistema. Nos exemplos seguintes vamos resolver problemas aplicados.
As soluc¸˜oes aproximadas deste Cap´ıtulo foram obtidas a partir de c´odigos es-critos usando a Linguagem de Programac¸˜ao C++.
Exemplo 3.1. Consideramos o seguinte sistema:
(
3x +2y −2 = 0
2x +6y + 8 = 0 (3.1)
Calcule a func¸˜ao quadr´atica, mostre que o ponto de m´ınimo ´e soluc¸˜ao do sistema (3.1) e aplique os m´etodos dos Gradientes e Gradientes Conjugados.
´E f´acil verificar que a soluc¸˜ao do sistema linear ´e: x = (2, −2)t. Para explicitar
a func¸˜ao quadr´atica, F (v), primeiramente calculamos:
Av = 3 2 2 6 ! v1 v2 ! = 3v1+ 2v2 2v1+ 6v2 ! ,
assim, hAv, vi = 3v12+ 4v1v2+ 6v22; hb, vi = −2v1+ 8v2. Logo: F(v) = 1 2(3v1 2+ 4v 1v2+ 6v22) − 2v1+ 8v2. Al´em disso: A(P ) = ∂2F ∂v12 ∂2F ∂v1∂v2 ∂2F ∂v2∂v1 ∂2F ∂v22 3 2 1 6 !
que ´e uma matriz positiva definida, pela Definic¸˜ao 1.12. Assim F (v) tem um ponto de m´ınimo em (2, −2)t, que ´e a soluc¸˜ao do sistema (3.1), conforme foi
provado no Teorema 2.4.
Agora vamos calcular uma aproximac¸˜ao da soluc¸˜ao a partir do vetor v(0) =
(5, −3)tpelos m´etodos do Gradiente e Gradiente Conjugado.
Primeiramente pelo Gradiente. Seja v(0) = (5, −3)t, ent˜ao,
r(0) = Av(0)+ b = 3 2 2 6 ! 5 −3 ! + −2 8 ! = 7 0 ! . Para k = 1, obtemos: hr(0), r(0)i = 49 + 0 = 49, Ar(0) = 3 2 2 6 ! 7 0 ! = 21 14 ! ⇒ hAr(0), r(0)i = 147 + 0 = 147. Assim, tmin = 14749 = 0.33.E, v(1) = v(0)− tminr(0) = 5 −3 ! − 0.33 7 0 ! = 2.69 −3 ! , r(1) = r(0)− tminAr(0) = 7 0 ! − 0.33 21 14 ! = 0.07 −4.62 ! . Para k = 2, obtemos: hr(1), r(1)i = 0.0049 + 21.34 = 21.345, Ar(1) = 3 2 2 6 ! 0.07 −4.62 ! = −9.03 −27.58 ! ⇒ hAr(1), r(1)i = −0.63 + 127.42 = 126.78.
Desse modo, tmin = 21.349126.78 = 0.168. Segue que, v(2) = v(1)− tminr(1) = 2.69−3 ! − 0.168 0.07 −4.62 ! = 2.67 −2.22 ! , r(2) = r(1)− tminAr(1) = 0.07 −4.62 ! − 0.168 −9.03 −27.58 ! = 1.59 0.01 ! . Para k = 3, obtemos: hr(2), r(2)i = 2.53 + 0.0001 = 2.5301, Ar(2)= 3 2 2 6 ! 1.59 0.01 ! = 4.79 3.24 ! ⇒ hAr(2), r(2)i = 7.62 + 0.0324 = 7.65. Assim, tmin = 2.53017.65 = 0.33. Segue que, v(3) = v(2)− tminr(2) = 2.67 −2.22 ! − 0.33 1.59 0.01 ! = 2.15 −2.22 ! , r(3) = r(2)− tminAr(2) = 1.590.01 ! − 0.33 4.79 3.24 ! = 0.01 −1.06 ! . Para k = 4, obtemos: hr(3), r(3)i = 0.0001 + 1.12 = 1.12, Ar(3) = 3 2 2 6 ! 0.01 −1.06 ! = −2.09 −6.34 ! ⇒ hAr(3), r(3)i = −0.0209 + 6.72 = 6.70. Desse modo, tmin = 1.126.70 = 0.16.
Agora, v(4) = v(3)− tminr(3) = −2.222.15 ! − 0.16 0.01 −1.06 ! = 2.14 −2.05 ! , r(4) = r(3)− tminAr(3) = −1.060.01 ! − 0.16 −2.09 −6.34 ! = 0.34 −0.05 ! . Para k = 5, obtemos: hr(4), r(4)i = 0.12 + 0.0025 = 0.12,
Ar(4) = 3 2 2 6 ! 0.34 −0.05 ! = 0.92 0.38 ! ⇒ hAr(3), r(3)i = 0.31 − 0.019 = 0.291. Assim: tmin = 0.2910.12 = 0.41. Logo, v(5) = v(4)− tminr(4) = −2.052.14 ! − 0.41 0.34 −0.05 ! = 2.00 −2.02 ! . Agora aplicando o m´etodo dos Gradientes Conjugados. Considere v(0) =
(5, −3)tent˜ao: r(0) = Av(0)+ b = 3 2 2 6 ! 5 −3 ! + −2 8 ! = 7 0 ! , p(1) = −r(0) = −7 0 ! , hr(0), r(0)i = 49 + 0 = 49, Ar(0) = 3 2 2 6 ! 7 0 ! = 21 14 ! , ⇒ hAr(0), r(0)i = 147 + 0 = 147. Assim, q1 = hr(0), r(0)i hAr(0), r(0)i = 49 147 = 0.33, e, v(1) = v(0)+ q1p(1) = 5 −3 ! + 0.33 −7 0 ! = 2.69 −3 ! , Ap(1) = 3 2 2 6 ! −7 0 ! = −21 −14 ! r(1) = r(0)+ q1Ap(1) = 7 0 ! + 0.33 −21 −14 ! = 0.07 −4.62 ! . Para k = 2, temos, hr(1), r(1)i = 0.0049 + 21.34 = 21, 345, α1 = hr(1), r(1)i hr(0), r(0)i = 21.345 49 = 0.436,
p(2) = −r(1)+ α1p(1) = −0.074.62 ! + 0.436 −7 0 ! = −3.12 4.62 ! , Ap(2) = 3 2 2 6 ! −3.12 4.62 ! = −0.12 21.48 ! , ⇒ hAp(2), p(2)i = 0.37 + 99.24 = 99.61. Assim, q2 = hr(1), r(1)i hAp(2), p(2)i = 21.349 99.61 = 0.214, v(2) = v(1)+ q 2p(2) = 2.69−3 ! + 0.214 −3.12 4.62 ! = 2.02 −2.01 ! . Comparando a soluc¸˜ao aproximada do m´etodo dos Gradientes na iterac¸˜ao k = 2 com a obtida acima para o m´etodo dos Gradientes Conjugados vemos que o m´etodo dos Gradientes Conjugados converge para a soluc¸˜ao com menos iterac¸˜oes. Pelo Teorema 2.6 o m´etodo dos Gradientes Conjugados deveria convergir em duas iterac¸˜oes (pois a matriz ´e 2 × 2). No entanto, a soluc¸˜ao obtida acima para k = 2 n˜ao ´e exatamente (2, −2)t, isto provavelmente deve-se ao fato dos c´alculos terem
sidos feitos sem a precis˜ao requerida.
Exemplo 3.2. Considere o circuito 3.1, com resistˆencias e baterias tal como indi-cado; escolhemos arbitrariamente as orientac¸˜oes das correntes.
Aplicando a lei de Kirchoff, que diz que a soma alg´ebrica das diferenc¸as de potencial em qualquer circuito fechado ´e zero, achamos para as correntes i1, i2, i3:
6i1 + 10(i1− i2) + 4(i1− i3) − 26 = 0 5i2 + 5i2 + 5(i2− i3) + 10(i2− i1) = 0
11i3 + 4(i3− i1) + 5(i3− i2) − 7 = 0
Organizando o sistema obtemos:
20i1 − 10i2 − 4i3 = 26 −10i1 + 25i2 − 5i3 = 0 −4i1 − 5i2 + 20i3 = 7
a) ´E poss´ıvel aplicar os m´etodos com convergˆencia assegurada? Justifique. Vamos aplicar o crit´erio das linhas, conforme o Corol´ario 2.2, para verificar a convergˆencia do sistema. O crit´erio nos diz que se
|aii| >
X
j=1i6=j
|aij| ∀i = 1, 2, · · · , n.
Para a primeira linha temos que:
|a11| = 20e |a12| + |a13| = 10 + 4 = 14
assim |a11| > |a12| + |a13|.
Para a segunda linha : |a22| = 25e |a21| + |a23| = 10 + 5 = 15
assim |a22| > |a21| + |a23|.
Para a terceira linha: |a33| = 20e |a31| + |a32| = 4 + 5 = 9
logo |a33| > |a31| + |a32|.
Desta forma ´e poss´ıvel aplicar os m´etodos de Gauss e Jacobi, no sistema das correntes. Podemos aplicar tamb´em o m´etodo dos Gradientes Conjugados pois a matriz ´e sim´etrica positiva definida.
b)Obtenha a soluc¸˜ao aproximada com uma tolerˆancia < 10−2e i(0) = (0, 0, 0)t.
A partir do m´etodo de Jacobi obtemos a soluc¸˜ao (1.99108, 0.99216, 0.993717)t
na 10a iterac¸˜ao com um tolerˆancia de 0.00899503. Utilizando o m´etodo de Gauss
encontramos a soluc¸˜ao (1.99814, 0.998904, 0.999355)t na 7a iterac¸˜ao com uma
tolerˆancia de 0.00391774. J´a o m´etodo do Gradiente Conjugado alcanc¸ou a soluc¸˜ao exata (2, 1, 1)tna 3a iterac¸˜ao com tolerˆancia zero.
Podemos ver que o m´etodo de Gauss converge mais r´apido que o de Jacobi, conforme o esperado. O Gradiente Conjugado convergiu para a soluc¸˜ao, na ter-ceira iterac¸˜ao, satisfazendo o Teorema 2.6.
Exemplo 3.3. Suponha uma barra R de metal homegˆeneo onde: AB = CD = 4 e AC = BD = 3u.m.. Veja Figura 3.2.
Figura 3.2: Barra de metal homogˆeneo.
A temperatura ao longo de AB, AC, BD ´e mantida constante e igual a 0◦C,
enquanto ao longo de CD ela ´e igual a 1◦C. A distribuic¸˜ao do calor na barra R
obedece `a seguinte equac¸˜ao, conhecida como Equac¸˜ao de Laplace. ∂2u
∂x2 +
∂2u
∂y2 = 0 (3.2)
com as condic¸˜oes de contorno:
u(x, 3) = 1 para 0 < x < 4, u(x, 0) = 0 para 0 < x < 4, u(0, y) = 0 para 0 < y < 3, u(4, y) = 0 para 0 < y < 3,
Consideremos uma divis˜ao do retˆangulo ABCD em retˆangulos menores a partir de uma divis˜ao de AB em intervalos de amplitude h = 1, e de uma divis˜ao de CD em intervalos iguais de amplitude k = 1, como mostra a Figura 3.3.
A temperatura u nos pontos internos pode ser obtida numericamente aproxi-mando as derivadas segundas da equac¸˜ao (3.2) pelas diferenc¸as de segunda ordem. Considando o desenvolvimento de u(x+h, y) e u(x−h, y) em s´erie de Taylor em torno do ponto x,
Figura 3.3: Divis˜ao da barra homogˆenea em retˆangulos.
u(x+h, y) = u(x, y)+hux(x, y)+
h2 2!uxx(x, y)+ h3 3!uxxx(x, y)+ h4 4!uxxxx(x, y)+· · · e
u(x−h, y) = u(x, y)−hux(x, y)+
h2 2!uxx(x, y)− h3 3!uxxx(x, y)+ h4 4!uxxxx(x, y)+· · · . Somando, obtemos:
u(x + h, y) + u(x − h, y) = 2u(x, y) + 2h
2 2!uxx(x, y) + 2 h4 4!uxxxx(x, y) + · · · isolando uxx(x, y), uxx(x, y) =
u(x − h, y) − 2u(x, y) + u(x + h, y) − 2h4
4!uxxxx(x, y)
h2 + · · ·
dessa forma, o ´ultimo termo ´e o erro de truncamento em que
uxx(x, y) =
u(x − h, y) − 2u(x, y) + u(x + h, y)
h2 + θ(h
em que o ´ultimo termo ´e o erro de truncamento. De modo an´alogo desenvolvendo u(x, y + h)e u(x, y −h), estamos considerando k = h na s´erie de Taylor em torno do ponto y, obtemos:
uyy(x, y) =
u(x, y − h) − 2u(x, y) + u(x, y + h)
h2 + θ(h
2).
Desta forma;
u(x − h, y) − 2u(x, y) + u(x + h, y)
h2 (3.3)
e
u(x, y − h) − 2u(x, y) + u(x, y + h)
h2 (3.4)
aproximam as derivadas segundas uxxe uyy, respectivamente, com θ(h2).
Substi-tuindo (3.3) e (3.4) em (3.2) obtemos
u(x − h, y) − 2u(x, y) + u(x + h, y)
h2 +
u(x, y − h) − 2u(x, y) + u(x, y + h)
h2 = 0
(3.5) para cada par (x, y) em R.
Agora vamos determinar um sistema de seis equac¸˜oes lineares nas inc´ognitas u1, u2,· · · , u6. Resolva-o pelos m´etodos de: Jacobi, Gauss-Seidel e Gradiente
Conjugado e resolvˆe-los.
Para u1 = u(1, 2)em (3.5) temos:
u(0, 2) − 2u(1, 2) + u(2, 2) + u(1, 1) − 2u(1, 2) + u(1, 3)
1 = 0
−4u1 + u2+ u4+ 1 = 0
−4u1+ u2+ u4 = −1 (3.6)
Para u2 = u(2, 2)em (3.5) temos:
u(1, 2) − 2u(2, 2) + u(3, 2) + u(2, 1) − 2u(2, 2) + u(2, 3)
1 = 0
u1− 2u2+ u3+ u5 − 2u2+ 1 = 0
ou
Para u3 = u(3, 2)em (3.5) temos:
u(2, 2) − 2u(3, 2) + u(4, 2) + u(3, 1) − 2u(3, 2) + u(3, 3)
1 = 0
u2 − 2u3+ 0 + u6− 2u3+ 1 = 0
ou
u2− 4u3+ u6 = −1. (3.8)
Para u4 = u(1, 1)em (3.5) temos:
u(0, 1) − 2u(1, 1) + u(2, 1) + u(1, 0) − 2u(1, 1) + u(1, 2)
1 = 0
0 − 2u4+ u5+ 0 − 2u4+ u1 = 0
ou
u1− 4u4+ u5 = 0. (3.9)
Para u5 = u(2, 1)em (3.5) temos:
u(1, 1) − 2u(2, 1) + u(3, 1) + u(2, 0) − 2u(2, 1) + u(2, 2)
1 = 0
u4− 2u5+ u6+ 0 − 2u5+ u2 = 0
ou
u2+ u4− 4u5 + u6 = 0. (3.10)
Para u6 = u(3, 1)em (3.5) temos:
u(2, 1) − 2u(3, 1) + u(4, 1) + u(3, 0) − 2u(3, 1) + u(3, 2)
1 = 0
u5 − 2u6+ 0 + 0 − 2u6+ u3 = 0
ou
u3+ u5− 4u6 = 0. (3.11)
A partir das equac¸˜oes (3.6) `a (3.11), obtemos o seguinte sistema:
−4u1 + u2 + 0 + u4 + 0 + 0 = −1 u1 + −4u2 + u3 + 0 + u5 + 0 = −1 0 + u2 + −4u3 + 0 + 0 + u6 = −1 u1 + 0 + 0 + −4u4 + u5 + 0 = 0 0 + u2 + 0 + u4 + −4u5 + u6 = 0 0 + 0 + u3 + 0 + u5 + −4u6 = 0
Escrevendo da forma Ax = b segue: −4 1 0 1 0 0 1 −4 1 0 1 0 0 1 −4 0 0 1 1 0 0 −4 1 0 0 1 0 1 −4 1 0 0 1 0 1 −4 u1 u2 u3 u4 u5 u6 = −1 −1 −1 0 0 0
Considere uma tolerˆancia < 10−3e u(0) = (0, 0, 0, 0, 0, 0)t.
A partir do m´etodo de Jacobi obtemos a soluc¸˜ao (0.415786, 0.508757, 0.415786, 0.154884, 0.204455, 0.154884)tna 13aiterac¸˜ao com uma tolerˆancia 0.000715441.
Atrav´es do m´etodo de Gauss obtemos a soluc¸˜ao (0.415963, 0.509158, 0.416081, 0.155167, 0.204873, 0.155239)tna 8aiterac¸˜ao com tolerˆancia 9.08881e−6.
J´a m´etodo do Gradiente Conjugado teve como soluc¸˜ao (0.416149, 0.509317, 0.416149, 0.15528, 0.204969, 0.15528)t na 4a iterac¸˜ao com
tolerˆancia zero.
Podemos observar que o m´etodo dos Gradientes Conjugados converge mais depressa que os outros dois. E, o Teorema 2.6 foi novamente satisfeito, pois o sis-tema no m´etodo dos Gradientes Conjugados convergiu em 4aiterac¸˜oes, enquanto
que o sistema tem ordem 6.
Exemplo 3.4. Considere a malha quadrada da Figura 3.4, cujos bordos AC e BD s˜ao mantidos `a temperatura de 20◦C, o bordo AB, a 40◦C; e o bordo CD, a 10◦C,
com o uso de isolantes t´ermicos em A,B,C,D.
Para determinar a temperatura nos pontos interiores da malha, pode-se supor que a temperatura em cada ponto ´e igual a m´edia aritm´etica dos quatro pontos vizinhos. Considerando as coordenadas na Figura 3.4 vamos determinar as 16 relac¸˜oes que s˜ao encontradas a partir da temperatura dos pontos interiores. Na verdade, faremos a seguir somente algumas delas.
a11= a01+ a12+ a10+ a21 4 = 40 + a12+ 20 + a21 4 −4a11+ a12+ a21= −60 (3.12) a12 = a02+ a11+ a13+ a22 4 = 40 + a11+ a13+ a22 4 a11− 4a12+ a13+ a22= −40 (3.13) = a03+ a12+ a14+ a23 = 40 + a12+ a14+ a23
Figura 3.4: Malha quadrada. a12− 4a13+ a14+ a23= −40 (3.14) a14= a04+ a13+ a15+ a24 4 = 40 + a13+ 20 + a24 4 a13− 4a14+ a24= −60 (3.15) a21 = a20+ a11+ a22+ a31 4 = 20 + a11+ a22+ a31 4 a11− 4a21+ a22+ a31= −20 (3.16) a31 = a30+ a21+ a32+ a41 4 = 20 + a21+ a32+ a41 4 a21− 4a31+ a32+ a41= −20 (3.17) a41= a40+ a31+ a42+ a51 4 = 20 + a31+ a42+ 10 4 a31− 4a41+ a42= −30 (3.18)
A partir das equac¸˜oes (3.12) `a (3.18) e de modo an´alogo para as demais obte-mos o sistema Ax = b, em que:
A= −4 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 −4 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 1 −4 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 −4 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 −4 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 1 −4 , x= a11 a12 a13 a14 a21 a22 a23 a24 a31 a32 a33 a34 a41 a42 a43 a44 t b= −60 −40 −40 −60 −20 0 0 −20 −20 0 0 −20 −30 −10 −10 −30 t
Para resolver o sistema Ax=b, vamos considerar a tolerˆancia como sendo < 10−3
e v(0) = (0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0)t.
Atrav´es do m´etodo de Jacobi obteve-se na 47a iterac¸˜ao uma tolerˆancia de
0.000950029. J´a no m´etodo de Gauss obteve-se uma tolerˆancia de 0.000843505 na 26a
iterac¸˜ao. E no m´etodo do Gradiente Conjugado obtivesse tolerˆancia 0 na 6aiterac¸˜ao.
Neste exemplo temos que o Teorema 2.6 foi novamente satisfeito, pois obtemos a soluc¸˜ao na 6aiterac¸˜ao e o sistema ´e de ordem 16.
Considerac¸˜oes Finais
No primeiro cap´ıtulo, apresentamos definic¸˜oes e resultados b´asicos necess´arios para o desenvolvimento dos m´etodos iterativos abordados nesse trabalho. Na sequˆencia, no Capitulo 2, desenvolvemos os m´etodos iterativos de Jacobi, Gauss-Seidel, Gradiente e Gradiente Conjugado. Al´em disso, apresentamos tamb´em resultados te´oricos referentes a convergˆencia dos m´etodos.
No terceiro cap´ıtulo, resolvemos numericamente alguns problemas aplica-dos, com a finalidade de aplicar e comparar os m´etodos desenvolvidos. Para isso, usamos c´odigos escritos na linguagem de programac¸˜ao C++. Dessa forma,
podemos evidenciar que o m´etodo dos Gradientes Conjugados converge com um n´umero menor de iterac¸˜oes quando comparado com os outros m´etodos apresenta-dos e tamb´em em at´e n passos, onde n ´e a ordem do sistema.
Os m´etodos iterativos tamb´em podem ser estudados a partir do subespac¸o de Krilov, tanto os m´etodos deste trabalho como os que n˜ao foram como: Gradiente Pr´e-Condicionado, SOR, SSOR e outros. Uma ´area bastante interessante para continuar o estudo sobre este assunto.
Referˆencias Bibliogr´aficas
[1] BARROSO, Leˆonidas Conceic¸˜ao - C´alculo Num´erico. 2aedic¸˜ao, Ed. Harbra,
S˜ao Paulo, 1987.
[2] BOLDRINI, J.L.; COSTA S.I.R.; FIGUEIREDO, V.L.; H. G. Wetzler
-´Algebra Linear.3a edic¸˜ao, Ed. Harbra, 1980.
[3] BURDEN, Richard L.; FARIES J. Douglas - An´alise Num´erica. Cengage Leaning, S˜ao Paulo, 2008.
[4] FRANCO, Neide Bertoldi - C´alculo Num´erico. Pearson Pretince Hall, S˜ao Paulo, 2006.
[5] ISSACSON, E.; KELLER, H. B. - Analysis of numerical methods. John Wi-ley e Sons, New York, 1966.
[6] ORTEGA, J.M.- Numerical analysis; a second course. Academic Press, New York, 1972.
[7] POOLE, David - ´Algebra Linear. Thonson, S˜ao Paulo, 2004.
[8] SANTOS, Vitoriano Ruas de Barros - Curso de C´alculo Num´erico. 3a
edic¸˜ao, Livros T´ecnicos e Cient´ıficos Editora S. A., Rio de Janeiro, 1976. [9] SCHWARZ, H.R.; RUTISHAUSER, H. ; STIEFEL, E. - Numerical analysis
of symmetric matrices. Prentice-Hall, 1973.