ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE N ˜AO LINEAR
Sandro Rodrigues Mazorche
TESE SUBMETIDA AO CORPO DOCENTE DA COORDENAC¸ ˜AO
DOS PROGRAMAS DE P ´OS-GRADUAC¸ ˜AO DE ENGENHARIA DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE DOS REQUISITOS NECESS ´ARIOS PARA A OBTENC¸ ˜AO DO GRAU DE DOUTOR EM CIˆENCIAS EM ENGENHARIA MEC ˆANICA.
Aprovada por:
Prof. Jos´e Herskovits Norman, D. Ing.
Prof. Fernando Pereira Duda, D. Sc.
Profa. Susana Scheimberg de Makler, D. Sc.
Profa. Claudia Alejandra Sagastiz´abal, D. Habil.
Prof. Anatoli Leontiev, D. Ing.
MAZORCHE, SANDRO RODRIGUES Algoritmos para Problemas de Complementaridade N˜ao Linear [Rio de Janeiro] 2007
vii, 132 p. 29,7 cm (COPPE/UFRJ, D.Sc., Engenharia Mecˆanica, 2007)
Tese - Universidade Federal do Rio de Janeiro, COPPE
1. Problema de Complementaridade. 2. Otimiza¸c˜ao n˜ao linear.
Agradecimentos
Ao professor Herskovits, pela orienta¸c˜ao e pelo grande apoio para a realiza¸c˜ao deste trabalho.
A CAPES/PQI pelo apoio financeiro.
Ao corpo docente do Programa de Engenharia Mecˆanica.
Ao grande amigo Alfredo Canelas Botta, o qual trabalhou comigo muitas horas na frente do quadro, agrade¸co a ele pelas valiosas observa¸c˜oes e coment´arios.
Ao apoio dos colegas e amigos do Laborat´orio Optimize: Paulo, Veranise, Evandro, Passarella, Mois´es, Gabriel, Miguel , Marcelo e Henry.
Ao pessoal administrativo do Programa de Engenharia Mecˆanica.
Aos meus queridos pais, D´alber e Marlene, minha irm˜a Aline e seu marido Andr´e pelo carinho, incentivo e apoio constantes.
A minha amada fam´ılia esposa Fl´avia e filhas Maria Julia e Eduarda que me apoiaram em todos os momentos.
`
Resumo da Tese apresentada `a COPPE/UFRJ como parte dos requisitos necess´arios para a obten¸c˜ao do grau de Doutor em Ciˆencias (D.Sc.)
ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE N ˜AO LINEAR
Sandro Rodrigues Mazorche
Dezembro/2007
Orientador: Jos´e Herskovits Norman
Programa: Engenharia Mecˆanica
Abstract of Thesis presented to COPPE/UFRJ as a partial fulfillment of the requirements for the degree of Doctor of Science (D. Sc.)
ALGORITHMS FOR NONLINEAR COMPLEMENTARITY PROBLEMS
Sandro Rodrigues Mazorche
December/2007
Advisor: Jos´e Herskovits Norman
Department: Mechanical Engineering
´Indice
1 Introdu¸c˜ao 1
1.1 Preliminares . . . 4
1.1.1 Conceitos b´asicos para problemas de otimiza¸c˜ao . . . 4
1.1.2 Buscas lineares inexatas . . . 6
1.1.3 Condi¸c˜oes de otimalidade . . . 7
1.1.4 O m´etodo de Newton para equa¸c˜oes . . . 9
1.1.5 Problema de Complementaridade . . . 11
2 M´etodos para Resolu¸c˜ao de Problemas de Complementaridade 14 2.1 M´etodo baseado em Problemas de Minimiza¸c˜ao - Fun¸c˜oes de M´erito . 15 2.2 M´etodo baseado em Sistemas de Equa¸c˜oes - Fun¸c˜ao-NCP . . . 16
2.2.1 M´etodo de Suaviza¸c˜ao . . . 19
2.3 M´etodo de Ponto Interior . . . 20
2.4 M´etodo tipo Proje¸c˜ao . . . 21
3 Um Algoritmo de Ponto Interior Vi´avel para NCP 22 3.1 Id´eias B´asicas . . . 22
3.2 Descri¸c˜ao do Algoritmo FDA-NCP. . . 28
4 Convergˆencia Global do FDA-NCP 30 4.1 Resultados de Convergˆencia . . . 31
5 Problema de Complementaridade Mista 39 5.1 Id´eias B´asicas . . . 39
5.3 Convergˆencia Global para FDA-MNCP . . . 42
6 An´alise de Convergˆencia Assint´otica 51 6.1 Resultados de Convergˆencia Assint´otica . . . 51
7 Usando FAIPA para Resolver NCP 55 7.1 FAIPA . . . 56
7.2 Descri¸c˜ao do Algoritmo FAIPA . . . 59
7.3 Reformulando NCP com Problema de Minimiza¸c˜ao com Restri¸c˜ao . . 60
7.4 Uma nova atualiza¸c˜ao de λ no FAIPA . . . 62
8 Problema de Complementaridade Reformulado 67 8.1 Reformulando o Problema de Complementaridade . . . 68
9 Resultados Num´ericos 72 9.1 Coletˆanea de Problemas de Complementaridade . . . 73
9.2 Casos especiais para FDA-NCP . . . 87
9.3 Problemas de Complementaridade Mista . . . 97
10 Aplica¸c˜oes - Inequa¸c˜oes Variacionais 102 10.1 O Problema do Obst´aculo em duas dimens˜oes . . . 105
10.2 Problema cl´assico de infiltra¸c˜ao em meio poroso . . . 108
10.3 Problema de Elasticidade Linear com Contato . . . 111
10.3.1 Modelo de Elementos Finitos . . . 112
10.3.2 Modelo de Elementos de Contorno . . . 117
11 Conclus˜oes 124
Cap´ıtulo 1
Introdu¸c˜
ao
Os problemas de complementaridade est˜ao presentes em v´arias aplica¸c˜oes [17] da Engenharia, Economia e outras ciˆencias em geral. Em Engenharia Mecˆanica n´os mencionamos os problemas de s´olidos em contato e dinˆamica Multi-Corpo.
mostrar a eficiˆencia dos algoritmos FDA-NCP e FDA-MNCP.
O trabalho ´e dividido em dez cap´ıtulos. No primeiro cap´ıtulo apresentaremos defini¸c˜oes e resultados b´asicos para o entendimento do assunto aqui tratado. No segundo cap´ıtulo veremos uma breve apresenta¸c˜ao de m´etodos e t´ecnicas utilizadas para a resolu¸c˜ao num´erica do problema de complementaridade.
No terceiro cap´ıtulo apresentaremos a filosofia de funcionamento do FDA-NCP e resultados que apontam que a seq¨uˆencia gerada esta contida na regi˜ao vi´avel. Uma descri¸c˜ao do algoritmo FDA-NCP tamb´em ´e apresentada neste cap´ıtulo, destacaremos a estrutura do FDA-NCP para gerar pontos vi´aveis e verificaremos que a dire¸c˜ao obtida ´e vi´avel e de descida para uma fun¸c˜ao potencial associada ao problema de complementaridade.
No quarto cap´ıtulo mostraremos a convergˆencia global para o FDA-NCP. Resultados sobre a limita¸c˜ao da dire¸c˜ao de busca, que a dire¸c˜ao de busca ´e um campo uniformemente vi´avel na regi˜ao vi´avel e que o passo da busca linear ´e finito e n˜ao nulo ser˜ao demonstrados.
No quinto cap´ıtulo apresentaremos uma extens˜ao do algoritmo FDA-NCP para problemas de complementaridade mista, o algoritmo FDA-MNCP. Uma descri¸c˜ao do algoritmo FDA-MNCP ser´a apresentada bem como os correspondentes resultados de convergˆencia global.
No sexto cap´ıtulo ser´a mostrado que ambos os algoritmos possuem um esquema de itera¸c˜ao do tipo Newton Amortecido e assim, sobre certas condi¸c˜oes, ter˜ao taxa de convergˆencia superlinear e/ou quadr´atica.
No s´etimo cap´ıtulo descreveremos o algoritmo FAIPA e o aplicaremos no problema de complementaridade. Tamb´em veremos que ´e poss´ıvel tomar uma nova regra de atualiza¸c˜ao para os multiplicadores de Lagrange no algoritmo FAIPA. E esta nova regra de atualiza¸c˜ao permitir´a, atrav´es de manipula¸c˜oes alg´ebricas, chegarmos a sistemas lineares idˆenticos ao do algoritmo FDA-NCP. Com isso usaremos esta nova regra de atualiza¸c˜ao para o FAIPA e ainda utilizaremos para o FDA-NCP uma busca em arco motivado nestas mudan¸cas.
complementaridade afim de facilitar a obten¸c˜ao de um ponto inicial estritamente vi´avel para o problema reformulado sem precisar alterar a estrutura do algoritmo. No nono cap´ıtulo temos os resultados num´ericos com respeito aos algoritmos de complementaridade e complementaridade mista. Um conjuntos de problemas testes ser´a usado para verificar o desempenho dos algoritmos de complementaridade onde comparamos o FDA-NCP com outros algoritmos de complementaridade e com o FAIPA nas duas vers˜oes.
O d´ecimo cap´ıtulo ´e composto por aplica¸c˜oes a inequa¸c˜oes variacionais, que s˜ao os seguintes problemas: O Problema do obst´aculo, O Problema do Dique e O Problema de Elasticidade linear com Contato sem atrito.
1.1
Preliminares
Neste cap´ıtulo apresentaremos resultados que consideramos pertinentes para a compreens˜ao dos pr´oximos cap´ıtulos. Aqui apresentaremos defini¸c˜oes e resultados que ajudaram a formar uma base de conhecimento para tratarmos do problema em quest˜ao que ´e elabora¸c˜ao do algoritmo FDA-NCP bem como seus resultados de convergˆencia.
1.1.1
Conceitos b´
asicos para problemas de otimiza¸c˜
ao
Seja, um problema de otimiza¸c˜ao n˜ao linear: min f (x)
Sujeito a: gi(x) ≤ 0 ; i = 1, 2, ..., m e hi(x) = 0 ; i = 1, 2, ..., p,
(1.1)
onde temos f : IRn → IR, g : IRn → IRm e h : IRn → IRp s˜ao fun¸c˜oes suaves em IRn e pelo menos uma destas fun¸c˜oes ´e n˜ao-linear. Uma restri¸c˜ao de desigualdade ´e dita “ativa”se gi(x) = 0 e Inativa se gi(x) < 0. Denotamos
g(x) = [g1(x), g2(x), ..., gm(x)]t e h(x) = [h1(x), h2(x), ..., hp(x)]t, assim nos temos min f (x)
Sujeito a: g(x) ≤ 0
e h(x) = 0.
(1.2)
Veremos agora algumas defini¸c˜oes dirigidas ao problema de otimiza¸c˜ao n˜ao linear 1.2.
Defini¸c˜ao 1.1.1 Um ponto x∗ ∈ Ω ⊂ IRn ´e dito M´ınimo Local (ou M´ınimo
Relativo) de f sobre Ω se existe uma vizinhan¸ca V ≡ {x ∈ Ω / kx − x∗k ≤ δ}
tal que f (x) ≥ f (x∗) para qualquer x ∈ V . Se f (x) > f (x∗) para todo x ∈ V ,
x 6= x∗, ent˜ao dizemos que x∗ ´e um M´ınimo Local Estrito.
Defini¸c˜ao 1.1.2 Um ponto x∗ ∈ Ω ⊂ IRn ´e dito M´ınimo Global (ou M´ınimo
Absoluto) de f sobre Ω se f (x) ≥ f (x∗) para qualquer x ∈ Ω. Se f (x) > f (x∗)
A maioria dos m´etodos de Programa¸c˜ao N˜ao Linear (PNL) s˜ao iterativos. Dado um ponto inicial x0, uma seq¨uencia de pontos, {xk}, ´e obtida por repetidas aplica¸c˜oes de uma regra algoritmica. Esta seq¨uˆencia deve convergir a uma solu¸c˜ao x∗ do problema. A convergˆencia ´e dita assint´otica quando a solu¸c˜ao n˜ao ´e atingida antes de um numero finito de itera¸c˜oes.
Defini¸c˜ao 1.1.3 Um algoritmo iterativo ´e dito ser globalmente convergente se para
qualquer ponto inicial x0 ∈ IRn (ou x0 ∈ Ω) este gera uma seq¨uencia de pontos que
converge a uma solu¸c˜ao do problema.
Defini¸c˜ao 1.1.4 Um algoritmo iterativo ´e dito ser localmente convergente se existe
² > 0 tal que para qualquer ponto inicial x0 ∈ IRn (ou x0 ∈ Ω) que verifica
kx0−x∗k ≤ ², a seq¨uˆencia gerada de pontos converge para uma solu¸c˜ao do problema. Agora segue uma defini¸c˜ao que introduz um crit´erio para medir a velocidade de convergˆencia de m´etodos iterativos com convergˆencia assint´otica.
Defini¸c˜ao 1.1.5 A ordem de convergˆencia de uma seq¨uˆencia {xk} → x∗ ´e o maior
numero p dos n´umeros n˜ao negativos ρ que satisfazem:
lim sup k→∞
kxk+1− x∗k
kxk− x∗kρ = β < ∞.
Quando p = 1 nos dizemos que a Convergˆencia ´e q-Linear com Raio de Convergˆencia β < 1. Se β = 0 a convergˆencia ´e dita Superlinear. A convergˆencia ´e Quadr´atica quando p = 2.
A rela¸c˜ao entre o limite de k → ∞, p e β ´e uma forma de medir a velocidade assint´otica da convergˆencia. Uma seq¨uˆencia pode ter uma boa ordem de convergˆencia mas ir muito “devagar”para a solu¸c˜ao. A convergˆencia ´e r´apida quando p ´e grande e β ´e pequeno.
Nas provas de convergˆencia, usaremos quando conveniente as seguintes nota¸c˜oes
Dado uma fun¸c˜ao h : IRn → IRm, usamos a express˜ao O(h(x)) para representar as fun¸c˜oes g : IRn→ IRm que satisfazem
lim kx||→0
kg(x)k
kh(x)k < ∞. (1.3)
E a express˜ao o(h(x)) para representar as fun¸c˜oes g : IRn→ IRm que satisfazem lim
kx||→0
kg(x)k
kh(x)k = 0. (1.4)
A gera¸c˜ao de pontos de uma seq¨uˆencia ´e dada por uma regra algoritmica. Por exemplo, dado um ponto inicial, determinamos uma dire¸c˜ao de busca para determinar o pr´oximo ponto e assim sucessivamente. Para isso veremos algumas defini¸c˜oes sobre dire¸c˜oes.
Defini¸c˜ao 1.1.6 Um vetor d ∈ IRn ´e uma dire¸c˜ao de descida para uma fun¸c˜ao real
f em x ∈ IRn se existe um δ > 0 tal que f (x + td) < f (x) para qualquer t ∈ (0, δ).
No caso de f ser diferenci´avel em x e dt∇f (x) < 0 ent˜ao d ´e uma dire¸c˜ao de descida para f em x.
Defini¸c˜ao 1.1.7 Um vetor d ∈ IRn ´e uma dire¸c˜ao de vi´avel de um problema PNL
1.2, em x ∈ Ω = {x ∈ IRn/ g(x) ≤ 0}, se para algum θ > 0 nos temos x + td ∈ Ω para todo t ∈ [0, θ].
´
E claro que qualquer dire¸c˜ao d em um ponto interior a Ω ´e uma dire¸c˜ao vi´avel. Defini¸c˜ao 1.1.8 Um campo vetorial d(.) definido em Ω ´e dito ser um campo
uniforme de dire¸c˜oes de vi´aveis do problema PNL 1.2, em Ω = {x ∈ IRn/ g(x) ≤ 0}, se existe um τ > 0 tal que x + td(x) ∈ Ω para todo t ∈ [0, τ ] e para todo x ∈ Ω.
1.1.2
Buscas lineares inexatas
Defini¸c˜ao 1.1.9 (Busca de Armijo) Dada uma fun¸c˜ao potencial f , definimos
o tamanho do passo t como sendo o primeiro numero inteiro da seq¨uˆencia {1, ν, ν2, ν3, ...} satisfazendo
f (x + td) ≤ f (x) + tη∇f (x)Td,
onde η ∈ (0, 1) e ν ∈ (0, 1) s˜ao parˆametros dados.
O crit´erio da busca linear inexata de Wolfe tamb´em estabelece limites no tamanho do passo, pedindo uma redu¸c˜ao na fun¸c˜ao potencial e ao mesmo tempo uma redu¸c˜ao em sua derivada direcional.
Defini¸c˜ao 1.1.10 (Busca de Wolfe) Dada uma fun¸c˜ao potencial f , o passo t ´e
aceito se verificar:
sendo o primeiro numero inteiro da seq¨uˆencia {1, ν, ν2, ν3, ...}, satisfazendo
f (x + td) ≤ f (x) + tη1∇ft(x)d,
onde ν ∈ (0, 1), η1 ∈ (0,12) , η2 ∈ (η1, 1) s˜ao parˆametros dados e verificando
∇ft(x + td)d ≥ η
2∇f (x)Td.
1.1.3
Condi¸c˜
oes de otimalidade
O seguinte resultado nos d´a uma interpreta¸c˜ao geom´etrica da condi¸c˜oes de otimalidade de uma grande classe de Problemas.
Teorema 1.1.1 Condi¸c˜ao necessaria Primeira e Segunda Ordem.
Se x∗ ∈ Ω ´e um m´ınimo local de f sobre Ω ent˜ao, para qualquer dire¸c˜ao vi´avel
d ∈ IRn, satisfaz: i) dt∇f (x∗) ≥ 0
ii) se dt∇f (x∗) = 0, ent˜ao dt∇2f (x∗)d ≥ 0.
Se Ω = IRn, temos um problema de Otimiza¸c˜ao sem Restri¸c˜ao,
do teorema 1.1.1 e como toda dire¸c˜ao n˜ao nula d ∈ IRn ´e uma dire¸c˜ao vi´avel temos o seguinte teorema:
Teorema 1.1.2 Condi¸c˜ao necessaria Primeira e Segunda Ordem.
Se x∗ ´e um m´ınimo local de f sobre IRn ent˜ao:
i) ∇f (x∗) = 0
ii) para todo d ∈ IRn, dt∇2f (x∗)d ≥ 0. Isto ´e, ∇2f (x∗) ´e semi definida positiva. A condi¸c˜ao suficiente de otimalidade local o problema de Otimiza¸c˜ao sem Restri¸c˜ao 1.5.
Teorema 1.1.3 Condi¸c˜ao suficiente de otimalidade.
Seja f uma fun¸c˜ao escalar duas vezes continuamente diferenci´avel em IRn e x∗ tal
que:
i) ∇f (x∗) = 0
ii) ∇2f (x∗) ´e definida positiva.
Ent˜ao, x∗ ´e um ponto de m´ınimo local estrito de f .
As condi¸c˜oes de otimalidade para o problema de Otimiza¸c˜ao com Restri¸c˜ao 1.2.
Defini¸c˜ao 1.1.11 Um ponto x ∈ Ω ´e um ponto regular das restri¸c˜oes do problema
1.2 se os vetores ∇hi(x), para i = 1, 2, ...p, e ∇gi(x) para i ∈ I(x) s˜ao linearmente
independente. (I(x) ≡ {i / gi(x) = 0} ´e chamado de Conjuntos das restri¸c˜oes Ativas
em x.)
Defini¸c˜ao 1.1.12 (Espa¸co Tangente) Para o conjunto dos pontos regulares, x ∈ Ω,
definido em 1.1.11 o espa¸co tangente se expressa como:
T (x) = {d|∇gi(x)Td = 0 ∀ i ∈ I(x), ∇hi(x)Td = 0, ∀ i ∈ {1, 2, ..., p}}.
Nos vamos introduzir agora as vari´aveis auxiliares λ ∈ IRm e µ ∈ IRp, chamadas de Vari´aveis Duais ou Multiplicadores de Lagrange e definimos a fun¸c˜ao Lagrangeana associada com o problema 1.2 como
Teorema 1.1.4 Karush-Kuhn-Tucker (KKT) Condi¸c˜ao Necessaria de Primeira
Ordem.
Seja x∗ um ponto regular das restri¸c˜oes g(x) ≤ 0 e h(x) = 0, um M´ınimo Local do
problema 1.2. Ent˜ao, existe um vetor λ∗ ∈ IRm e um vetor µ∗ ∈ IRp tal que
∇f (x∗) + ∇g(x∗)λ∗+ ∇h(x∗)µ∗ = 0 (1.7)
G(x∗)λ∗ = 0 (1.8)
h(x∗) = 0 (1.9)
g(x∗) ≤ 0 (1.10)
λ∗ ≥ 0 (1.11)
onde G(x∗) ´e uma matriz diagonal.
Teorema 1.1.5 Condi¸c˜ao Necessaria de Segunda Ordem.
Seja x∗ um ponto regular das restri¸c˜oes g(x) ≤ 0 e h(x) = 0, um M´ınimo Local
do problema 1.2. Ent˜ao, existe um vetor λ∗ ∈ IRm e um vetor µ∗ ∈ IRp tal que as
condi¸c˜oes (1.7-1.11) ´e satisfeita e a matriz H(x∗, λ∗, µ∗) = ∇2f (x∗) +Xm i=1 λ∗ i∇2gi(x∗) + p X i=1 µ∗ i∇2hi(x∗) (1.12)
´e semi definida positiva no espa¸co do plano tangente T (x).
Teorema 1.1.6 Condi¸c˜ao Suficiente de Segunda Ordem.
Seja x∗, um ponto satisfazendo g(x∗) ≤ 0 e h(x∗) = 0. Existe um vetor λ∗ ∈ IRm,
λ∗ ≥ 0 e um vetor µ∗ ∈ IRp tal que
∇f (x∗) + ∇g(x∗)λ∗+ ∇h(x∗)µ∗ = 0 (1.13)
G(x∗)λ∗ = 0 (1.14)
e H(x∗, λ∗, µ∗) ´e definida positiva no espa¸co tangente T (x). Ent˜ao x∗ ´e um M´ınimo
Local Estrito do problema 1.2.
1.1.4
O m´
etodo de Newton para equa¸c˜
oes
O m´etodo de Newton cl´assico ´e introduzido para resolver sistemas n˜ao lineares do tipo
onde T : IRn → IRn ´e diferenci´avel. Este m´etodo ´e muito utilizado em algoritmos de Programa¸c˜ao Matem´atica. Para o m´etodo de Newton cl´assico ´e comum pedir as seguintes suposi¸c˜oes:
Suposi¸c˜ao 1.1.1 Existe z∗ ∈ IRn tal que T (z∗) = 0.
Suposi¸c˜ao 1.1.2 A matriz jacobiana T0(z∗) ´e n˜ao singular.
Suposi¸c˜ao 1.1.3 O operador jacobiano T0 ´e continuo e localmente Lipschitz em x∗. Assim, determinar uma seq¨uˆencia {zk} que se aproxima de alguma solu¸c˜ao z∗ do sistema (1.15) utilizamos a aproxima¸c˜ao linear
T (zk) + T0(zk)(z − zk) = 0.
A rela¸c˜ao acima chama-se a equa¸c˜ao de itera¸c˜ao do m´etodo de Newton. O m´etodo de Newton pode ser escrito em forma do esquema iterativo
zk+1= zk− (T0(zk))−1T (zk), k = 0, 1, 2, ... (1.16) Desta forma ´e de se esperar que a seq¨uˆencia de pontos gerada acima se aproxima de uma solu¸c˜ao do sistema (1.15). E quando isso ocorre podemos esperar uma convergˆencia r´apida. ´E o diz no pr´oximo resultado. Iremos assumir que T (z) ´e diferenci´avel e as suposi¸c˜oes 1.1.1-1.1.3.
Teorema 1.1.7 Dado z0 ∈ IRn suficientemente pr´oximo de z∗, o Algoritmo definido
por (1.16) gera uma seq¨uˆencia {zk} bem definida que converge a z∗. A taxa de
convergˆencia ´e quadr´atica.
1.1.5
Problema de Complementaridade
Defini¸c˜ao 1.1.13 Seja F : D ⊆ IRn → IRn uma fun¸c˜ao vetorial. O problema de complementaridade ´e:
Encontrar x ∈ IRn tal que
x ≥ 0, F (x) ≥ 0 e x • F (x) = 0 (1.17)
onde x ≥ 0 ⇔ xi ≥ 0 para todo 1 ≤ i ≤ n , F (x) ≥ 0 ⇔ Fi(x) ≥ 0 para todo 1 ≤ i ≤ n e x • F (x) = x1F1(x) ... xnFn(x)
´e o produto de Hadamard.
Quando F ´e uma fun¸c˜ao afim (F (x) = Ax + b , A ∈ IRn×n e b ∈ IRn), temos um Problema de Complementaridade Linear (PCL), caso contr´ario temos um Problema de Complementaridade N˜ao-Linear(PCN).
Vamos definir conjunto de pontos vi´aveis para o problema 1.1.13 e solu¸c˜ao n˜ao degenerada.
Defini¸c˜ao 1.1.14 Seja Ω ⊂ IRn. Chamaremos de conjunto de pontos vi´aveis do problema de complementaridade dado por F o seguinte conjunto:
Ω := {x ∈ IRn|x ≥ 0 , F (x) ≥ 0}. (1.18)
Defini¸c˜ao 1.1.15 Se x ∈ Ω e verifica as seguintes condi¸c˜oes x > 0 e F (x) > 0 ent˜ao diremos que este ponto ´e estritamente vi´avel para o problema de
complementaridade. E denotaremos o conjunto dos pontos estritamente vi´aveis por
Ω0.
Defini¸c˜ao 1.1.16 Uma solu¸c˜ao de 1.1.13 ´e dita solu¸c˜ao degenerada se para algum
´ındice i, xi = 0 e Fi(x) = 0.
Defini¸c˜ao 1.1.17 Uma solu¸c˜ao de 1.1.13 ´e dita solu¸c˜ao n˜ao degenerada se para
Vamos introduzir os seguintes conjuntos de indices para um dado x ∈ Ω:
K = {i |xi = 0 e Fi(x) > 0}, (1.19)
J = {i |xi > 0 e Fi(x) = 0}, (1.20)
L = {i |xi > 0 e Fi(x) > 0}, (1.21)
I0 = {i |xi = 0 e Fi(x) = 0}. (1.22) Um Problema de Complementaridade que vem agregado com uma restri¸c˜ao de igualdade ´e chamado de Problema de Complementaridade Mista e tem a seguinte defini¸c˜ao.
Defini¸c˜ao 1.1.18 Sejam F : D ⊆ IRn → IRn× IRm e Q : D ⊆ IRm → IRn× IRm
fun¸c˜oes vetoriais. O Problema de Complementaridade Mista ´e: Encontrar (x, y) ∈ IRn× IRm tal que
x ≥ 0, F (x, y) ≥ 0 e x • F (x, y) = 0 Q(x, y) = 0 (1.23)
E da mesma forma como definimos para o caso de complementaridade temos: Conjunto de pontos vi´aveis com respeito as restri¸c˜oes x e F (x, y).
Ω := {(x, y) ∈ IRn× IRm|x ≥ 0 e F (x, y) ≥ 0}. Conjunto de pontos estritamente vi´aveis
Ω0 := {(x, y) ∈ IRn× IRm|x > 0 e F (x, y) > 0}.
Defini¸c˜ao 1.1.19 Uma solu¸c˜ao de 1.23 ´e dita solu¸c˜ao degenerada se para algum
´ındice i, xi = 0 e Fi(x, y) = 0.
Defini¸c˜ao 1.1.20 Uma solu¸c˜ao de 1.23 ´e dita solu¸c˜ao n˜ao degenerada se para todo
´ındice i, xi+ Fi(x, y) 6= 0.
problema. Alguns destes m´etodos e pesquisadores que trabalharam neles:
M´etodo baseado em Problema de Minimiza¸c˜ao sem restri¸c˜oes, podemos destacar aqui Mangasarian e Solodov, [40], Yamashita e Fukushima, [62], Geiger e Kanzow, [20], Kanzow, [31].
M´etodo baseado em Sistemas de Equa¸c˜oes. Mangasarian foi quem propˆos pela primeira vez em seu artigo, [39], a resolu¸c˜ao de um problema de Complementaridade como a resolu¸c˜ao de um sistema de equa¸c˜ao associado ao problema de complementaridade. Outros autores que tamb´em trabalharam nessa linha: Subramanian, [54], Kanzow, [30], C. Chen e O. L. Mangasarian, [6].
M´etodo de Suaviza¸c˜ao, esta t´ecnica ´e tanto aplic´avel ao primeiro caso quanto ao segundo caso, pois a id´eia aqui ´e trazer a regularidade requerida para aplicar o m´etodo em quest˜ao. Destacamos os autores M. C. Ferris e C. Kanzow, [16], S. J. Wright, [59], C. Chen e O. L. Mangasarian, [6].
M´etodo de Ponto Interior, ´e utilizado uma vari´avel de folga para definir a regi˜ao IR2n+ como a regi˜ao vi´avel para o problema de complementaridade com respeito a essa nova vari´avel. Esta t´ecnica ´e muito empregada para os casos de complementaridade linear. Podemos citar aqui os trabalhos de M. C. Ferris e C. Kanzow, [16], S. J. Wright, [59], P. Tseng , [[58], [57]].
Cap´ıtulo 2
M´
etodos para Resolu¸c˜
ao de
Problemas de Complementaridade
Vamos comentar sobre alguns m´etodos num´ericos existentes para a resolu¸c˜ao de problemas de complementaridade. Nas d´ecadas de 60’s e inicio de 70’s utilizava-se muito o artif´ıcio de reescrever os problemas de complementaridade como um problema de minimiza¸c˜ao sem restri¸c˜oes em IRn, para isto usavam as fun¸c˜oes especiais chamadas de Fun¸c˜oes de M´erito. Uma vez que o problema de complementaridade foi reescrito como um problema de minimiza¸c˜ao sem restri¸c˜oes utiliza-se t´ecnicas para resolver numericamente estes problemas de minimiza¸c˜ao. No ano de 1976 O.L. Mangasarian apresentou a equivalˆencia do Problema de Complementaridade com a resolu¸c˜ao de Sistema N˜ao Linear em IRn, [39]. A partir dai foram desenvolvidos v´arios algoritmos baseados na resolu¸c˜ao de sistemas n˜ao lineares de equa¸c˜oes. Nesta t´ecnica utiliza-se uma classe de fun¸c˜oes conhecida como Fun¸c˜oes-NCP que permitem estabelecer esta equivalˆencia.
Nos final dos anos 70’s em diante os m´etodos baseados na resolu¸c˜ao de sistemas de equa¸c˜oes foram melhorados com t´ecnicas n˜ao diferenci´aveis pois justamente as Fun¸c˜oes-NCP utilizadas n˜ao tinham a suavidade requerida pelo m´etodo de Newton. Tamb´em nesta mesma ´epoca surgiram t´ecnicas que utilizam vari´aveis de folga na restri¸c˜ao F (x) ≥ 0 transformando-a em uma restri¸c˜ao de igualdade e reescrevendo assim o problema de complementaridade em um grande sistema de equa¸c˜oes em IR2n
Do teorema de Ponto Fixo de Banach temos a t´ecnica de proje¸c˜ao que projeta um vetor v de IRn em IRn
+.
2.1
M´
etodo
baseado
em
Problemas
de
Minimiza¸c˜
ao - Fun¸c˜
oes de M´
erito
A id´eia deste m´etodo ´e transformar um problema de complementaridade em um problema de minimiza¸c˜ao sem restri¸c˜ao. Vamos definir as propriedades que uma determinada fun¸c˜ao tem que satisfazer para que possamos reescrever o problema de complementaridade.
Defini¸c˜ao 2.1.1 Uma fun¸c˜ao φ(x) : IRn→IR ´e chamada fun¸c˜ao de m´erito para um problema de complementaridade se satisfaz:
a) φ(x) ≥ 0 para todo x ∈ IRn;
b) φ(x) = 0 se e somente se x ´e uma solu¸c˜ao do Problema de Complementaridade 1.1.13.
Assim, podemos transformar o Problema de Complementaridade 1.1.13 em um problema de minimiza¸c˜ao sem restri¸c˜oes do tipo
min
x∈IRnφ(x). (1.1)
Para aplicarmos as t´ecnicas usuais de otimiza¸c˜ao a este problema de minimiza¸c˜ao, a fun¸c˜ao de m´erito ter´a que satisfazer determinadas hip´oteses de regularidade. Por exemplo, se utilizarmos algoritmos baseados na diferenciabilidade da fun¸c˜ao potencial devemos pedir que φ seja pelo menos uma vez continuamente diferenci´avel e se poss´ıvel at´e duas vezes continuamente diferenci´avel. Alguns exemplos de fun¸c˜oes de m´eritos.
• Fun¸c˜ao Lagrangiana Impl´ıcita [40]. φ(x) := n X i=1 {xiFi(x)+ 1 2α(max{0, xi−αFi(x)} 2−x2
• Fun¸c˜ao m´erito de Fischer-Burmeister [14]. φ(x) := 1 2 n X i=1 ( q x2 i + Fi(x)2− xi− Fi(x))2.
• Fun¸c˜ao m´erito penalizada de Fischer-Burmeister [5]. φ(x) := 1 2 n X i=1 {λ(qx2 i + Fi(x)2−xi−Fi(x))2+(1−λ) max{0, xi}2max{0, Fi(x)}2}). onde, λ ∈ (0, 1) ´e um parˆametro fixo.
As fun¸c˜oes de m´erito apresentadas s˜ao uma vez continuamente diferenci´avel em IRn. Portanto n˜ao ´e aconselh´avel minimizar diretamente estas fun¸c˜oes de m´erito com algoritmos cl´assicos para problemas de otimiza¸c˜ao diferenci´aveis. Apesar disto, as fun¸c˜oes de m´erito s˜ao freq¨uentemente usadas para monitorar a convergˆencia global de diversos algoritmos. A maioria dos algoritmos de otimiza¸c˜ao garantem que os pontos limite da seq¨uˆencia gerada por eles s˜ao pontos estacion´ario de φ(x) satisfazendo ∇φ(x) = 0.
2.2
M´
etodo baseado em Sistemas de Equa¸c˜
oes
-Fun¸c˜
ao-NCP
A id´eia de reformular um problema de complementaridade como um sistema de equa¸c˜oes foi proposta por Mangasarian [39]. Ele utilizou uma classe de fun¸c˜oes chamada de Fun¸c˜oes-NCP que tem a seguinte propriedade.
Defini¸c˜ao 2.2.1 Uma fun¸c˜ao ψ : IR2 → IR ´e chamada de Fun¸c˜ao-NCP para um problema de complementaridade se satisfaz a condi¸c˜ao:
ψ(a, b) = 0 ⇔ a ≥ 0, b ≥ 0 e ab = 0
Alguns exemplos de Fun¸c˜oes-NCP.
• ψm(a, b) = min(a, b), Fun¸c˜ao Res´ıduo natural.
• ψF B(a, b) = a + b −
√
a2+ b2, Fun¸c˜ao Fischer-Burmeister.
• ψR(a, b) = −ab + 1
2min2(0, a + b), Fun¸c˜ao “min”.
Das Fun¸c˜oes-NCP acima somente a primeira e a quarta s˜ao continuamente diferenci´aveis em IR2. A terceira ´e diferenci´avel em IRn\ {(0, 0)}.
Para uma dada Fun¸c˜ao-NCP ψ, definimos um operador Ψ : IRn → IRn como o sistema de equa¸c˜oes associado a ele da seguinte forma:
Ψ(x) := ψ(x1, F1(x)) . . . ψ(xn, Fn(x)) , Ψ(x) = 0 (2.1) ´
E claro que para cada Fun¸c˜ao-NCP, existe a fun¸c˜ao de m´erito natural dada por:
φ(x) = 1 2Ψ(x) t.Ψ(x) = 1 2 n X i=1 Ψ2i(x)
Chamaremos Ψ de operador das equa¸c˜oes correspondente ao problema de complementaridade 1.1.13. Como conseq¨uˆencia da defini¸c˜ao 2.2.1 obtemos a seguinte caracteriza¸c˜ao do problema de complementaridade:
Sejam ψ uma Fun¸c˜ao-NCP e Ψ seu operador de equa¸c˜oes correspondente. Ent˜ao
x ´e uma solu¸c˜ao do problema de complementaridade 1.1.13 se e somente se ´e uma
solu¸c˜ao do sistema de equa¸c˜oes 2.1.
Se F (x) e ψ(a, b) s˜ao fun¸c˜oes continuamente diferenci´aveis, ent˜ao o operador Ψ tamb´em ´e. Neste caso, n´os podemos aplicar o m´etodo cl´assico de Newton para achar
x que verifica Ψ(x) = 0 e assim resolver o problema de complementaridade. Isto nos
leva a itera¸c˜oes do tipo
xk+1 := xk− [∇Ψ(xk)]−1Ψ(xk), k = 0, 1, 2, ... onde Ψ(xk)]−1 ´e a matriz jacobiana de Ψ(xk).
Proposi¸c˜ao 2.2.1 Sejam F (x) e ψ(a, b) fun¸c˜oes diferenci´aveis, seja Ψ(x) o
operador de equa¸c˜oes correspondente. Se x∗ ´e uma solu¸c˜ao degenerada do problema
de complementaridade 1.1.13 ent˜ao a Jacobiana ∇Ψ(x∗) ´e singular.
Nos casos em que ∇Ψ(x) n˜ao existe, podemos utilizar m´etodos para fun¸c˜oes n˜ao diferenci´aveis e neste caso normalmente pede-se que Ψ(x) seja no m´ınimo localmente lipschitziana, pois assim, Ψ(x) ser´a diferenci´avel em quase todo ponto.
Denotaremos de DΨ ao conjunto de pontos onde Ψ(x) ´e diferenci´avel. Ent˜ao
definimos o que chamamos de B-subdiferencial,
∂BΨ(x) := {H ∈ IRn×n|∃{xk} ⊆ DΨ : xk → x e ∇Ψ(xk) → H}
bem como seu fecho convexo
∂Ψ(x) := conv{∂BΨ(x)}
que ´e chamado jacobiano generalizado, [9]. Elementos de ∂BΨ(x) e ∂Ψ(x) podem ser usados no lugar da jacobiana cl´assica ∇Ψ(x) (que em algumas situa¸c˜oes n˜ao existe). Um m´etodo de Newton n˜ao suave t´ıpico consiste em realizar as seguintes itera¸c˜oes:
xk+1 = xk− Hk−1Ψ(xk), k = 0, 1, 2, ..., onde Hk ´e um elemento arbitr´ario de ∂BΨ(xk), n˜ao singular. Dois pontos importantes deste m´etodo s˜ao:
1) O c´alculo de um elemento do B-subdiferencial. Por isso ´e interessante utilizarmos determinados operadores Ψ, que seja f´acil o c´alculo de um elemento de seu B-subdiferencial, Hk∈ ∂BΨ(x).
2) Devemos ainda considerar o fato que este elemento Hk seja n˜ao singular.
Quando se utiliza a Func˜ao-NCP de Fischer-Burmeister, resultados com respeito a 1) e 2) podem ser visto em Houyuan Jiang e Liqun Qi [28], [51] e T. De Luca, F. Facchinei, C. Kanzow [38]. Em suma se consegue o seguinte resultado:
Nos casos dos problemas de complementaridade mon´otona pode-se mostrar a convergˆencia global destes m´etodos. Para isso, inclu´ımos uma busca linear tomando como dire¸c˜ao de busca o vetor
dk := −Hk−1Ψ(xk)
e como fun¸c˜ao potencial a fun¸c˜ao de m´erito natural correspondente. Assim executa-se uma busca linear ao longo desta dire¸c˜ao pedindo o decrescimento da fun¸c˜ao potencial ([38] , [19] , [49] , [50]).
2.2.1
M´
etodo de Suaviza¸c˜
ao
Os m´etodos de suaviza¸c˜ao para problemas de complementaridade basicamente fazem uma aproxima¸c˜ao da Fun¸c˜ao-NCP n˜ao diferenci´avel ψ(a, b) por uma seq¨uˆencia de fun¸c˜oes diferenci´aveis ψµ(a, b) que depende de um parˆametro de suavidade µ > 0. Por exemplo, uma possibilidade de aproxima¸c˜ao da fun¸c˜ao de Fischer-Burmeister ´e:
ψµ(a, b) :=
q
a2+ b2+ 2µ − (a + b) (2.2)
Usando t´ecnicas similares, ´e poss´ıvel suavizar a maioria das Fun¸c˜oes-NCP conhecidas. Uma vez conhecida tal aproxima¸c˜ao suave ψµ, podemos definir o operador de equa¸c˜oes correspondente
Ψµ(x) := ψµ(x1, F1(x)) . . . ψµ(xn, Fn(x)) (2.3)
A aproxima¸c˜ao Ψµ de Ψ ser´a suave se a pr´opria F (x) for suave.
A id´eia principal de qualquer m´etodo de suaviza¸c˜ao ´e aplicar o m´etodo de Newton cl´assico para o sistema de equa¸c˜oes n˜ao lineares Ψµ(x) = 0 e fazer com que o parˆametro µ de suavidade tenda a zero. Uma forma de fazer isso ´e indexar o valor de µ `a itera¸c˜ao k atrav´es de µk. Assim, uma itera¸c˜ao do m´etodo de suaviza¸c˜ao ´e dada pela express˜ao
Um ponto delicado para todo m´etodo de suaviza¸c˜ao ´e o modo que o parˆametro de suavidade µk ´e escolhido a cada itera¸c˜ao. Se isto ´e feito de um modo apropriado, ´e poss´ıvel provar resultados de convergˆencia global para problemas mon´otonos. (Ver, [7])
2.3
M´
etodo de Ponto Interior
Uma descri¸c˜ao de um algoritmo de pontos interiores para problemas de complementaridade pode ser vista no livro “Primal-Dual interior-Point Methods”, [59].
O problema de complementaridade 1.1.13 ´e reescrito da seguinte forma: Dados x e y ∈ IRn temos
F (x) − y = 0, x ≥ 0 , y ≥ 0 e x • y = 0 (3.1)
onde F (x) ´e uma fun¸c˜ao mon´otona associada ao problema de complementaridade 1.1.13. Ent˜ao
“(x, y) ´e uma solu¸c˜ao do problema (3.1) ⇔ x ´e uma solu¸c˜ao de 1.1.13.” Dado o seguinte sistema com as restri¸c˜oes x ≥ 0 e y ≥ 0:
S(x, y) = F (x) − y y • x = 0.
Uma itera¸c˜ao ´e definida pela resolu¸c˜ao do sistema abaixo:
∇F (x) −Id Y X . ∆x ∆y = y − F (x) −y • x + µE ,
onde Id ´e a matriz identidade de ordem n, X = diag(x), Y = diag(y), E = [1, ...1] um vetor coluna e µ = xTny.
2.4
M´
etodo tipo Proje¸c˜
ao
Os m´etodos tipo proje¸c˜ao s˜ao baseados na seguinte proposi¸c˜ao.
Proposi¸c˜ao 2.4.1 Um vetor x∗ ´e uma solu¸c˜ao de 1.1.13 se e somente se x∗ satisfaz
a equa¸c˜ao
x = (x − λF (x))+,
onde λ > 0 ´e uma constante arbitraria e z+ denota a proje¸c˜ao Euclidiana de um
vetor z ∈ IRn sobre IRn
+.
Os m´etodos tipo proje¸c˜ao consistem em realizar a seguinte itera¸c˜ao
xk+1 := (xk− λF (xk))
+, k = 0, 1, 2, ...
onde x0 ∈ IRn
+ ´e um dado ponto inicial [1].
Usando o Teorema de ponto fixo de Banach, se F for fortemente mon´otona, globalmente Lispschitz e λ > 0 seja suficientemente pequeno, pode-se mostrar que este m´etodo possui convergˆencia global, al´em disso, a taxa de convergˆencia ´e linear. Algumas modifica¸c˜oes neste m´etodo de proje¸c˜oes permitem obter resultados de convergˆencia global. Por exemplo, o m´etodo Extragradiente ([36] e [33]) gera itera¸c˜oes usando a f´ormula
xk+1 := (xk− λF ((xk− λF (xk))
+)+, k = 0, 1, 2, ...
Para o m´etodo Extragradiente pode-se mostrar a convergˆencia global se F for mon´otona e globalmente Lispschitz desde que λ > 0 seja suficientemente pequeno. O valor de λ suficientemente pequeno que garanta a convergˆencia global n˜ao pode ser conhecido a priori. Isto implica que devemos escolher λ dinamicamente para conseguir resultados satisfat´orios nos m´etodos de proje¸c˜ao.([52],[53],[55]).
Cap´ıtulo 3
Um Algoritmo de Ponto Interior
Vi´
avel para NCP
3.1
Id´
eias B´
asicas
Neste capitulo apresentaremos um algoritmo ponto interior para problemas de complementaridade. Este algoritmo gera uma seq¨uˆencia de pontos que satisfaz as desigualdades do problema de complementaridade 1.1.13. Relembrando da defini¸c˜ao do Problema de Complementaridade 1.1.13.
Determinar x ∈ IRn tal que x ≥ 0 , F (x) ≥ 0 e x • F (x) = 0 onde
x • F (x) = x1F1(x) . . . xnFn(x) = 0 . . . 0 (1.1)
Considere o seguinte sistema: H(x) = x1F1(x) . . . xnFn(x) = 0 (1.2) ´
E claro que toda solu¸c˜ao do problema de complementaridade 1.1.13 ´e uma solu¸c˜ao do sistema de equa¸c˜oes (1.2). Mas infelizmente n˜ao podemos afirmar que toda solu¸c˜ao do sistema (1.2) seja uma solu¸c˜ao do problema de complementaridade 1.1.13. Por outro lado, se restringirmos a resolu¸c˜ao do sistema (1.2) na regi˜ao de pontos vi´aveis Ω = {x ∈ IRn | x ≥ 0 e F (x) ≥ 0} podemos afirmar que uma solu¸c˜ao deste sistema
em Ω ´e uma solu¸c˜ao do problema de complementaridade 1.1.13. Assim, temos que desenvolver um algoritmo que gere uma seq¨uˆencia de pontos em Ω e convirja para a solu¸c˜ao do sistema (1.2) e portanto convergir´a para uma solu¸c˜ao do problema de complementaridade 1.1.13.
Para gerar esta seq¨uˆencia utilizaremos uma itera¸c˜ao de Newton no sistema 1.2 mas veremos que isso n˜ao ser´a suficiente para garantir que a seq¨uˆencia gerada esta contida em Ω. Antes de come¸carmos a constru¸c˜ao do algoritmo veremos algumas nota¸c˜oes que auxiliaram no decorrer do texto.
O Gradiente de H(x) ´e dado por
∇H(x) = DF (x)+ Dx∇F (x) (1.3)
onde DF (x)e Dx s˜ao matrizes diagonais, [DF (x)](i,i) = Fi(x) , [Dx](i,i)= xi para todo 1 ≤ i ≤ n e a matriz jacobiana de F (x) ´e
∇F (x) = ∂F1(x) ∂x1 ∂F1(x) ∂x2 . . . ∂F1(x) ∂xn ∂F2(x) ∂x1 ∂F2(x) ∂x2 . . . ∂F2(x) ∂xn . . . . . . ∂Fn(x) ∂x1 ∂Fn(x) ∂x2 . . . ∂Fn(x) ∂xn .
Observe que a i-´esima linha de ∇H(x) e definida por
onde ei ´e um vetor (linha) unit´ario com 1 na i-´esima coordenada e ∇Fi(x) ´e um vetor linha.
Portando, dado um ponto xk em Ω, que n˜ao seja solu¸c˜ao de (1.2), pela itera¸c˜ao de Newton em H(x) = 0 temos
∇H(xk)dk
1 = −H(xk) (1.5)
Para que o sistema (1.5) esteja bem definido vamos supor que ∇H(xk) seja n˜ao singular em xk. Ent˜ao, se para algum ´ındice i ∈ 1, 2, ..., n ocorrer que H
i(xk) = 0 sem que seja solu¸c˜ao do problema de complementaridade, teremos a seguinte situa¸c˜ao. Seja a i-´esima linha do sistema (1.5) onde ocorre Hi(xk) = 0,
(Fi(xk)ei+ xik∇Fi(xk))dk1 = 0,
pela n˜ao singularidade da matriz ∇H(xk) temos duas possibilidades: (1) xk
i = 0 e Fi(xk) > 0 isso implica que dk1 ´e tangente a restri¸c˜ao xi ≥ 0. (2) Fi(xk) = 0 e xki > 0 isso implica que dk1 ´e tangente a restri¸c˜ao Fi(x) ≥ 0. E em ambos os casos n˜ao temos garantido a viabilidade da dire¸c˜ao dk
1 em Ω.
A proposi¸c˜ao abaixo nos fornece as condi¸c˜oes para que uma dire¸c˜ao d ∈ IRntem que satisfazer para ser uma dire¸c˜ao vi´avel em Ω.
Proposi¸c˜ao 3.1.1 Seja d ∈ IRn e x ∈ Ω. Se a dire¸c˜ao d satisfaz as condi¸c˜oes:
(1) di > 0 para todo ´ındice i tal que xi = 0.
(2) ∇Fi(x)d > 0 para todo ´ındice i tal que Fi(x) = 0.
ent˜ao d ´e uma dire¸c˜ao vi´avel no ponto x.
Portanto usaremos uma dire¸c˜ao de restaura¸c˜ao, para compor junto com a dire¸c˜ao
d1 de Newton uma nova dire¸c˜ao d que seja vi´avel em Ω. Para isso tome o seguinte
sistema:
∇H(xk)dk2 = ρkE (1.6)
onde o vetor E ∈ IRn ´e composto por 10s e m parˆametro ρk > 0. Ent˜ao para todo ponto xk ∈ Ω que n˜ao seja solu¸c˜ao do problema de complementaridade 1.1.13 mas que para algum ´ındice i, temos Hi(xk) = 0 segue que
(1) xk
(2) Fi(xk) = 0 e xk
i > 0 isso implica que ∇Fi(xk)dk2 > 0.
Assim a dire¸c˜ao dk
2 ´e uma dire¸c˜ao vi´avel em Ω, pela proposi¸c˜ao 3.1.1. Portanto, a
seguinte combina¸c˜ao linear d = dk
1+ ρkdk2, com ρk> 0 faz com que a dire¸c˜ao dk seja
uma dire¸c˜ao vi´avel em Ω. Como podemos ver na figura 3.1.
Figura 1.1:
Vamos definir ρk = ρ
0φ(x
k)β
n onde, ρ0 > 0 , φ(xk) = xkTF (xk) e β ∈ [1, 2]. observe que ρk > 0 para todo xk ∈ Ω que n˜ao seja solu¸c˜ao do problema de complementaridade. Desta forma vamos calcular a dire¸c˜ao de busca dk resolvendo o seguinte sistema
∇H(xk)dk= −H(xk) + ρkE (1.7) em cada itera¸c˜ao. Veremos agora que a dire¸c˜ao dk tem a propriedade de ser vi´avel em Ω e de ser uma dire¸c˜ao de descida para a seguinte fun¸c˜ao potencial
φ(x) = xTF (x).
Vamos considerar os conjuntos de indices dados em (1.19-1.22).
Proposi¸c˜ao 3.1.2 (Viabilidade da dire¸c˜ao) Sejam xk ∈ Ω tal que φ(xk) > 0 e
∇H(xk) n˜ao singular, ent˜ao temos que a dire¸c˜ao dk obtida pela resolu¸c˜ao do sistema (1.7) ´e vi´avel em Ω.
Prova:
Ω. Ent˜ao basta verificar para os pontos xk em que os conjuntos de indices K 6= ∅ e
J 6= ∅.
Pelo sistema (1.7);
∇H(xk)dk = −xk• F (xk) + ρkE,
Observe que a i-´esima linha deste sistema ´e:
[eiFi(xk) + xki∇Fi(xk)]dk = −xkiFi(xk) + ρk. Segue ent˜ao que:
(1) Para um ´ındice i ∈ K temos:
xk
i = 0 e Fi(xk) > 0 portanto:
[eiFi(xk)]dk = Fi(xk)dki = ρk assim, dk i = ρ k Fi(xk) > 0 ent˜ao, d k i > 0 para todo ρk > 0. (2) Para um ´ındice i ∈ J temos:
xi > 0 e Fi(x) = 0 portanto:
[xk
i∇Fi(xk)]dk= xik[∇Fi(xk)dk] = ρk o que implica que ∇Fi(xk)dk> 0.
Logo pela proposi¸c˜ao 3.1.1 temos que dk ´e uma dire¸c˜ao vi´avel em Ω. A dire¸c˜ao dk ´e uma dire¸c˜ao de descida para a fun¸c˜ao potencial φ(x).
Proposi¸c˜ao 3.1.3 Em todo ponto xk∈ Ω tal que φ(xk) > 0, a dire¸c˜ao dkobtida pela
resolu¸c˜ao do sistema (1.7) ´e uma dire¸c˜ao de descida para φ(xk) se ρ
0φ(xk)β−1 < 1.
Prova:
A fun¸c˜ao φ(x) ´e estritamente positiva para todo ponto xk em Ω que n˜ao seja solu¸c˜ao do problema de complementaridade 1.1.13, e ainda, todo ponto xk ∈ Ω tal que φ(xk) = 0 implica que xk ´e uma solu¸c˜ao do problema de complementaridade 1.1.13, ou seja, xk ≥ 0 , F (xk) ≥ 0 e xk
∇φ(xk) = ET[D
F (xk)+ Dxk∇F (xk)].
Dada a dire¸c˜ao dk obtida pela resolu¸c˜ao do sistema (1.7) temos que
∇φ(xk)dk = Et[D
F (xk)+ Dxk∇F (xk)]dk= Et(−xk• F (xk) + ρkE) =
−φ(xk) + ρkn = −[1 − ρ
0φ(xk)β−1]φ(xk) < 0
para todo ρ0φ(xk)β−1 ∈ (0, 1).
Por tanto a dire¸c˜ao dk ´e uma dire¸c˜ao de descida para φ(xk).
Com estes dois resultados temos que a dire¸c˜ao dk ´e de descida e vi´avel para o problema de complementaridade desde que tenhamos ∇H(xk) n˜ao singular e
ρ0φ(xk)β−1 < 1 para todo xk ∈ Ω. Assim vamos definir o seguinte conjunto
Ωc = {x ∈ Ω | φ(x) ≤ c}
onde c ´e uma constante positiva. Assim, podemos por exemplo definir ρ0 = cβ−1α
3.2
Descri¸c˜
ao do Algoritmo FDA-NCP.
O presente algoritmo produzir´a uma seq¨uˆencia de pontos interiores a regi˜ao Ω que converge a uma solu¸c˜ao do problema de complementaridade mediante a resolu¸c˜ao de um sistema linear e uma busca linear nas restri¸c˜oes x ≥ 0 , F (x) ≥ 0 e na fun¸c˜ao potencial φ(x). A busca que iremos utilizar ´e a de Armijo. Vamos considerar os seguintes parˆametros:
c, ² > 0, ρ0, η, ν ∈ (0, 1), β ∈ (1, 2]. Dados iniciais: x0 ∈ Ω estritamente vi´avel tal
que φ(x0) ≤ c e k = 0.
1. Passo 1: Dire¸c˜ao de Busca. Resolva o sistema [DF (xk)+ Dxk∇F (xk)]dk = −H(xk) + ρkE, onde ρk = ρ 0φ(x k)β n . 2. Passo 2: Busca linear.
Define-se o tamanho do passo tk como sendo o primeiro valor da seq¨uˆencia
{1, ν, ν2, ν3, ...} satisfazendo
1) xk+ tkdk ≥ 0 2) F (xk+ tkdk) ≥ 0
3) φ(xk) + tkη∇φ(xk)tdk≥ φ(xk+ tkdk)
3. Passo 3: Atualiza¸c˜ao dos Dados xk+1 := xk+ tkdk e k := k + 1
4. Passo 4: Crit´erio de parada Se φ(xk+1) < ² , pare.
caso contr´ario volte ao passo 1.
de busca dk por meio da resolu¸c˜ao de um sistema linear. Este sistema fornece uma dire¸c˜ao dk que ´e uma combina¸c˜ao da dire¸c˜ao de Newton dk
1 e da dire¸c˜ao de
restaura¸c˜ao dk
2.
A dire¸c˜ao de Newton dk
1 ´e uma dire¸c˜ao de descida para a fun¸c˜ao potencial φ(xk)
dentro da regi˜ao Ω, como j´a visto o grande inconveniente de usarmos esta dire¸c˜ao para achar o pr´oximo ponto da seq¨uˆencia ´e que esta dire¸c˜ao n˜ao ´e em geral uma dire¸c˜ao vi´avel na regi˜ao Ω. A dire¸c˜ao dk
2 por sua vez ´e uma dire¸c˜ao de restaura¸c˜ao
que tem a propriedade de ser vi´avel na regi˜ao Ω, porem n˜ao ´e em geral uma dire¸c˜ao de descida para fun¸c˜ao potencial φ(xk). Mas a combina¸c˜ao destas duas dire¸c˜oes nos fornece uma dire¸c˜ao dk que tem a propriedade de ser uma dire¸c˜ao de descida da fun¸c˜ao potencial φ(xk) e vi´avel na regi˜ao Ω como mostrado nas proposi¸c˜oes 3.1.2 e 3.1.3.
Desta forma ´e poss´ıvel gerar uma seq¨uˆencia de pontos com a dire¸c˜ao dk onde cada ponto desta seq¨uˆencia esta contido em Ω e ainda decresce o valor da fun¸c˜ao potencial φ(xk). Isto ´e poss´ıvel por meio de uma busca linear na dire¸c˜ao de dk que ´e justamente o segundo passo. A busca linear determina o pr´oximo ponto da seq¨uˆencia, xk+1, que verifica duas condi¸c˜oes xk+1 ∈ Ω e φ(xk+1) ≤ φ(xk). ´E importante na busca linear que o comprimento do passo tk n˜ao tenda a zero pois isso comprometer´a na convergˆencia do algoritmo.
Para a aplica¸c˜ao do algoritmo ´e muito importante termos as seguintes condi¸c˜oes:
• Um ponto inicial x0 estritamente vi´avel.
• O conjunto Ω ⊂ IRn ter interior n˜ao vazio.
• A matriz ∇H(x) ser n˜ao singular para x ∈ Ω.
Cap´ıtulo 4
Convergˆ
encia Global do
FDA-NCP
Nesta se¸c˜ao apresentaremos resultados te´oricos sobre a convergˆencia global do Algoritmo FDA-NCP a uma solu¸c˜ao do problema de complementaridade. Lembrando que o Algoritmo dever´a gerar uma seq¨uˆencia de pontos {xk} ⊂ Ω, a partir de um ponto estritamente vi´avel, e a cada itera¸c˜ao dever´a reduzir o valor da fun¸c˜ao potencial φ(xk). Para tal, o algoritmo produzir´a uma dire¸c˜ao de busca dk que tem as propriedades de ser uma dire¸c˜ao vi´avel em Ω e de descida para a fun¸c˜ao potencial φ(x). Mostraremos que esta dire¸c˜ao dk ´e um campo uniforme de dire¸c˜oes vi´aveis e limitado. O passo da busca de Armijo para a fun¸c˜ao potencial φ(x) ´e limitado inferiormente por um valor positivo.
Assumiremos condi¸c˜oes cl´assicas para a fun¸c˜ao F (x), a matriz ∇H(x) e o conjunto de pontos vi´aveis Ω.
Suposi¸c˜ao 4.0.1 O conjunto
Ωc≡ {x ∈ Ω | φ(x) ≤ c} ´e compacto e possui interior Ω0
c 6= ∅, tal que para cada x ∈ Ω0c satisfaz x > 0 e
F (x) > 0.
Suposi¸c˜ao 4.0.2 A fun¸c˜ao F (x) ´e continuamente diferenci´avel e ∇F (x) satisfaz a
condi¸c˜ao de Lipschitz,
para qualquer x, y ∈ Ωc, onde γ0 ´e uma constante positiva.
Suposi¸c˜ao 4.0.3 A matriz ∇H(x) ´e n˜ao singular para todo x ∈ Ωc, ou seja, existe (∇H(x))−1 para todo x ∈ Ω
c.
A suposi¸c˜ao 4.0.1 garante a existˆencia de pontos estritamente vi´aveis em Ωc. Da suposi¸c˜ao 4.0.3 temos que as componentes de x e F (x) n˜ao se anulam simultaneamente para nenhum x ∈ Ωc. Temos tamb´em que o sistema de equa¸c˜oes do algoritmo
∇H(xk)dk = −H(xk) + ρkE, possui solu¸c˜ao ´unica, logo a dire¸c˜ao dk est´a bem definida.
Como ∇F (x) ´e cont´ınua segue que tanto ∇H(x) quanto (∇H(x))−1 s˜ao aplica¸c˜oes cont´ınuas e limitadas em Ωc. Ou seja existem constantes positivas κ0, κ tal que
k∇H(x)k ≤ κ0 e k(∇H(x))−1k ≤ κ para todo x ∈ Ωc.
4.1
Resultados de Convergˆ
encia
Nos resultados a seguir assumiremos as suposi¸c˜oes (4.0.1 - 4.0.3). Primeiro veremos resultados com respeito a F (x) e a equa¸c˜ao do sistema H(x) = x • F (x).
Lema 4.1.1 Seja um subconjunto Γ ⊂ <n compacto e n˜ao vazio. Ent˜ao as fun¸c˜oes
F (x), H(x) = x • F (x) satisfazem a condi¸c˜ao de Lipschitz em Γ.
Prova.:
Primeiro observe que como F (x) ´e de classe C1ent˜ao H(x) = x•F (x) ´e de classe C1
tamb´em. Temos tamb´em que ∇Fi(x) ´e cont´ınua para todo i ∈ {1, 2, ..., n} e como Γ ´e compacto ent˜ao ∇Fi(x) ´e limitado em Γ. Existe CFi constante positiva tal que
, k∇Fi(x)k ≤ CFi para todo x ∈ Γ. Assim dados x , y em Γ tal que o seguimento
x + t(y − x) ∈ Γ para todo t ∈ [0, 1] e para qualquer i ∈ {1, 2, ...n}. Segue pelo
teorema do valor m´edio
para algum τ ∈ [0, 1]. Portanto, para qualquer i ∈ {1, 2, ...n}, Fi(x) satisfaz a condi¸c˜ao de Lipschitz
|Fi(y) − Fi(x)| ≤ CFiky − xk.
De forma an´aloga temos o mesmo resultado para Hi(x).
|Hi(y) − Hi(x)| ≤ CHiky − xk.
Tomando CF =Pni=1CFi, podemos concluir que
kF (y) − F (x)k ≤ n X i=1 |Fi(y) − Fi(x)| ≤ n X i=1 CFiky − xk = CFky − xk.
Tamb´em de maneira an´aloga segue que
kH(y) − H(x)k ≤ n X i=1 |Hi(y) − Hi(x)| ≤ n X i=1 CHiky − xk = CHky − xk, onde CH =Pni=1CHi.
Lema 4.1.2 Seja um subconjunto Γ ⊂ <n compacto e n˜ao vazio. Ent˜ao a fun¸c˜ao
∇H(x) satisfaz a condi¸c˜ao de Lipschitz em Γ.
Prova:
Dados x , y em Γ ent˜ao: (∇H(x) = DF (x)+ Dx∇F (x))
||∇H(y) − ∇H(x)|| = ||DF (y)+ Dy∇F (y) − DF (x)− Dx∇F (x)|| ≤
≤ ||DF (y)− DF (x)|| + ||Dy∇F (y) − Dx∇F (x)|| ≤
≤ ||DF (y)− DF (x)|| + ||Dy(∇F (y) − ∇F (x))|| + ||(Dy− Dx)∇F (x)|| ≤
≤ ||DF (y)− DF (x)|| + ||Dy||||∇F (y) − ∇F (x)|| + ||∇F (x)||||Dy − Dx||. Como Γ ´e compacto e ∇F (x) ´e uma fun¸c˜ao continua, ent˜ao existem uma constante positiva tal que ||Dz|| ≤ c0 e ||∇F (z)|| ≤ c1∀z ∈ Γ e da suposi¸c˜ao 4.0.2 temos
||∇H(y) − ∇H(x)|| ≤ CFky − xk + c0γ0ky − xk + c1ky − xk = γky − xk,
Lema 4.1.3 Para x, y ∈ Γ, se o seguimento de reta x + t(y − x) ∈ Γ para todo
t ∈ [0, 1], segue as seguintes desigualdades:
Hi(y) ≤ Hi(x) + ∇Hi(x)(y − x) + γ||y − x||2 ∀ 1 ≥ i ≥ n , (1.1)
Hi(y) ≥ Hi(x) + ∇Hi(x)(y − x) − γ||y − x||2 ∀ 1 ≥ i ≥ n , (1.2)
onde ∇Hi(x) ´e um vetor linha. Prova:
Observe primeiro que: ∇H(x) ´e uma matriz com a i-esima linha igual a ∇Hi(x) logo
∇Hi(x)d = [∇H(x)d]i. Assim temos que
|∇Hi(x)d| ≤ k∇H(x)dk ≤ ||∇H(x)||kdk. (1.3) Ent˜ao pelo teorema do valor m´edio existe τ ∈ [0, 1] tal que
Hi(y) = Hi(x) + ∇Hi(x + τ (y − x))(y − x).
agora somando e subtraindo ∇Hi(x)(y − x) no segundo membro da igualdade temos
Hi(y) = Hi(x) + ∇Hi(x)(y − x) + (∇Hi(x + τ (y − x)) − ∇Hi(x))(y − x). (1.4) Da equa¸c˜ao (1.3) temos
|(∇Hi(x + τ (y − x)) − ∇Hi(x))(y − x)| = |[(∇H(x + τ (y − x)) − ∇H(x))(y − x)]i| ≤
≤ k∇H(x + τ (y − x)) − ∇H(x)kky − xk,
e pelo lema 4.1.2 segue
|(∇Hi(x + τ (y − x)) − ∇Hi(x))(y − x)| ≤ γkτ (y − x)kky − xk ≤ γky − xk2. (1.5)
Portanto da equa¸c˜ao (1.4) e da desigualdade (1.5) segue as duas desigualdades do lema (1.1) e (1.2).
de dire¸c˜oes vi´aveis. Lembrando que ρk = ρ 0φ(x k)β n onde ρ0 = α min{1, 1 cβ−1} com β ∈ [1, 2] , α ∈ (0, 1) e xk ∈ Ω c.
Lema 4.1.4 Para qualquer xk ∈ Ω
c, da dire¸c˜ao de busca dk gerada pelo algoritmo
satisfaz
kdkk ≤ κφ(xk). (1.6)
Como conseq¨uˆencia, kdkk ≤ κc. Prova:
Seja xk ∈ Ωc. Como dk = M−1(xk)[−H(xk) + ρkE], temos a seguinte desigualdade
kdkk ≤ kM−1(xk)kk−H(xk)+ρkEk. Basta mostrar uma limita¸c˜ao para k−H(xk)+
ρkEk. Tome a seguinte igualdade
k − H(xk) + ρkEk2 = kH(xk)k2− 2ρkφ(xk) + n(ρk)2.
Como kH(xk)k2 ≤ φ2(xk)k para todo xk∈ Ω
c temos que k − H(xk) + ρkEk2 ≤ φ2(xk) − 2ρkφ(xk) + n(ρk)2 = (n − 1)(ρk)2+ (φ(xk) − ρk)2, como ρk = ρ0φ(xk)β n e ρ0φ(xk)β−1 < 1 segue k − H(xk) + ρkEk2 ≤ [(n − 1)(ρ0φ(xk)β−1)2+ (n − ρ0φ(xk)β−1)2 n2 ]φ(x k)2,
observe que (n − 1) < (n − ρ0φ(xk)β−1) < n e (ρ0φ(xk)β−1)2 < ρ0φ(xk)β−1 < 1 ent˜ao
[(n − 1)(ρ0φ(x k)β−1)2+ (n − ρ 0φ(xk)β−1)2 n2 ] < n − ρ0φ(xk)β−1 n < 1.
Assim temos a seguinte desigualdade
k − H(xk) + ρkEk ≤ φ(xk) , ∀xk ∈ Ωc.
Lema 4.1.5 A dire¸c˜ao de busca dk ´e uma dire¸c˜ao de descida para φ(xk) para
qualquer xk∈ Ω
c tal que H(xk) 6= 0. Prova:
Como φ(xk) ´e continuamente diferenci´avel basta verificarmos que ∇φ(xk)dk < 0 para qualquer xk ∈ Ω
c tal que H(xk) 6= 0 para concluirmos que dk ´e dire¸c˜ao de descida.
Observe que ∇φ(xk) = Et∇H(xk), assim
∇φ(xk)dk = Et[∇H(xk)dk] = Et[−H(xk) + ρkE] = −(1 − ρ
0φ(xk)β−1)φ(xk) < 0
o que conclui o resultado.
Lema 4.1.6 Sejam f e g fun¸c˜oes reais cont´ınuas no intervalo da reta [0, b]. Se
f (t)g(t) > 0 ∀ t ∈ (0, b) ent˜ao uma das duas condi¸c˜oes ocorre:
1) f (t) ≥ 0 e g(t) ≥ 0 ∀ t ∈ [0, b], 2) f (t) ≤ 0 e g(t) ≤ 0 ∀ t ∈ [0, b].
Prova.: ´E f´acil ver que f e g tem o mesmo sinal no intervalo (0, b). Pois caso contr´ario, existiria um t ∈ (0, b) tal que f (t)) < 0 e g(t) > 0 o que implicaria
f (t)g(t) < 0 que ´e uma contradi¸c˜ao.
Agora se existe um t ∈ (0, b) tal que
f (t) > 0 e g(t) > 0 ∀ t ∈ (0, t), f (t) < 0 e g(t) < 0 ∀ t ∈ (t, b).
Pela continuidade da f (t) (g(t)) temos que f (t) = 0 (g(t) = 0) o que ´e uma contradi¸c˜ao pois por hip´otese f (t)g(t) > 0 para todo t no intervalo (0, b). Logo f e
g ter˜ao o mesmo sinal em todo intervalo (0, b).
No caso de termos 10) isto implica em f (0) , g(0) , f (b) e g(b) ≥ 0. No caso de termos 20) isto implica em f (0) , g(0) , f (b) e g(b) ≤ 0.
Isto ´e verdade pois, sem perda de generalidade, vamos assumir que estamos com a condi¸c˜ao 10) e supor f (b) < 0. Pela continuidade f existe um δ > 0 tal que para todo t que satisfa¸ca |b − t| < δ implica que f (t) < 0, ou seja, existe um t < b tal que
f (t) < 0 o que ´e uma contradi¸c˜ao. Portanto conclu´ımos que uma das duas condi¸c˜oes
se verifica:
1) f (t) ≥ 0 e g(t) ≥ 0 ∀ t ∈ [0, b], 2) f (t) ≤ 0 e g(t) ≤ 0 ∀ t ∈ [0, b].
Lema 4.1.7 A seq¨uˆencia de dire¸c˜ao {dk} gerada pelo algoritmo FDA-NCP, consiste
em um campo uniforme de dire¸c˜oes vi´aveis do problema de complementaridade em
Ω. Prova:
Segue da equivalˆencia de normas e do lema 4.1.2 que
k∇Hi(y) − ∇Hi(x)k ≤ γky − xk para todo x , y ∈ Ωc e 1 ≤ i ≤ n.
Suponhamos que exista θ > 0 tal que para todo xk ∈ Ω
c o seguimento [xk, xk+ τ dk] ⊂ Ω
c para τ ∈ [0, θ]. Do teorema do valor m´edio temos que
Hi(xk+ τ dk) ≥ Hi(xk) + τ ∇Hit(xk)dk− τ2γkdkk2 para qualquer τ ∈ [0, θ] e 1 ≤ i ≤ n. Como
∇Hi(xk)dk = −xkiFi(xk) + ρk (1.7) segue que
Em conseq¨uˆencia,
Hi(xk+ τ dk) ≥ 0
para todo 1 ≤ i ≤ n e qualquer τ ≤ min{1,γkdρkkk2}. Portanto, pelo lema 4.1.6
conclu´ımos que xk+ τ dk ∈ Ω.
Considerando agora o lema 4.1.4, e pela defini¸c˜ao de ρk temos
τ ≤ min{1, ρ0 γnκ2φ(x
k)β−2} (1.8)
Como β ∈ [1, 2], basta escolher
θ = min{1,ρ0cβ−2 γnκ2 }.
Lema 4.1.8 Existe ξ > 0 tal que, para todo xk ∈ Ω
c, a condi¸c˜ao de Armijo no
algoritmo ´e satisfeita para qualquer tk ∈ [0, ξ]. Prova:
Seja tk ∈ (0, θ], onde θ foi obtido no lema anterior. Aplicando o Teorema do Valor M´edio para i = 1, 2, ..., n e tomando xk+1 = xk+ tkdk, nos temos
Hi(xk+1) ≤ Hi(xk) + tk∇[H(xk)]idk+ tk
2
γkdkk2.
Somando as n inequa¸c˜oes e considerando a equa¸c˜ao (1.7), temos:
φ(xk+1) ≤ [1 − (1 − ρkn
φ(xk))t
k]φ(xk) + ntk2
γkdkk2.
Considerando agora da condi¸c˜ao de Armijo para φ(xk) e pelo lema 4.1.5, deduzimos que se, [1 − (1 − ρkn φ(xk))t k]φ(xk) + ntk2 γkdkk2 ≤ [1 − tkη(1 − ρkn φ(xk))]φ(x k)
´e verificado, ent˜ao a condi¸c˜ao de Armijo no algoritmo ´e satisfeita. Assim, ´e suficiente tomarmos
tk ≤ (1 − η)(1 − ρkn
φ(xk))φ(xk)
Como no lema anterior, podemos tomar
tk ≤ (1 − η)(1 − ρ
0φ(xk)β−1)
φ(xk)−1
γnκ2 . (1.9)
Assim, o lema fica provado para
ξ = min{(1 − η)(1 − ρ
0cβ−1)
γnκ2c , θ},
onde θ foi obtido no Lema 4.1.7.
Como conseq¨uˆencia dos lemas 4.1.7 e 4.1.8, podemos concluir que o passo da busca linear de Armijo no algoritmo FDA-NCP ´e limitado inferiormente por νξ > 0. Assim podemos enunciar o teorema que garante a convergˆencia global do algoritmo a uma solu¸c˜ao do problema de complementaridade.
Teorema 4.1.1 Dado um ponto inicial estritamente vi´avel, x0 ∈ Ω
c, existe uma
subseq¨uˆencia de {xk} gerada pelo Algoritmo FDA-NCP que converge para x∗, solu¸c˜ao
do problema de complementaridade.
Prova:
Segue dos lemas 4.1.4 a 4.1.8 que {xk} ⊂ Ωc. Como Ωc ´e compacto, a seq¨uˆencia
{xk} possui ponto de acumula¸c˜ao em Ω
c. Seja x∗ um ponto de acumula¸c˜ao desta seq¨uˆencia. Como o tamanho do passo ´e sempre positivo e limitado inferiormente por
Cap´ıtulo 5
Problema de Complementaridade
Mista
5.1
Id´
eias B´
asicas
Vamos extender o FDA-NCP para problemas que envolvam mais vari´aveis e uma condi¸c˜ao de igualdade al´em da condi¸c˜ao de complementaridade. Este tipo de problema ´e chamado de Problema de Complementaridade Mista (MNCP). Que tem a seguinte defini¸c˜ao:
Defini¸c˜ao 5.1.1 Sejam F : IRn× IRm → IRn e Q : IRn× IRm → IRm, aplica¸c˜oes de
classe C1 em IRn× IRm ent˜ao uma solu¸c˜ao para este problema ´e:
Encontrar (x, y) ∈ IRn× IRm tal que x ≥ 0 , F (x, y) ≥ 0 e
x • F (x, y) = 0 Q(x, y) = 0.
Quando F (x, y) e Q(x, y) s˜ao lineares temos o Problema de Complementaridade Mista Linear (MLCP).
Para a utiliza¸c˜ao do algoritmo FDA-NCP no problema 5.1.1 vamos agregar no sistema H(x, y) = 0, onde H(x, y) = x•F (x, y), a equa¸c˜ao de igualdade Q(x, y) = 0. Assim o novo sistema fica da seguinte forma: