• Nenhum resultado encontrado

ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE NÃO LINEAR. Sandro Rodrigues Mazorche

N/A
N/A
Protected

Academic year: 2021

Share "ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE NÃO LINEAR. Sandro Rodrigues Mazorche"

Copied!
139
0
0

Texto

(1)

ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE N ˜AO LINEAR

Sandro Rodrigues Mazorche

TESE SUBMETIDA AO CORPO DOCENTE DA COORDENAC¸ ˜AO

DOS PROGRAMAS DE P ´OS-GRADUAC¸ ˜AO DE ENGENHARIA DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE DOS REQUISITOS NECESS ´ARIOS PARA A OBTENC¸ ˜AO DO GRAU DE DOUTOR EM CIˆENCIAS EM ENGENHARIA MEC ˆANICA.

Aprovada por:

Prof. Jos´e Herskovits Norman, D. Ing.

Prof. Fernando Pereira Duda, D. Sc.

Profa. Susana Scheimberg de Makler, D. Sc.

Profa. Claudia Alejandra Sagastiz´abal, D. Habil.

Prof. Anatoli Leontiev, D. Ing.

(2)

MAZORCHE, SANDRO RODRIGUES Algoritmos para Problemas de Complementaridade N˜ao Linear [Rio de Janeiro] 2007

vii, 132 p. 29,7 cm (COPPE/UFRJ, D.Sc., Engenharia Mecˆanica, 2007)

Tese - Universidade Federal do Rio de Janeiro, COPPE

1. Problema de Complementaridade. 2. Otimiza¸c˜ao n˜ao linear.

(3)

Agradecimentos

Ao professor Herskovits, pela orienta¸c˜ao e pelo grande apoio para a realiza¸c˜ao deste trabalho.

A CAPES/PQI pelo apoio financeiro.

Ao corpo docente do Programa de Engenharia Mecˆanica.

Ao grande amigo Alfredo Canelas Botta, o qual trabalhou comigo muitas horas na frente do quadro, agrade¸co a ele pelas valiosas observa¸c˜oes e coment´arios.

Ao apoio dos colegas e amigos do Laborat´orio Optimize: Paulo, Veranise, Evandro, Passarella, Mois´es, Gabriel, Miguel , Marcelo e Henry.

Ao pessoal administrativo do Programa de Engenharia Mecˆanica.

Aos meus queridos pais, D´alber e Marlene, minha irm˜a Aline e seu marido Andr´e pelo carinho, incentivo e apoio constantes.

A minha amada fam´ılia esposa Fl´avia e filhas Maria Julia e Eduarda que me apoiaram em todos os momentos.

`

(4)

Resumo da Tese apresentada `a COPPE/UFRJ como parte dos requisitos necess´arios para a obten¸c˜ao do grau de Doutor em Ciˆencias (D.Sc.)

ALGORITMOS PARA PROBLEMAS DE COMPLEMENTARIDADE N ˜AO LINEAR

Sandro Rodrigues Mazorche

Dezembro/2007

Orientador: Jos´e Herskovits Norman

Programa: Engenharia Mecˆanica

(5)

Abstract of Thesis presented to COPPE/UFRJ as a partial fulfillment of the requirements for the degree of Doctor of Science (D. Sc.)

ALGORITHMS FOR NONLINEAR COMPLEMENTARITY PROBLEMS

Sandro Rodrigues Mazorche

December/2007

Advisor: Jos´e Herskovits Norman

Department: Mechanical Engineering

(6)

´Indice

1 Introdu¸c˜ao 1

1.1 Preliminares . . . 4

1.1.1 Conceitos b´asicos para problemas de otimiza¸c˜ao . . . 4

1.1.2 Buscas lineares inexatas . . . 6

1.1.3 Condi¸c˜oes de otimalidade . . . 7

1.1.4 O m´etodo de Newton para equa¸c˜oes . . . 9

1.1.5 Problema de Complementaridade . . . 11

2 M´etodos para Resolu¸c˜ao de Problemas de Complementaridade 14 2.1 M´etodo baseado em Problemas de Minimiza¸c˜ao - Fun¸c˜oes de M´erito . 15 2.2 M´etodo baseado em Sistemas de Equa¸c˜oes - Fun¸c˜ao-NCP . . . 16

2.2.1 M´etodo de Suaviza¸c˜ao . . . 19

2.3 M´etodo de Ponto Interior . . . 20

2.4 M´etodo tipo Proje¸c˜ao . . . 21

3 Um Algoritmo de Ponto Interior Vi´avel para NCP 22 3.1 Id´eias B´asicas . . . 22

3.2 Descri¸c˜ao do Algoritmo FDA-NCP. . . 28

4 Convergˆencia Global do FDA-NCP 30 4.1 Resultados de Convergˆencia . . . 31

5 Problema de Complementaridade Mista 39 5.1 Id´eias B´asicas . . . 39

(7)

5.3 Convergˆencia Global para FDA-MNCP . . . 42

6 An´alise de Convergˆencia Assint´otica 51 6.1 Resultados de Convergˆencia Assint´otica . . . 51

7 Usando FAIPA para Resolver NCP 55 7.1 FAIPA . . . 56

7.2 Descri¸c˜ao do Algoritmo FAIPA . . . 59

7.3 Reformulando NCP com Problema de Minimiza¸c˜ao com Restri¸c˜ao . . 60

7.4 Uma nova atualiza¸c˜ao de λ no FAIPA . . . 62

8 Problema de Complementaridade Reformulado 67 8.1 Reformulando o Problema de Complementaridade . . . 68

9 Resultados Num´ericos 72 9.1 Coletˆanea de Problemas de Complementaridade . . . 73

9.2 Casos especiais para FDA-NCP . . . 87

9.3 Problemas de Complementaridade Mista . . . 97

10 Aplica¸c˜oes - Inequa¸c˜oes Variacionais 102 10.1 O Problema do Obst´aculo em duas dimens˜oes . . . 105

10.2 Problema cl´assico de infiltra¸c˜ao em meio poroso . . . 108

10.3 Problema de Elasticidade Linear com Contato . . . 111

10.3.1 Modelo de Elementos Finitos . . . 112

10.3.2 Modelo de Elementos de Contorno . . . 117

11 Conclus˜oes 124

(8)

Cap´ıtulo 1

Introdu¸c˜

ao

Os problemas de complementaridade est˜ao presentes em v´arias aplica¸c˜oes [17] da Engenharia, Economia e outras ciˆencias em geral. Em Engenharia Mecˆanica n´os mencionamos os problemas de s´olidos em contato e dinˆamica Multi-Corpo.

(9)

mostrar a eficiˆencia dos algoritmos FDA-NCP e FDA-MNCP.

O trabalho ´e dividido em dez cap´ıtulos. No primeiro cap´ıtulo apresentaremos defini¸c˜oes e resultados b´asicos para o entendimento do assunto aqui tratado. No segundo cap´ıtulo veremos uma breve apresenta¸c˜ao de m´etodos e t´ecnicas utilizadas para a resolu¸c˜ao num´erica do problema de complementaridade.

No terceiro cap´ıtulo apresentaremos a filosofia de funcionamento do FDA-NCP e resultados que apontam que a seq¨uˆencia gerada esta contida na regi˜ao vi´avel. Uma descri¸c˜ao do algoritmo FDA-NCP tamb´em ´e apresentada neste cap´ıtulo, destacaremos a estrutura do FDA-NCP para gerar pontos vi´aveis e verificaremos que a dire¸c˜ao obtida ´e vi´avel e de descida para uma fun¸c˜ao potencial associada ao problema de complementaridade.

No quarto cap´ıtulo mostraremos a convergˆencia global para o FDA-NCP. Resultados sobre a limita¸c˜ao da dire¸c˜ao de busca, que a dire¸c˜ao de busca ´e um campo uniformemente vi´avel na regi˜ao vi´avel e que o passo da busca linear ´e finito e n˜ao nulo ser˜ao demonstrados.

No quinto cap´ıtulo apresentaremos uma extens˜ao do algoritmo FDA-NCP para problemas de complementaridade mista, o algoritmo FDA-MNCP. Uma descri¸c˜ao do algoritmo FDA-MNCP ser´a apresentada bem como os correspondentes resultados de convergˆencia global.

No sexto cap´ıtulo ser´a mostrado que ambos os algoritmos possuem um esquema de itera¸c˜ao do tipo Newton Amortecido e assim, sobre certas condi¸c˜oes, ter˜ao taxa de convergˆencia superlinear e/ou quadr´atica.

No s´etimo cap´ıtulo descreveremos o algoritmo FAIPA e o aplicaremos no problema de complementaridade. Tamb´em veremos que ´e poss´ıvel tomar uma nova regra de atualiza¸c˜ao para os multiplicadores de Lagrange no algoritmo FAIPA. E esta nova regra de atualiza¸c˜ao permitir´a, atrav´es de manipula¸c˜oes alg´ebricas, chegarmos a sistemas lineares idˆenticos ao do algoritmo FDA-NCP. Com isso usaremos esta nova regra de atualiza¸c˜ao para o FAIPA e ainda utilizaremos para o FDA-NCP uma busca em arco motivado nestas mudan¸cas.

(10)

complementaridade afim de facilitar a obten¸c˜ao de um ponto inicial estritamente vi´avel para o problema reformulado sem precisar alterar a estrutura do algoritmo. No nono cap´ıtulo temos os resultados num´ericos com respeito aos algoritmos de complementaridade e complementaridade mista. Um conjuntos de problemas testes ser´a usado para verificar o desempenho dos algoritmos de complementaridade onde comparamos o FDA-NCP com outros algoritmos de complementaridade e com o FAIPA nas duas vers˜oes.

O d´ecimo cap´ıtulo ´e composto por aplica¸c˜oes a inequa¸c˜oes variacionais, que s˜ao os seguintes problemas: O Problema do obst´aculo, O Problema do Dique e O Problema de Elasticidade linear com Contato sem atrito.

(11)

1.1

Preliminares

Neste cap´ıtulo apresentaremos resultados que consideramos pertinentes para a compreens˜ao dos pr´oximos cap´ıtulos. Aqui apresentaremos defini¸c˜oes e resultados que ajudaram a formar uma base de conhecimento para tratarmos do problema em quest˜ao que ´e elabora¸c˜ao do algoritmo FDA-NCP bem como seus resultados de convergˆencia.

1.1.1

Conceitos b´

asicos para problemas de otimiza¸c˜

ao

Seja, um problema de otimiza¸c˜ao n˜ao linear: min f (x)

Sujeito a: gi(x) ≤ 0 ; i = 1, 2, ..., m e hi(x) = 0 ; i = 1, 2, ..., p,

(1.1)

onde temos f : IRn → IR, g : IRn → IRm e h : IRn → IRp s˜ao fun¸c˜oes suaves em IRn e pelo menos uma destas fun¸c˜oes ´e n˜ao-linear. Uma restri¸c˜ao de desigualdade ´e dita “ativa”se gi(x) = 0 e Inativa se gi(x) < 0. Denotamos

g(x) = [g1(x), g2(x), ..., gm(x)]t e h(x) = [h1(x), h2(x), ..., hp(x)]t, assim nos temos min f (x)

Sujeito a: g(x) ≤ 0

e h(x) = 0.

(1.2)

Veremos agora algumas defini¸c˜oes dirigidas ao problema de otimiza¸c˜ao n˜ao linear 1.2.

Defini¸c˜ao 1.1.1 Um ponto x∗ ∈ Ω ⊂ IRn ´e dito M´ınimo Local (ou M´ınimo

Relativo) de f sobre Ω se existe uma vizinhan¸ca V ≡ {x ∈ Ω / kx − x∗k ≤ δ}

tal que f (x) ≥ f (x∗) para qualquer x ∈ V . Se f (x) > f (x) para todo x ∈ V ,

x 6= x∗, ent˜ao dizemos que x ´e um M´ınimo Local Estrito.

Defini¸c˜ao 1.1.2 Um ponto x∗ ∈ Ω ⊂ IRn ´e dito M´ınimo Global (ou M´ınimo

Absoluto) de f sobre Ω se f (x) ≥ f (x∗) para qualquer x ∈ Ω. Se f (x) > f (x)

(12)

A maioria dos m´etodos de Programa¸c˜ao N˜ao Linear (PNL) s˜ao iterativos. Dado um ponto inicial x0, uma seq¨uencia de pontos, {xk}, ´e obtida por repetidas aplica¸c˜oes de uma regra algoritmica. Esta seq¨uˆencia deve convergir a uma solu¸c˜ao x∗ do problema. A convergˆencia ´e dita assint´otica quando a solu¸c˜ao n˜ao ´e atingida antes de um numero finito de itera¸c˜oes.

Defini¸c˜ao 1.1.3 Um algoritmo iterativo ´e dito ser globalmente convergente se para

qualquer ponto inicial x0 ∈ IRn (ou x0 ∈ Ω) este gera uma seq¨uencia de pontos que

converge a uma solu¸c˜ao do problema.

Defini¸c˜ao 1.1.4 Um algoritmo iterativo ´e dito ser localmente convergente se existe

² > 0 tal que para qualquer ponto inicial x0 ∈ IRn (ou x0 ∈ Ω) que verifica

kx0−xk ≤ ², a seq¨uˆencia gerada de pontos converge para uma solu¸c˜ao do problema. Agora segue uma defini¸c˜ao que introduz um crit´erio para medir a velocidade de convergˆencia de m´etodos iterativos com convergˆencia assint´otica.

Defini¸c˜ao 1.1.5 A ordem de convergˆencia de uma seq¨uˆencia {xk} → x ´e o maior

numero p dos n´umeros n˜ao negativos ρ que satisfazem:

lim sup k→∞

kxk+1− xk

kxk− xkρ = β < ∞.

Quando p = 1 nos dizemos que a Convergˆencia ´e q-Linear com Raio de Convergˆencia β < 1. Se β = 0 a convergˆencia ´e dita Superlinear. A convergˆencia ´e Quadr´atica quando p = 2.

A rela¸c˜ao entre o limite de k → ∞, p e β ´e uma forma de medir a velocidade assint´otica da convergˆencia. Uma seq¨uˆencia pode ter uma boa ordem de convergˆencia mas ir muito “devagar”para a solu¸c˜ao. A convergˆencia ´e r´apida quando p ´e grande e β ´e pequeno.

Nas provas de convergˆencia, usaremos quando conveniente as seguintes nota¸c˜oes

(13)

Dado uma fun¸c˜ao h : IRn → IRm, usamos a express˜ao O(h(x)) para representar as fun¸c˜oes g : IRn→ IRm que satisfazem

lim kx||→0

kg(x)k

kh(x)k < ∞. (1.3)

E a express˜ao o(h(x)) para representar as fun¸c˜oes g : IRn→ IRm que satisfazem lim

kx||→0

kg(x)k

kh(x)k = 0. (1.4)

A gera¸c˜ao de pontos de uma seq¨uˆencia ´e dada por uma regra algoritmica. Por exemplo, dado um ponto inicial, determinamos uma dire¸c˜ao de busca para determinar o pr´oximo ponto e assim sucessivamente. Para isso veremos algumas defini¸c˜oes sobre dire¸c˜oes.

Defini¸c˜ao 1.1.6 Um vetor d ∈ IRn ´e uma dire¸c˜ao de descida para uma fun¸c˜ao real

f em x ∈ IRn se existe um δ > 0 tal que f (x + td) < f (x) para qualquer t ∈ (0, δ).

No caso de f ser diferenci´avel em x e dt∇f (x) < 0 ent˜ao d ´e uma dire¸c˜ao de descida para f em x.

Defini¸c˜ao 1.1.7 Um vetor d ∈ IRn ´e uma dire¸c˜ao de vi´avel de um problema PNL

1.2, em x ∈ Ω = {x ∈ IRn/ g(x) ≤ 0}, se para algum θ > 0 nos temos x + td ∈ Ω para todo t ∈ [0, θ].

´

E claro que qualquer dire¸c˜ao d em um ponto interior a Ω ´e uma dire¸c˜ao vi´avel. Defini¸c˜ao 1.1.8 Um campo vetorial d(.) definido em Ω ´e dito ser um campo

uniforme de dire¸c˜oes de vi´aveis do problema PNL 1.2, em Ω = {x ∈ IRn/ g(x) ≤ 0}, se existe um τ > 0 tal que x + td(x) ∈ Ω para todo t ∈ [0, τ ] e para todo x ∈ Ω.

1.1.2

Buscas lineares inexatas

(14)

Defini¸c˜ao 1.1.9 (Busca de Armijo) Dada uma fun¸c˜ao potencial f , definimos

o tamanho do passo t como sendo o primeiro numero inteiro da seq¨uˆencia {1, ν, ν2, ν3, ...} satisfazendo

f (x + td) ≤ f (x) + tη∇f (x)Td,

onde η ∈ (0, 1) e ν ∈ (0, 1) s˜ao parˆametros dados.

O crit´erio da busca linear inexata de Wolfe tamb´em estabelece limites no tamanho do passo, pedindo uma redu¸c˜ao na fun¸c˜ao potencial e ao mesmo tempo uma redu¸c˜ao em sua derivada direcional.

Defini¸c˜ao 1.1.10 (Busca de Wolfe) Dada uma fun¸c˜ao potencial f , o passo t ´e

aceito se verificar:

sendo o primeiro numero inteiro da seq¨uˆencia {1, ν, ν2, ν3, ...}, satisfazendo

f (x + td) ≤ f (x) + tη1∇ft(x)d,

onde ν ∈ (0, 1), η1 ∈ (0,12) , η2 ∈ (η1, 1) s˜ao parˆametros dados e verificando

∇ft(x + td)d ≥ η

2∇f (x)Td.

1.1.3

Condi¸c˜

oes de otimalidade

O seguinte resultado nos d´a uma interpreta¸c˜ao geom´etrica da condi¸c˜oes de otimalidade de uma grande classe de Problemas.

Teorema 1.1.1 Condi¸c˜ao necessaria Primeira e Segunda Ordem.

Se x∗ ∈ Ω ´e um m´ınimo local de f sobre Ω ent˜ao, para qualquer dire¸c˜ao vi´avel

d ∈ IRn, satisfaz: i) dt∇f (x) ≥ 0

ii) se dt∇f (x) = 0, ent˜ao dt2f (x)d ≥ 0.

Se Ω = IRn, temos um problema de Otimiza¸c˜ao sem Restri¸c˜ao,

(15)

do teorema 1.1.1 e como toda dire¸c˜ao n˜ao nula d ∈ IRn ´e uma dire¸c˜ao vi´avel temos o seguinte teorema:

Teorema 1.1.2 Condi¸c˜ao necessaria Primeira e Segunda Ordem.

Se x∗ ´e um m´ınimo local de f sobre IRn ent˜ao:

i) ∇f (x∗) = 0

ii) para todo d ∈ IRn, dt2f (x)d ≥ 0. Isto ´e, ∇2f (x) ´e semi definida positiva. A condi¸c˜ao suficiente de otimalidade local o problema de Otimiza¸c˜ao sem Restri¸c˜ao 1.5.

Teorema 1.1.3 Condi¸c˜ao suficiente de otimalidade.

Seja f uma fun¸c˜ao escalar duas vezes continuamente diferenci´avel em IRn e x∗ tal

que:

i) ∇f (x∗) = 0

ii) ∇2f (x) ´e definida positiva.

Ent˜ao, x∗ ´e um ponto de m´ınimo local estrito de f .

As condi¸c˜oes de otimalidade para o problema de Otimiza¸c˜ao com Restri¸c˜ao 1.2.

Defini¸c˜ao 1.1.11 Um ponto x ∈ Ω ´e um ponto regular das restri¸c˜oes do problema

1.2 se os vetores ∇hi(x), para i = 1, 2, ...p, e ∇gi(x) para i ∈ I(x) s˜ao linearmente

independente. (I(x) ≡ {i / gi(x) = 0} ´e chamado de Conjuntos das restri¸c˜oes Ativas

em x.)

Defini¸c˜ao 1.1.12 (Espa¸co Tangente) Para o conjunto dos pontos regulares, x ∈ Ω,

definido em 1.1.11 o espa¸co tangente se expressa como:

T (x) = {d|∇gi(x)Td = 0 ∀ i ∈ I(x), ∇hi(x)Td = 0, ∀ i ∈ {1, 2, ..., p}}.

Nos vamos introduzir agora as vari´aveis auxiliares λ ∈ IRm e µ ∈ IRp, chamadas de Vari´aveis Duais ou Multiplicadores de Lagrange e definimos a fun¸c˜ao Lagrangeana associada com o problema 1.2 como

(16)

Teorema 1.1.4 Karush-Kuhn-Tucker (KKT) Condi¸c˜ao Necessaria de Primeira

Ordem.

Seja x∗ um ponto regular das restri¸c˜oes g(x) ≤ 0 e h(x) = 0, um M´ınimo Local do

problema 1.2. Ent˜ao, existe um vetor λ∗ ∈ IRm e um vetor µ ∈ IRp tal que

∇f (x∗) + ∇g(x+ ∇h(x = 0 (1.7)

G(x∗ = 0 (1.8)

h(x∗) = 0 (1.9)

g(x∗) ≤ 0 (1.10)

λ∗ ≥ 0 (1.11)

onde G(x∗) ´e uma matriz diagonal.

Teorema 1.1.5 Condi¸c˜ao Necessaria de Segunda Ordem.

Seja x∗ um ponto regular das restri¸c˜oes g(x) ≤ 0 e h(x) = 0, um M´ınimo Local

do problema 1.2. Ent˜ao, existe um vetor λ∗ ∈ IRm e um vetor µ ∈ IRp tal que as

condi¸c˜oes (1.7-1.11) ´e satisfeita e a matriz H(x∗, λ, µ) = ∇2f (x) +Xm i=1 λ∗ i∇2gi(x∗) + p X i=1 µ∗ i∇2hi(x∗) (1.12)

´e semi definida positiva no espa¸co do plano tangente T (x).

Teorema 1.1.6 Condi¸c˜ao Suficiente de Segunda Ordem.

Seja x∗, um ponto satisfazendo g(x) ≤ 0 e h(x) = 0. Existe um vetor λ ∈ IRm,

λ∗ ≥ 0 e um vetor µ ∈ IRp tal que

∇f (x∗) + ∇g(x+ ∇h(x = 0 (1.13)

G(x∗ = 0 (1.14)

e H(x∗, λ, µ) ´e definida positiva no espa¸co tangente T (x). Ent˜ao x ´e um M´ınimo

Local Estrito do problema 1.2.

1.1.4

O m´

etodo de Newton para equa¸c˜

oes

O m´etodo de Newton cl´assico ´e introduzido para resolver sistemas n˜ao lineares do tipo

(17)

onde T : IRn → IRn ´e diferenci´avel. Este m´etodo ´e muito utilizado em algoritmos de Programa¸c˜ao Matem´atica. Para o m´etodo de Newton cl´assico ´e comum pedir as seguintes suposi¸c˜oes:

Suposi¸c˜ao 1.1.1 Existe z∗ ∈ IRn tal que T (z) = 0.

Suposi¸c˜ao 1.1.2 A matriz jacobiana T0(z) ´e n˜ao singular.

Suposi¸c˜ao 1.1.3 O operador jacobiano T0 ´e continuo e localmente Lipschitz em x. Assim, determinar uma seq¨uˆencia {zk} que se aproxima de alguma solu¸c˜ao z do sistema (1.15) utilizamos a aproxima¸c˜ao linear

T (zk) + T0(zk)(z − zk) = 0.

A rela¸c˜ao acima chama-se a equa¸c˜ao de itera¸c˜ao do m´etodo de Newton. O m´etodo de Newton pode ser escrito em forma do esquema iterativo

zk+1= zk− (T0(zk))−1T (zk), k = 0, 1, 2, ... (1.16) Desta forma ´e de se esperar que a seq¨uˆencia de pontos gerada acima se aproxima de uma solu¸c˜ao do sistema (1.15). E quando isso ocorre podemos esperar uma convergˆencia r´apida. ´E o diz no pr´oximo resultado. Iremos assumir que T (z) ´e diferenci´avel e as suposi¸c˜oes 1.1.1-1.1.3.

Teorema 1.1.7 Dado z0 ∈ IRn suficientemente pr´oximo de z, o Algoritmo definido

por (1.16) gera uma seq¨uˆencia {zk} bem definida que converge a z. A taxa de

convergˆencia ´e quadr´atica.

(18)

1.1.5

Problema de Complementaridade

Defini¸c˜ao 1.1.13 Seja F : D ⊆ IRn → IRn uma fun¸c˜ao vetorial. O problema de complementaridade ´e:

Encontrar x ∈ IRn tal que

x ≥ 0, F (x) ≥ 0 e x • F (x) = 0 (1.17)

onde x ≥ 0 ⇔ xi ≥ 0 para todo 1 ≤ i ≤ n , F (x) ≥ 0 ⇔ Fi(x) ≥ 0 para todo 1 ≤ i ≤ n e x • F (x) =      x1F1(x) ... xnFn(x)    

´e o produto de Hadamard.

Quando F ´e uma fun¸c˜ao afim (F (x) = Ax + b , A ∈ IRn×n e b ∈ IRn), temos um Problema de Complementaridade Linear (PCL), caso contr´ario temos um Problema de Complementaridade N˜ao-Linear(PCN).

Vamos definir conjunto de pontos vi´aveis para o problema 1.1.13 e solu¸c˜ao n˜ao degenerada.

Defini¸c˜ao 1.1.14 Seja Ω ⊂ IRn. Chamaremos de conjunto de pontos vi´aveis do problema de complementaridade dado por F o seguinte conjunto:

Ω := {x ∈ IRn|x ≥ 0 , F (x) ≥ 0}. (1.18)

Defini¸c˜ao 1.1.15 Se x ∈ Ω e verifica as seguintes condi¸c˜oes x > 0 e F (x) > 0 ent˜ao diremos que este ponto ´e estritamente vi´avel para o problema de

complementaridade. E denotaremos o conjunto dos pontos estritamente vi´aveis por

Ω0.

Defini¸c˜ao 1.1.16 Uma solu¸c˜ao de 1.1.13 ´e dita solu¸c˜ao degenerada se para algum

´ındice i, xi = 0 e Fi(x) = 0.

Defini¸c˜ao 1.1.17 Uma solu¸c˜ao de 1.1.13 ´e dita solu¸c˜ao n˜ao degenerada se para

(19)

Vamos introduzir os seguintes conjuntos de indices para um dado x ∈ Ω:

K = {i |xi = 0 e Fi(x) > 0}, (1.19)

J = {i |xi > 0 e Fi(x) = 0}, (1.20)

L = {i |xi > 0 e Fi(x) > 0}, (1.21)

I0 = {i |xi = 0 e Fi(x) = 0}. (1.22) Um Problema de Complementaridade que vem agregado com uma restri¸c˜ao de igualdade ´e chamado de Problema de Complementaridade Mista e tem a seguinte defini¸c˜ao.

Defini¸c˜ao 1.1.18 Sejam F : D ⊆ IRn → IRn× IRm e Q : D ⊆ IRm → IRn× IRm

fun¸c˜oes vetoriais. O Problema de Complementaridade Mista ´e: Encontrar (x, y) ∈ IRn× IRm tal que

x ≥ 0, F (x, y) ≥ 0 e      x • F (x, y) = 0 Q(x, y) = 0 (1.23)

E da mesma forma como definimos para o caso de complementaridade temos: Conjunto de pontos vi´aveis com respeito as restri¸c˜oes x e F (x, y).

Ω := {(x, y) ∈ IRn× IRm|x ≥ 0 e F (x, y) ≥ 0}. Conjunto de pontos estritamente vi´aveis

Ω0 := {(x, y) ∈ IRn× IRm|x > 0 e F (x, y) > 0}.

Defini¸c˜ao 1.1.19 Uma solu¸c˜ao de 1.23 ´e dita solu¸c˜ao degenerada se para algum

´ındice i, xi = 0 e Fi(x, y) = 0.

Defini¸c˜ao 1.1.20 Uma solu¸c˜ao de 1.23 ´e dita solu¸c˜ao n˜ao degenerada se para todo

´ındice i, xi+ Fi(x, y) 6= 0.

(20)

problema. Alguns destes m´etodos e pesquisadores que trabalharam neles:

M´etodo baseado em Problema de Minimiza¸c˜ao sem restri¸c˜oes, podemos destacar aqui Mangasarian e Solodov, [40], Yamashita e Fukushima, [62], Geiger e Kanzow, [20], Kanzow, [31].

M´etodo baseado em Sistemas de Equa¸c˜oes. Mangasarian foi quem propˆos pela primeira vez em seu artigo, [39], a resolu¸c˜ao de um problema de Complementaridade como a resolu¸c˜ao de um sistema de equa¸c˜ao associado ao problema de complementaridade. Outros autores que tamb´em trabalharam nessa linha: Subramanian, [54], Kanzow, [30], C. Chen e O. L. Mangasarian, [6].

M´etodo de Suaviza¸c˜ao, esta t´ecnica ´e tanto aplic´avel ao primeiro caso quanto ao segundo caso, pois a id´eia aqui ´e trazer a regularidade requerida para aplicar o m´etodo em quest˜ao. Destacamos os autores M. C. Ferris e C. Kanzow, [16], S. J. Wright, [59], C. Chen e O. L. Mangasarian, [6].

M´etodo de Ponto Interior, ´e utilizado uma vari´avel de folga para definir a regi˜ao IR2n+ como a regi˜ao vi´avel para o problema de complementaridade com respeito a essa nova vari´avel. Esta t´ecnica ´e muito empregada para os casos de complementaridade linear. Podemos citar aqui os trabalhos de M. C. Ferris e C. Kanzow, [16], S. J. Wright, [59], P. Tseng , [[58], [57]].

(21)

Cap´ıtulo 2

etodos para Resolu¸c˜

ao de

Problemas de Complementaridade

Vamos comentar sobre alguns m´etodos num´ericos existentes para a resolu¸c˜ao de problemas de complementaridade. Nas d´ecadas de 60’s e inicio de 70’s utilizava-se muito o artif´ıcio de reescrever os problemas de complementaridade como um problema de minimiza¸c˜ao sem restri¸c˜oes em IRn, para isto usavam as fun¸c˜oes especiais chamadas de Fun¸c˜oes de M´erito. Uma vez que o problema de complementaridade foi reescrito como um problema de minimiza¸c˜ao sem restri¸c˜oes utiliza-se t´ecnicas para resolver numericamente estes problemas de minimiza¸c˜ao. No ano de 1976 O.L. Mangasarian apresentou a equivalˆencia do Problema de Complementaridade com a resolu¸c˜ao de Sistema N˜ao Linear em IRn, [39]. A partir dai foram desenvolvidos v´arios algoritmos baseados na resolu¸c˜ao de sistemas n˜ao lineares de equa¸c˜oes. Nesta t´ecnica utiliza-se uma classe de fun¸c˜oes conhecida como Fun¸c˜oes-NCP que permitem estabelecer esta equivalˆencia.

Nos final dos anos 70’s em diante os m´etodos baseados na resolu¸c˜ao de sistemas de equa¸c˜oes foram melhorados com t´ecnicas n˜ao diferenci´aveis pois justamente as Fun¸c˜oes-NCP utilizadas n˜ao tinham a suavidade requerida pelo m´etodo de Newton. Tamb´em nesta mesma ´epoca surgiram t´ecnicas que utilizam vari´aveis de folga na restri¸c˜ao F (x) ≥ 0 transformando-a em uma restri¸c˜ao de igualdade e reescrevendo assim o problema de complementaridade em um grande sistema de equa¸c˜oes em IR2n

(22)

Do teorema de Ponto Fixo de Banach temos a t´ecnica de proje¸c˜ao que projeta um vetor v de IRn em IRn

+.

2.1

etodo

baseado

em

Problemas

de

Minimiza¸c˜

ao - Fun¸c˜

oes de M´

erito

A id´eia deste m´etodo ´e transformar um problema de complementaridade em um problema de minimiza¸c˜ao sem restri¸c˜ao. Vamos definir as propriedades que uma determinada fun¸c˜ao tem que satisfazer para que possamos reescrever o problema de complementaridade.

Defini¸c˜ao 2.1.1 Uma fun¸c˜ao φ(x) : IRn→IR ´e chamada fun¸c˜ao de m´erito para um problema de complementaridade se satisfaz:

a) φ(x) ≥ 0 para todo x ∈ IRn;

b) φ(x) = 0 se e somente se x ´e uma solu¸c˜ao do Problema de Complementaridade 1.1.13.

Assim, podemos transformar o Problema de Complementaridade 1.1.13 em um problema de minimiza¸c˜ao sem restri¸c˜oes do tipo

min

x∈IRnφ(x). (1.1)

Para aplicarmos as t´ecnicas usuais de otimiza¸c˜ao a este problema de minimiza¸c˜ao, a fun¸c˜ao de m´erito ter´a que satisfazer determinadas hip´oteses de regularidade. Por exemplo, se utilizarmos algoritmos baseados na diferenciabilidade da fun¸c˜ao potencial devemos pedir que φ seja pelo menos uma vez continuamente diferenci´avel e se poss´ıvel at´e duas vezes continuamente diferenci´avel. Alguns exemplos de fun¸c˜oes de m´eritos.

• Fun¸c˜ao Lagrangiana Impl´ıcita [40]. φ(x) := n X i=1 {xiFi(x)+ 1 2α(max{0, xi−αFi(x)} 2−x2

(23)

• Fun¸c˜ao m´erito de Fischer-Burmeister [14]. φ(x) := 1 2 n X i=1 ( q x2 i + Fi(x)2− xi− Fi(x))2.

• Fun¸c˜ao m´erito penalizada de Fischer-Burmeister [5]. φ(x) := 1 2 n X i=1 {λ(qx2 i + Fi(x)2−xi−Fi(x))2+(1−λ) max{0, xi}2max{0, Fi(x)}2}). onde, λ ∈ (0, 1) ´e um parˆametro fixo.

As fun¸c˜oes de m´erito apresentadas s˜ao uma vez continuamente diferenci´avel em IRn. Portanto n˜ao ´e aconselh´avel minimizar diretamente estas fun¸c˜oes de m´erito com algoritmos cl´assicos para problemas de otimiza¸c˜ao diferenci´aveis. Apesar disto, as fun¸c˜oes de m´erito s˜ao freq¨uentemente usadas para monitorar a convergˆencia global de diversos algoritmos. A maioria dos algoritmos de otimiza¸c˜ao garantem que os pontos limite da seq¨uˆencia gerada por eles s˜ao pontos estacion´ario de φ(x) satisfazendo ∇φ(x) = 0.

2.2

etodo baseado em Sistemas de Equa¸c˜

oes

-Fun¸c˜

ao-NCP

A id´eia de reformular um problema de complementaridade como um sistema de equa¸c˜oes foi proposta por Mangasarian [39]. Ele utilizou uma classe de fun¸c˜oes chamada de Fun¸c˜oes-NCP que tem a seguinte propriedade.

Defini¸c˜ao 2.2.1 Uma fun¸c˜ao ψ : IR2 → IR ´e chamada de Fun¸c˜ao-NCP para um problema de complementaridade se satisfaz a condi¸c˜ao:

ψ(a, b) = 0 ⇔ a ≥ 0, b ≥ 0 e ab = 0

Alguns exemplos de Fun¸c˜oes-NCP.

(24)

• ψm(a, b) = min(a, b), Fun¸c˜ao Res´ıduo natural.

• ψF B(a, b) = a + b −

a2+ b2, Fun¸c˜ao Fischer-Burmeister.

• ψR(a, b) = −ab + 1

2min2(0, a + b), Fun¸c˜ao “min”.

Das Fun¸c˜oes-NCP acima somente a primeira e a quarta s˜ao continuamente diferenci´aveis em IR2. A terceira ´e diferenci´avel em IRn\ {(0, 0)}.

Para uma dada Fun¸c˜ao-NCP ψ, definimos um operador Ψ : IRn → IRn como o sistema de equa¸c˜oes associado a ele da seguinte forma:

Ψ(x) :=             ψ(x1, F1(x)) . . . ψ(xn, Fn(x))             , Ψ(x) = 0 (2.1) ´

E claro que para cada Fun¸c˜ao-NCP, existe a fun¸c˜ao de m´erito natural dada por:

φ(x) = 1 2Ψ(x) t.Ψ(x) = 1 2 n X i=1 Ψ2i(x)

Chamaremos Ψ de operador das equa¸c˜oes correspondente ao problema de complementaridade 1.1.13. Como conseq¨uˆencia da defini¸c˜ao 2.2.1 obtemos a seguinte caracteriza¸c˜ao do problema de complementaridade:

Sejam ψ uma Fun¸c˜ao-NCP e Ψ seu operador de equa¸c˜oes correspondente. Ent˜ao

x ´e uma solu¸c˜ao do problema de complementaridade 1.1.13 se e somente se ´e uma

solu¸c˜ao do sistema de equa¸c˜oes 2.1.

Se F (x) e ψ(a, b) s˜ao fun¸c˜oes continuamente diferenci´aveis, ent˜ao o operador Ψ tamb´em ´e. Neste caso, n´os podemos aplicar o m´etodo cl´assico de Newton para achar

x que verifica Ψ(x) = 0 e assim resolver o problema de complementaridade. Isto nos

leva a itera¸c˜oes do tipo

xk+1 := xk− [∇Ψ(xk)]−1Ψ(xk), k = 0, 1, 2, ... onde Ψ(xk)]−1 ´e a matriz jacobiana de Ψ(xk).

(25)

Proposi¸c˜ao 2.2.1 Sejam F (x) e ψ(a, b) fun¸c˜oes diferenci´aveis, seja Ψ(x) o

operador de equa¸c˜oes correspondente. Se x∗ ´e uma solu¸c˜ao degenerada do problema

de complementaridade 1.1.13 ent˜ao a Jacobiana ∇Ψ(x∗) ´e singular.

Nos casos em que ∇Ψ(x) n˜ao existe, podemos utilizar m´etodos para fun¸c˜oes n˜ao diferenci´aveis e neste caso normalmente pede-se que Ψ(x) seja no m´ınimo localmente lipschitziana, pois assim, Ψ(x) ser´a diferenci´avel em quase todo ponto.

Denotaremos de DΨ ao conjunto de pontos onde Ψ(x) ´e diferenci´avel. Ent˜ao

definimos o que chamamos de B-subdiferencial,

∂BΨ(x) := {H ∈ IRn×n|∃{xk} ⊆ DΨ : xk → x e ∇Ψ(xk) → H}

bem como seu fecho convexo

∂Ψ(x) := conv{∂BΨ(x)}

que ´e chamado jacobiano generalizado, [9]. Elementos de ∂BΨ(x) e ∂Ψ(x) podem ser usados no lugar da jacobiana cl´assica ∇Ψ(x) (que em algumas situa¸c˜oes n˜ao existe). Um m´etodo de Newton n˜ao suave t´ıpico consiste em realizar as seguintes itera¸c˜oes:

xk+1 = xk− Hk−1Ψ(xk), k = 0, 1, 2, ..., onde Hk ´e um elemento arbitr´ario de ∂BΨ(xk), n˜ao singular. Dois pontos importantes deste m´etodo s˜ao:

1) O c´alculo de um elemento do B-subdiferencial. Por isso ´e interessante utilizarmos determinados operadores Ψ, que seja f´acil o c´alculo de um elemento de seu B-subdiferencial, Hk∈ ∂BΨ(x).

2) Devemos ainda considerar o fato que este elemento Hk seja n˜ao singular.

Quando se utiliza a Func˜ao-NCP de Fischer-Burmeister, resultados com respeito a 1) e 2) podem ser visto em Houyuan Jiang e Liqun Qi [28], [51] e T. De Luca, F. Facchinei, C. Kanzow [38]. Em suma se consegue o seguinte resultado:

(26)

Nos casos dos problemas de complementaridade mon´otona pode-se mostrar a convergˆencia global destes m´etodos. Para isso, inclu´ımos uma busca linear tomando como dire¸c˜ao de busca o vetor

dk := −Hk−1Ψ(xk)

e como fun¸c˜ao potencial a fun¸c˜ao de m´erito natural correspondente. Assim executa-se uma busca linear ao longo desta dire¸c˜ao pedindo o decrescimento da fun¸c˜ao potencial ([38] , [19] , [49] , [50]).

2.2.1

etodo de Suaviza¸c˜

ao

Os m´etodos de suaviza¸c˜ao para problemas de complementaridade basicamente fazem uma aproxima¸c˜ao da Fun¸c˜ao-NCP n˜ao diferenci´avel ψ(a, b) por uma seq¨uˆencia de fun¸c˜oes diferenci´aveis ψµ(a, b) que depende de um parˆametro de suavidade µ > 0. Por exemplo, uma possibilidade de aproxima¸c˜ao da fun¸c˜ao de Fischer-Burmeister ´e:

ψµ(a, b) :=

q

a2+ b2+ 2µ − (a + b) (2.2)

Usando t´ecnicas similares, ´e poss´ıvel suavizar a maioria das Fun¸c˜oes-NCP conhecidas. Uma vez conhecida tal aproxima¸c˜ao suave ψµ, podemos definir o operador de equa¸c˜oes correspondente

Ψµ(x) :=             ψµ(x1, F1(x)) . . . ψµ(xn, Fn(x))             (2.3)

A aproxima¸c˜ao Ψµ de Ψ ser´a suave se a pr´opria F (x) for suave.

A id´eia principal de qualquer m´etodo de suaviza¸c˜ao ´e aplicar o m´etodo de Newton cl´assico para o sistema de equa¸c˜oes n˜ao lineares Ψµ(x) = 0 e fazer com que o parˆametro µ de suavidade tenda a zero. Uma forma de fazer isso ´e indexar o valor de µ `a itera¸c˜ao k atrav´es de µk. Assim, uma itera¸c˜ao do m´etodo de suaviza¸c˜ao ´e dada pela express˜ao

(27)

Um ponto delicado para todo m´etodo de suaviza¸c˜ao ´e o modo que o parˆametro de suavidade µk ´e escolhido a cada itera¸c˜ao. Se isto ´e feito de um modo apropriado, ´e poss´ıvel provar resultados de convergˆencia global para problemas mon´otonos. (Ver, [7])

2.3

etodo de Ponto Interior

Uma descri¸c˜ao de um algoritmo de pontos interiores para problemas de complementaridade pode ser vista no livro “Primal-Dual interior-Point Methods”, [59].

O problema de complementaridade 1.1.13 ´e reescrito da seguinte forma: Dados x e y ∈ IRn temos

F (x) − y = 0, x ≥ 0 , y ≥ 0 e x • y = 0 (3.1)

onde F (x) ´e uma fun¸c˜ao mon´otona associada ao problema de complementaridade 1.1.13. Ent˜ao

“(x, y) ´e uma solu¸c˜ao do problema (3.1) ⇔ x ´e uma solu¸c˜ao de 1.1.13.” Dado o seguinte sistema com as restri¸c˜oes x ≥ 0 e y ≥ 0:

S(x, y) =  F (x) − y y • x  = 0.

Uma itera¸c˜ao ´e definida pela resolu¸c˜ao do sistema abaixo:

 ∇F (x) −Id Y X  .  ∆x ∆y  =   y − F (x) −y • x + µE  ,

onde Id ´e a matriz identidade de ordem n, X = diag(x), Y = diag(y), E = [1, ...1] um vetor coluna e µ = xTny.

(28)

2.4

etodo tipo Proje¸c˜

ao

Os m´etodos tipo proje¸c˜ao s˜ao baseados na seguinte proposi¸c˜ao.

Proposi¸c˜ao 2.4.1 Um vetor x∗ ´e uma solu¸c˜ao de 1.1.13 se e somente se x satisfaz

a equa¸c˜ao

x = (x − λF (x))+,

onde λ > 0 ´e uma constante arbitraria e z+ denota a proje¸c˜ao Euclidiana de um

vetor z ∈ IRn sobre IRn

+.

Os m´etodos tipo proje¸c˜ao consistem em realizar a seguinte itera¸c˜ao

xk+1 := (xk− λF (xk))

+, k = 0, 1, 2, ...

onde x0 ∈ IRn

+ ´e um dado ponto inicial [1].

Usando o Teorema de ponto fixo de Banach, se F for fortemente mon´otona, globalmente Lispschitz e λ > 0 seja suficientemente pequeno, pode-se mostrar que este m´etodo possui convergˆencia global, al´em disso, a taxa de convergˆencia ´e linear. Algumas modifica¸c˜oes neste m´etodo de proje¸c˜oes permitem obter resultados de convergˆencia global. Por exemplo, o m´etodo Extragradiente ([36] e [33]) gera itera¸c˜oes usando a f´ormula

xk+1 := (xk− λF ((xk− λF (xk))

+)+, k = 0, 1, 2, ...

Para o m´etodo Extragradiente pode-se mostrar a convergˆencia global se F for mon´otona e globalmente Lispschitz desde que λ > 0 seja suficientemente pequeno. O valor de λ suficientemente pequeno que garanta a convergˆencia global n˜ao pode ser conhecido a priori. Isto implica que devemos escolher λ dinamicamente para conseguir resultados satisfat´orios nos m´etodos de proje¸c˜ao.([52],[53],[55]).

(29)

Cap´ıtulo 3

Um Algoritmo de Ponto Interior

Vi´

avel para NCP

3.1

Id´

eias B´

asicas

Neste capitulo apresentaremos um algoritmo ponto interior para problemas de complementaridade. Este algoritmo gera uma seq¨uˆencia de pontos que satisfaz as desigualdades do problema de complementaridade 1.1.13. Relembrando da defini¸c˜ao do Problema de Complementaridade 1.1.13.

Determinar x ∈ IRn tal que x ≥ 0 , F (x) ≥ 0 e x • F (x) = 0 onde

x • F (x) =             x1F1(x) . . . xnFn(x)             =             0 . . . 0             (1.1)

(30)

Considere o seguinte sistema: H(x) =             x1F1(x) . . . xnFn(x)             = 0 (1.2) ´

E claro que toda solu¸c˜ao do problema de complementaridade 1.1.13 ´e uma solu¸c˜ao do sistema de equa¸c˜oes (1.2). Mas infelizmente n˜ao podemos afirmar que toda solu¸c˜ao do sistema (1.2) seja uma solu¸c˜ao do problema de complementaridade 1.1.13. Por outro lado, se restringirmos a resolu¸c˜ao do sistema (1.2) na regi˜ao de pontos vi´aveis Ω = {x ∈ IRn | x ≥ 0 e F (x) ≥ 0} podemos afirmar que uma solu¸c˜ao deste sistema

em Ω ´e uma solu¸c˜ao do problema de complementaridade 1.1.13. Assim, temos que desenvolver um algoritmo que gere uma seq¨uˆencia de pontos em Ω e convirja para a solu¸c˜ao do sistema (1.2) e portanto convergir´a para uma solu¸c˜ao do problema de complementaridade 1.1.13.

Para gerar esta seq¨uˆencia utilizaremos uma itera¸c˜ao de Newton no sistema 1.2 mas veremos que isso n˜ao ser´a suficiente para garantir que a seq¨uˆencia gerada esta contida em Ω. Antes de come¸carmos a constru¸c˜ao do algoritmo veremos algumas nota¸c˜oes que auxiliaram no decorrer do texto.

O Gradiente de H(x) ´e dado por

∇H(x) = DF (x)+ Dx∇F (x) (1.3)

onde DF (x)e Dx s˜ao matrizes diagonais, [DF (x)](i,i) = Fi(x) , [Dx](i,i)= xi para todo 1 ≤ i ≤ n e a matriz jacobiana de F (x) ´e

∇F (x) =          ∂F1(x) ∂x1 ∂F1(x) ∂x2 . . . ∂F1(x) ∂xn ∂F2(x) ∂x1 ∂F2(x) ∂x2 . . . ∂F2(x) ∂xn . . . . . . ∂Fn(x) ∂x1 ∂Fn(x) ∂x2 . . . ∂Fn(x) ∂xn          .

Observe que a i-´esima linha de ∇H(x) e definida por

(31)

onde ei ´e um vetor (linha) unit´ario com 1 na i-´esima coordenada e ∇Fi(x) ´e um vetor linha.

Portando, dado um ponto xk em Ω, que n˜ao seja solu¸c˜ao de (1.2), pela itera¸c˜ao de Newton em H(x) = 0 temos

∇H(xk)dk

1 = −H(xk) (1.5)

Para que o sistema (1.5) esteja bem definido vamos supor que ∇H(xk) seja n˜ao singular em xk. Ent˜ao, se para algum ´ındice i ∈ 1, 2, ..., n ocorrer que H

i(xk) = 0 sem que seja solu¸c˜ao do problema de complementaridade, teremos a seguinte situa¸c˜ao. Seja a i-´esima linha do sistema (1.5) onde ocorre Hi(xk) = 0,

(Fi(xk)ei+ xik∇Fi(xk))dk1 = 0,

pela n˜ao singularidade da matriz ∇H(xk) temos duas possibilidades: (1) xk

i = 0 e Fi(xk) > 0 isso implica que dk1 ´e tangente a restri¸c˜ao xi ≥ 0. (2) Fi(xk) = 0 e xki > 0 isso implica que dk1 ´e tangente a restri¸c˜ao Fi(x) ≥ 0. E em ambos os casos n˜ao temos garantido a viabilidade da dire¸c˜ao dk

1 em Ω.

A proposi¸c˜ao abaixo nos fornece as condi¸c˜oes para que uma dire¸c˜ao d ∈ IRntem que satisfazer para ser uma dire¸c˜ao vi´avel em Ω.

Proposi¸c˜ao 3.1.1 Seja d ∈ IRn e x ∈ Ω. Se a dire¸c˜ao d satisfaz as condi¸c˜oes:

(1) di > 0 para todo ´ındice i tal que xi = 0.

(2) ∇Fi(x)d > 0 para todo ´ındice i tal que Fi(x) = 0.

ent˜ao d ´e uma dire¸c˜ao vi´avel no ponto x.

Portanto usaremos uma dire¸c˜ao de restaura¸c˜ao, para compor junto com a dire¸c˜ao

d1 de Newton uma nova dire¸c˜ao d que seja vi´avel em Ω. Para isso tome o seguinte

sistema:

∇H(xk)dk2 = ρkE (1.6)

onde o vetor E ∈ IRn ´e composto por 10s e m parˆametro ρk > 0. Ent˜ao para todo ponto xk ∈ Ω que n˜ao seja solu¸c˜ao do problema de complementaridade 1.1.13 mas que para algum ´ındice i, temos Hi(xk) = 0 segue que

(1) xk

(32)

(2) Fi(xk) = 0 e xk

i > 0 isso implica que ∇Fi(xk)dk2 > 0.

Assim a dire¸c˜ao dk

2 ´e uma dire¸c˜ao vi´avel em Ω, pela proposi¸c˜ao 3.1.1. Portanto, a

seguinte combina¸c˜ao linear d = dk

1+ ρkdk2, com ρk> 0 faz com que a dire¸c˜ao dk seja

uma dire¸c˜ao vi´avel em Ω. Como podemos ver na figura 3.1.

Figura 1.1:

Vamos definir ρk = ρ

0φ(x

k)β

n onde, ρ0 > 0 , φ(xk) = xkTF (xk) e β ∈ [1, 2]. observe que ρk > 0 para todo xk ∈ Ω que n˜ao seja solu¸c˜ao do problema de complementaridade. Desta forma vamos calcular a dire¸c˜ao de busca dk resolvendo o seguinte sistema

∇H(xk)dk= −H(xk) + ρkE (1.7) em cada itera¸c˜ao. Veremos agora que a dire¸c˜ao dk tem a propriedade de ser vi´avel em Ω e de ser uma dire¸c˜ao de descida para a seguinte fun¸c˜ao potencial

φ(x) = xTF (x).

Vamos considerar os conjuntos de indices dados em (1.19-1.22).

Proposi¸c˜ao 3.1.2 (Viabilidade da dire¸c˜ao) Sejam xk ∈ Ω tal que φ(xk) > 0 e

∇H(xk) n˜ao singular, ent˜ao temos que a dire¸c˜ao dk obtida pela resolu¸c˜ao do sistema (1.7) ´e vi´avel em Ω.

Prova:

(33)

Ω. Ent˜ao basta verificar para os pontos xk em que os conjuntos de indices K 6= ∅ e

J 6= ∅.

Pelo sistema (1.7);

∇H(xk)dk = −xk• F (xk) + ρkE,

Observe que a i-´esima linha deste sistema ´e:

[eiFi(xk) + xki∇Fi(xk)]dk = −xkiFi(xk) + ρk. Segue ent˜ao que:

(1) Para um ´ındice i ∈ K temos:

xk

i = 0 e Fi(xk) > 0 portanto:

[eiFi(xk)]dk = Fi(xk)dki = ρk assim, dk i = ρ k Fi(xk) > 0 ent˜ao, d k i > 0 para todo ρk > 0. (2) Para um ´ındice i ∈ J temos:

xi > 0 e Fi(x) = 0 portanto:

[xk

i∇Fi(xk)]dk= xik[∇Fi(xk)dk] = ρk o que implica que ∇Fi(xk)dk> 0.

Logo pela proposi¸c˜ao 3.1.1 temos que dk ´e uma dire¸c˜ao vi´avel em Ω. A dire¸c˜ao dk ´e uma dire¸c˜ao de descida para a fun¸c˜ao potencial φ(x).

Proposi¸c˜ao 3.1.3 Em todo ponto xk∈ Ω tal que φ(xk) > 0, a dire¸c˜ao dkobtida pela

resolu¸c˜ao do sistema (1.7) ´e uma dire¸c˜ao de descida para φ(xk) se ρ

0φ(xk)β−1 < 1.

Prova:

A fun¸c˜ao φ(x) ´e estritamente positiva para todo ponto xk em Ω que n˜ao seja solu¸c˜ao do problema de complementaridade 1.1.13, e ainda, todo ponto xk ∈ Ω tal que φ(xk) = 0 implica que xk ´e uma solu¸c˜ao do problema de complementaridade 1.1.13, ou seja, xk ≥ 0 , F (xk) ≥ 0 e xk

(34)

∇φ(xk) = ET[D

F (xk)+ Dxk∇F (xk)].

Dada a dire¸c˜ao dk obtida pela resolu¸c˜ao do sistema (1.7) temos que

∇φ(xk)dk = Et[D

F (xk)+ Dxk∇F (xk)]dk= Et(−xk• F (xk) + ρkE) =

−φ(xk) + ρkn = −[1 − ρ

0φ(xk)β−1]φ(xk) < 0

para todo ρ0φ(xk)β−1 ∈ (0, 1).

Por tanto a dire¸c˜ao dk ´e uma dire¸c˜ao de descida para φ(xk).

Com estes dois resultados temos que a dire¸c˜ao dk ´e de descida e vi´avel para o problema de complementaridade desde que tenhamos ∇H(xk) n˜ao singular e

ρ0φ(xk)β−1 < 1 para todo xk ∈ Ω. Assim vamos definir o seguinte conjunto

c = {x ∈ Ω | φ(x) ≤ c}

onde c ´e uma constante positiva. Assim, podemos por exemplo definir ρ0 = cβ−1α

(35)

3.2

Descri¸c˜

ao do Algoritmo FDA-NCP.

O presente algoritmo produzir´a uma seq¨uˆencia de pontos interiores a regi˜ao Ω que converge a uma solu¸c˜ao do problema de complementaridade mediante a resolu¸c˜ao de um sistema linear e uma busca linear nas restri¸c˜oes x ≥ 0 , F (x) ≥ 0 e na fun¸c˜ao potencial φ(x). A busca que iremos utilizar ´e a de Armijo. Vamos considerar os seguintes parˆametros:

c, ² > 0, ρ0, η, ν ∈ (0, 1), β ∈ (1, 2]. Dados iniciais: x0 ∈ Ω estritamente vi´avel tal

que φ(x0) ≤ c e k = 0.

1. Passo 1: Dire¸c˜ao de Busca. Resolva o sistema [DF (xk)+ Dxk∇F (xk)]dk = −H(xk) + ρkE, onde ρk = ρ 0φ(x k)β n . 2. Passo 2: Busca linear.

Define-se o tamanho do passo tk como sendo o primeiro valor da seq¨uˆencia

{1, ν, ν2, ν3, ...} satisfazendo

1) xk+ tkdk ≥ 0 2) F (xk+ tkdk) ≥ 0

3) φ(xk) + tkη∇φ(xk)tdk≥ φ(xk+ tkdk)

3. Passo 3: Atualiza¸c˜ao dos Dados xk+1 := xk+ tkdk e k := k + 1

4. Passo 4: Crit´erio de parada Se φ(xk+1) < ² , pare.

caso contr´ario volte ao passo 1.

(36)

de busca dk por meio da resolu¸c˜ao de um sistema linear. Este sistema fornece uma dire¸c˜ao dk que ´e uma combina¸c˜ao da dire¸c˜ao de Newton dk

1 e da dire¸c˜ao de

restaura¸c˜ao dk

2.

A dire¸c˜ao de Newton dk

1 ´e uma dire¸c˜ao de descida para a fun¸c˜ao potencial φ(xk)

dentro da regi˜ao Ω, como j´a visto o grande inconveniente de usarmos esta dire¸c˜ao para achar o pr´oximo ponto da seq¨uˆencia ´e que esta dire¸c˜ao n˜ao ´e em geral uma dire¸c˜ao vi´avel na regi˜ao Ω. A dire¸c˜ao dk

2 por sua vez ´e uma dire¸c˜ao de restaura¸c˜ao

que tem a propriedade de ser vi´avel na regi˜ao Ω, porem n˜ao ´e em geral uma dire¸c˜ao de descida para fun¸c˜ao potencial φ(xk). Mas a combina¸c˜ao destas duas dire¸c˜oes nos fornece uma dire¸c˜ao dk que tem a propriedade de ser uma dire¸c˜ao de descida da fun¸c˜ao potencial φ(xk) e vi´avel na regi˜ao Ω como mostrado nas proposi¸c˜oes 3.1.2 e 3.1.3.

Desta forma ´e poss´ıvel gerar uma seq¨uˆencia de pontos com a dire¸c˜ao dk onde cada ponto desta seq¨uˆencia esta contido em Ω e ainda decresce o valor da fun¸c˜ao potencial φ(xk). Isto ´e poss´ıvel por meio de uma busca linear na dire¸c˜ao de dk que ´e justamente o segundo passo. A busca linear determina o pr´oximo ponto da seq¨uˆencia, xk+1, que verifica duas condi¸c˜oes xk+1 ∈ Ω e φ(xk+1) ≤ φ(xk). ´E importante na busca linear que o comprimento do passo tk n˜ao tenda a zero pois isso comprometer´a na convergˆencia do algoritmo.

Para a aplica¸c˜ao do algoritmo ´e muito importante termos as seguintes condi¸c˜oes:

• Um ponto inicial x0 estritamente vi´avel.

• O conjunto Ω ⊂ IRn ter interior n˜ao vazio.

• A matriz ∇H(x) ser n˜ao singular para x ∈ Ω.

(37)

Cap´ıtulo 4

Convergˆ

encia Global do

FDA-NCP

Nesta se¸c˜ao apresentaremos resultados te´oricos sobre a convergˆencia global do Algoritmo FDA-NCP a uma solu¸c˜ao do problema de complementaridade. Lembrando que o Algoritmo dever´a gerar uma seq¨uˆencia de pontos {xk} ⊂ Ω, a partir de um ponto estritamente vi´avel, e a cada itera¸c˜ao dever´a reduzir o valor da fun¸c˜ao potencial φ(xk). Para tal, o algoritmo produzir´a uma dire¸c˜ao de busca dk que tem as propriedades de ser uma dire¸c˜ao vi´avel em Ω e de descida para a fun¸c˜ao potencial φ(x). Mostraremos que esta dire¸c˜ao dk ´e um campo uniforme de dire¸c˜oes vi´aveis e limitado. O passo da busca de Armijo para a fun¸c˜ao potencial φ(x) ´e limitado inferiormente por um valor positivo.

Assumiremos condi¸c˜oes cl´assicas para a fun¸c˜ao F (x), a matriz ∇H(x) e o conjunto de pontos vi´aveis Ω.

Suposi¸c˜ao 4.0.1 O conjunto

Ωc≡ {x ∈ Ω | φ(x) ≤ c} ´e compacto e possui interior Ω0

c 6= ∅, tal que para cada x ∈ Ω0c satisfaz x > 0 e

F (x) > 0.

Suposi¸c˜ao 4.0.2 A fun¸c˜ao F (x) ´e continuamente diferenci´avel e ∇F (x) satisfaz a

condi¸c˜ao de Lipschitz,

(38)

para qualquer x, y ∈ Ωc, onde γ0 ´e uma constante positiva.

Suposi¸c˜ao 4.0.3 A matriz ∇H(x) ´e n˜ao singular para todo x ∈ Ωc, ou seja, existe (∇H(x))−1 para todo x ∈ Ω

c.

A suposi¸c˜ao 4.0.1 garante a existˆencia de pontos estritamente vi´aveis em Ωc. Da suposi¸c˜ao 4.0.3 temos que as componentes de x e F (x) n˜ao se anulam simultaneamente para nenhum x ∈ Ωc. Temos tamb´em que o sistema de equa¸c˜oes do algoritmo

∇H(xk)dk = −H(xk) + ρkE, possui solu¸c˜ao ´unica, logo a dire¸c˜ao dk est´a bem definida.

Como ∇F (x) ´e cont´ınua segue que tanto ∇H(x) quanto (∇H(x))−1 s˜ao aplica¸c˜oes cont´ınuas e limitadas em Ωc. Ou seja existem constantes positivas κ0, κ tal que

k∇H(x)k ≤ κ0 e k(∇H(x))−1k ≤ κ para todo x ∈ Ωc.

4.1

Resultados de Convergˆ

encia

Nos resultados a seguir assumiremos as suposi¸c˜oes (4.0.1 - 4.0.3). Primeiro veremos resultados com respeito a F (x) e a equa¸c˜ao do sistema H(x) = x • F (x).

Lema 4.1.1 Seja um subconjunto Γ ⊂ <n compacto e n˜ao vazio. Ent˜ao as fun¸c˜oes

F (x), H(x) = x • F (x) satisfazem a condi¸c˜ao de Lipschitz em Γ.

Prova.:

Primeiro observe que como F (x) ´e de classe C1ent˜ao H(x) = x•F (x) ´e de classe C1

tamb´em. Temos tamb´em que ∇Fi(x) ´e cont´ınua para todo i ∈ {1, 2, ..., n} e como Γ ´e compacto ent˜ao ∇Fi(x) ´e limitado em Γ. Existe CFi constante positiva tal que

, k∇Fi(x)k ≤ CFi para todo x ∈ Γ. Assim dados x , y em Γ tal que o seguimento

x + t(y − x) ∈ Γ para todo t ∈ [0, 1] e para qualquer i ∈ {1, 2, ...n}. Segue pelo

teorema do valor m´edio

(39)

para algum τ ∈ [0, 1]. Portanto, para qualquer i ∈ {1, 2, ...n}, Fi(x) satisfaz a condi¸c˜ao de Lipschitz

|Fi(y) − Fi(x)| ≤ CFiky − xk.

De forma an´aloga temos o mesmo resultado para Hi(x).

|Hi(y) − Hi(x)| ≤ CHiky − xk.

Tomando CF =Pni=1CFi, podemos concluir que

kF (y) − F (x)k ≤ n X i=1 |Fi(y) − Fi(x)| ≤ n X i=1 CFiky − xk = CFky − xk.

Tamb´em de maneira an´aloga segue que

kH(y) − H(x)k ≤ n X i=1 |Hi(y) − Hi(x)| ≤ n X i=1 CHiky − xk = CHky − xk, onde CH =Pni=1CHi.

Lema 4.1.2 Seja um subconjunto Γ ⊂ <n compacto e n˜ao vazio. Ent˜ao a fun¸c˜ao

∇H(x) satisfaz a condi¸c˜ao de Lipschitz em Γ.

Prova:

Dados x , y em Γ ent˜ao: (∇H(x) = DF (x)+ Dx∇F (x))

||∇H(y) − ∇H(x)|| = ||DF (y)+ Dy∇F (y) − DF (x)− Dx∇F (x)|| ≤

≤ ||DF (y)− DF (x)|| + ||Dy∇F (y) − Dx∇F (x)|| ≤

≤ ||DF (y)− DF (x)|| + ||Dy(∇F (y) − ∇F (x))|| + ||(Dy− Dx)∇F (x)|| ≤

≤ ||DF (y)− DF (x)|| + ||Dy||||∇F (y) − ∇F (x)|| + ||∇F (x)||||Dy − Dx||. Como Γ ´e compacto e ∇F (x) ´e uma fun¸c˜ao continua, ent˜ao existem uma constante positiva tal que ||Dz|| ≤ c0 e ||∇F (z)|| ≤ c1∀z ∈ Γ e da suposi¸c˜ao 4.0.2 temos

||∇H(y) − ∇H(x)|| ≤ CFky − xk + c0γ0ky − xk + c1ky − xk = γky − xk,

(40)

Lema 4.1.3 Para x, y ∈ Γ, se o seguimento de reta x + t(y − x) ∈ Γ para todo

t ∈ [0, 1], segue as seguintes desigualdades:

Hi(y) ≤ Hi(x) + ∇Hi(x)(y − x) + γ||y − x||2 ∀ 1 ≥ i ≥ n , (1.1)

Hi(y) ≥ Hi(x) + ∇Hi(x)(y − x) − γ||y − x||2 ∀ 1 ≥ i ≥ n , (1.2)

onde ∇Hi(x) ´e um vetor linha. Prova:

Observe primeiro que: ∇H(x) ´e uma matriz com a i-esima linha igual a ∇Hi(x) logo

∇Hi(x)d = [∇H(x)d]i. Assim temos que

|∇Hi(x)d| ≤ k∇H(x)dk ≤ ||∇H(x)||kdk. (1.3) Ent˜ao pelo teorema do valor m´edio existe τ ∈ [0, 1] tal que

Hi(y) = Hi(x) + ∇Hi(x + τ (y − x))(y − x).

agora somando e subtraindo ∇Hi(x)(y − x) no segundo membro da igualdade temos

Hi(y) = Hi(x) + ∇Hi(x)(y − x) + (∇Hi(x + τ (y − x)) − ∇Hi(x))(y − x). (1.4) Da equa¸c˜ao (1.3) temos

|(∇Hi(x + τ (y − x)) − ∇Hi(x))(y − x)| = |[(∇H(x + τ (y − x)) − ∇H(x))(y − x)]i| ≤

≤ k∇H(x + τ (y − x)) − ∇H(x)kky − xk,

e pelo lema 4.1.2 segue

|(∇Hi(x + τ (y − x)) − ∇Hi(x))(y − x)| ≤ γkτ (y − x)kky − xk ≤ γky − xk2. (1.5)

Portanto da equa¸c˜ao (1.4) e da desigualdade (1.5) segue as duas desigualdades do lema (1.1) e (1.2).

(41)

de dire¸c˜oes vi´aveis. Lembrando que ρk = ρ 0φ(x k)β n onde ρ0 = α min{1, 1 cβ−1} com β ∈ [1, 2] , α ∈ (0, 1) e xk ∈ Ω c.

Lema 4.1.4 Para qualquer xk ∈ Ω

c, da dire¸c˜ao de busca dk gerada pelo algoritmo

satisfaz

kdkk ≤ κφ(xk). (1.6)

Como conseq¨uˆencia, kdkk ≤ κc. Prova:

Seja xk ∈ Ωc. Como dk = M−1(xk)[−H(xk) + ρkE], temos a seguinte desigualdade

kdkk ≤ kM−1(xk)kk−H(xk)+ρkEk. Basta mostrar uma limita¸c˜ao para k−H(xk)+

ρkEk. Tome a seguinte igualdade

k − H(xk) + ρkEk2 = kH(xk)k2− 2ρkφ(xk) + n(ρk)2.

Como kH(xk)k2 ≤ φ2(xk)k para todo xk∈ Ω

c temos que k − H(xk) + ρkEk2 ≤ φ2(xk) − 2ρkφ(xk) + n(ρk)2 = (n − 1)(ρk)2+ (φ(xk) − ρk)2, como ρk = ρ0φ(xk)β n e ρ0φ(xk)β−1 < 1 segue k − H(xk) + ρkEk2 ≤ [(n − 1)(ρ0φ(xk)β−1)2+ (n − ρ0φ(xk)β−1)2 n2 ]φ(x k)2,

observe que (n − 1) < (n − ρ0φ(xk)β−1) < n e (ρ0φ(xk)β−1)2 < ρ0φ(xk)β−1 < 1 ent˜ao

[(n − 1)(ρ0φ(x k)β−1)2+ (n − ρ 0φ(xk)β−1)2 n2 ] < n − ρ0φ(xk)β−1 n < 1.

Assim temos a seguinte desigualdade

k − H(xk) + ρkEk ≤ φ(xk) , ∀xk ∈ Ωc.

(42)

Lema 4.1.5 A dire¸c˜ao de busca dk ´e uma dire¸c˜ao de descida para φ(xk) para

qualquer xk∈ Ω

c tal que H(xk) 6= 0. Prova:

Como φ(xk) ´e continuamente diferenci´avel basta verificarmos que ∇φ(xk)dk < 0 para qualquer xk ∈ Ω

c tal que H(xk) 6= 0 para concluirmos que dk ´e dire¸c˜ao de descida.

Observe que ∇φ(xk) = Et∇H(xk), assim

∇φ(xk)dk = Et[∇H(xk)dk] = Et[−H(xk) + ρkE] = −(1 − ρ

0φ(xk)β−1)φ(xk) < 0

o que conclui o resultado.

Lema 4.1.6 Sejam f e g fun¸c˜oes reais cont´ınuas no intervalo da reta [0, b]. Se

f (t)g(t) > 0 ∀ t ∈ (0, b) ent˜ao uma das duas condi¸c˜oes ocorre:

1) f (t) ≥ 0 e g(t) ≥ 0 ∀ t ∈ [0, b], 2) f (t) ≤ 0 e g(t) ≤ 0 ∀ t ∈ [0, b].

Prova.: ´E f´acil ver que f e g tem o mesmo sinal no intervalo (0, b). Pois caso contr´ario, existiria um t ∈ (0, b) tal que f (t)) < 0 e g(t) > 0 o que implicaria

f (t)g(t) < 0 que ´e uma contradi¸c˜ao.

Agora se existe um t ∈ (0, b) tal que

f (t) > 0 e g(t) > 0 ∀ t ∈ (0, t), f (t) < 0 e g(t) < 0 ∀ t ∈ (t, b).

Pela continuidade da f (t) (g(t)) temos que f (t) = 0 (g(t) = 0) o que ´e uma contradi¸c˜ao pois por hip´otese f (t)g(t) > 0 para todo t no intervalo (0, b). Logo f e

g ter˜ao o mesmo sinal em todo intervalo (0, b).

(43)

No caso de termos 10) isto implica em f (0) , g(0) , f (b) e g(b) ≥ 0. No caso de termos 20) isto implica em f (0) , g(0) , f (b) e g(b) ≤ 0.

Isto ´e verdade pois, sem perda de generalidade, vamos assumir que estamos com a condi¸c˜ao 10) e supor f (b) < 0. Pela continuidade f existe um δ > 0 tal que para todo t que satisfa¸ca |b − t| < δ implica que f (t) < 0, ou seja, existe um t < b tal que

f (t) < 0 o que ´e uma contradi¸c˜ao. Portanto conclu´ımos que uma das duas condi¸c˜oes

se verifica:

1) f (t) ≥ 0 e g(t) ≥ 0 ∀ t ∈ [0, b], 2) f (t) ≤ 0 e g(t) ≤ 0 ∀ t ∈ [0, b].

Lema 4.1.7 A seq¨uˆencia de dire¸c˜ao {dk} gerada pelo algoritmo FDA-NCP, consiste

em um campo uniforme de dire¸c˜oes vi´aveis do problema de complementaridade em

Ω. Prova:

Segue da equivalˆencia de normas e do lema 4.1.2 que

k∇Hi(y) − ∇Hi(x)k ≤ γky − xk para todo x , y ∈ Ωc e 1 ≤ i ≤ n.

Suponhamos que exista θ > 0 tal que para todo xk ∈ Ω

c o seguimento [xk, xk+ τ dk] ⊂ Ω

c para τ ∈ [0, θ]. Do teorema do valor m´edio temos que

Hi(xk+ τ dk) ≥ Hi(xk) + τ ∇Hit(xk)dk− τ2γkdkk2 para qualquer τ ∈ [0, θ] e 1 ≤ i ≤ n. Como

∇Hi(xk)dk = −xkiFi(xk) + ρk (1.7) segue que

(44)

Em conseq¨uˆencia,

Hi(xk+ τ dk) ≥ 0

para todo 1 ≤ i ≤ n e qualquer τ ≤ min{1,γkdρkkk2}. Portanto, pelo lema 4.1.6

conclu´ımos que xk+ τ dk ∈ Ω.

Considerando agora o lema 4.1.4, e pela defini¸c˜ao de ρk temos

τ ≤ min{1, ρ0 γnκ2φ(x

k)β−2} (1.8)

Como β ∈ [1, 2], basta escolher

θ = min{1,ρ0cβ−2 γnκ2 }.

Lema 4.1.8 Existe ξ > 0 tal que, para todo xk ∈ Ω

c, a condi¸c˜ao de Armijo no

algoritmo ´e satisfeita para qualquer tk ∈ [0, ξ]. Prova:

Seja tk ∈ (0, θ], onde θ foi obtido no lema anterior. Aplicando o Teorema do Valor M´edio para i = 1, 2, ..., n e tomando xk+1 = xk+ tkdk, nos temos

Hi(xk+1) ≤ Hi(xk) + tk∇[H(xk)]idk+ tk

2

γkdkk2.

Somando as n inequa¸c˜oes e considerando a equa¸c˜ao (1.7), temos:

φ(xk+1) ≤ [1 − (1 − ρkn

φ(xk))t

k]φ(xk) + ntk2

γkdkk2.

Considerando agora da condi¸c˜ao de Armijo para φ(xk) e pelo lema 4.1.5, deduzimos que se, [1 − (1 − ρkn φ(xk))t k]φ(xk) + ntk2 γkdkk2 ≤ [1 − tkη(1 − ρkn φ(xk))]φ(x k)

´e verificado, ent˜ao a condi¸c˜ao de Armijo no algoritmo ´e satisfeita. Assim, ´e suficiente tomarmos

tk (1 − η)(1 − ρkn

φ(xk))φ(xk)

(45)

Como no lema anterior, podemos tomar

tk ≤ (1 − η)(1 − ρ

0φ(xk)β−1)

φ(xk)−1

γnκ2 . (1.9)

Assim, o lema fica provado para

ξ = min{(1 − η)(1 − ρ

0cβ−1)

γnκ2c , θ},

onde θ foi obtido no Lema 4.1.7.

Como conseq¨uˆencia dos lemas 4.1.7 e 4.1.8, podemos concluir que o passo da busca linear de Armijo no algoritmo FDA-NCP ´e limitado inferiormente por νξ > 0. Assim podemos enunciar o teorema que garante a convergˆencia global do algoritmo a uma solu¸c˜ao do problema de complementaridade.

Teorema 4.1.1 Dado um ponto inicial estritamente vi´avel, x0 ∈ Ω

c, existe uma

subseq¨uˆencia de {xk} gerada pelo Algoritmo FDA-NCP que converge para x, solu¸c˜ao

do problema de complementaridade.

Prova:

Segue dos lemas 4.1.4 a 4.1.8 que {xk} ⊂ Ωc. Como Ωc ´e compacto, a seq¨uˆencia

{xk} possui ponto de acumula¸c˜ao em Ω

c. Seja x∗ um ponto de acumula¸c˜ao desta seq¨uˆencia. Como o tamanho do passo ´e sempre positivo e limitado inferiormente por

(46)

Cap´ıtulo 5

Problema de Complementaridade

Mista

5.1

Id´

eias B´

asicas

Vamos extender o FDA-NCP para problemas que envolvam mais vari´aveis e uma condi¸c˜ao de igualdade al´em da condi¸c˜ao de complementaridade. Este tipo de problema ´e chamado de Problema de Complementaridade Mista (MNCP). Que tem a seguinte defini¸c˜ao:

Defini¸c˜ao 5.1.1 Sejam F : IRn× IRm → IRn e Q : IRn× IRm → IRm, aplica¸c˜oes de

classe C1 em IRn× IRm ent˜ao uma solu¸c˜ao para este problema ´e:

Encontrar (x, y) ∈ IRn× IRm tal que x ≥ 0 , F (x, y) ≥ 0 e

     x • F (x, y) = 0 Q(x, y) = 0.

Quando F (x, y) e Q(x, y) s˜ao lineares temos o Problema de Complementaridade Mista Linear (MLCP).

Para a utiliza¸c˜ao do algoritmo FDA-NCP no problema 5.1.1 vamos agregar no sistema H(x, y) = 0, onde H(x, y) = x•F (x, y), a equa¸c˜ao de igualdade Q(x, y) = 0. Assim o novo sistema fica da seguinte forma:

Referências

Documentos relacionados

Após o período de incubação, foi verificada a presença de colônias típicas, rosadas com halo de precipitação de lecitina, que foram semeadas em tubos contendo Agar Caseína

É nessa atividade que os estudantes apresentaram para as outras turmas da escola e para a população em geral, as leis, as placas de trânsito, jogos, cartazes

PINHEIRO, Thaís Rodrigues. A tutela antecipada concedida por ocasião da sentença de mérito e a controvérsia sobre os recursos cabíveis para sua impugnação. A necessidade

A geografia esta epistemologicamente alicerçada sobre o espaço geográfico e suas discussões permeiam essas interações sociais e ambientais que ocorrem

23

Consideraremos nesta parte os aspectos sociológicos da religião relatando suas funções para com os indivíduos da Sociedade, as formas como as atividades religiosas se

• Átomos de un mismo elemento (igual número atómico) pero diferente número de neutrones y por tanto masa atómica diferente. • Predisposición a las

A aplicação dessa prática se dá em três etapas: a observação pedagógica da aula de um professor da área de Língua Estrangeiras por outro docente da mesma área; em seguida