• Nenhum resultado encontrado

CONDIC¸˜OESNECESS´ARIASESUFICIENTESDEOTIMALIDADEPARAPROBLEMASCOMUMECOMV´ARIOSOBJETIVOS CAMILAISOTON

N/A
N/A
Protected

Academic year: 2022

Share "CONDIC¸˜OESNECESS´ARIASESUFICIENTESDEOTIMALIDADEPARAPROBLEMASCOMUMECOMV´ARIOSOBJETIVOS CAMILAISOTON"

Copied!
66
0
0

Texto

(1)

CAMILA ISOTON

CONDIC ¸ ˜ OES NECESS ´ ARIAS E SUFICIENTES DE OTIMALIDADE PARA PROBLEMAS COM UM E COM

V ´ ARIOS OBJETIVOS

(2)

CONDIC ¸ ˜ OES NECESS ´ ARIAS E SUFICIENTES DE OTIMALIDADE PARA PROBLEMAS COM UM E COM

V ´ ARIOS OBJETIVOS

Disserta¸c˜ ao apresentada ao Programa de P´ os-Gradua¸c˜ ao em Matem´ atica Aplicada da Universidade Federal do Paran´ a, como requisito parcial ` a obten¸c˜ ao do grau de Mestre em Matem´ atica Aplicada.

Orientadora: Prof.

a

Dr.

a

Lucelina Batista dos Santos.

Curitiba

Agosto de 2013

(3)

UNIVERSIDADE FEDERAL DO PARAN ´ A CAMILA ISOTON

CONDIC ¸ ˜ OES NECESS ´ ARIAS E SUFICIENTES DE OTIMALIDADE PARA PROBLEMAS COM UM E

COM V ´ ARIOS OBJETIVOS

Prof

a

. Dr

a

. Lucelina Batista dos Santos

Orientadora - Universidade Federal do Paran´ a - UFPR

Prof. Dr. Marko Antonio Rojas Medar Universidad del Bio-Bio - Chile

Prof. Dr. Lucas Garcia Pedroso Universidade Federal do Paran´ a - PR

Curitiba, 23 de agosto de 2013.

iii

(4)

Meus sinceros agradecimentos:

Agrade¸co primeiramente a minha querida orientadora, pela paciˆ encia, amizade e ajuda. Pelo tempo, esfor¸co e dedica¸c˜ ao

empregados nesta pesquisa.

Aos meus pais Expedito e Lorena, e a minha irm˜ a, Gisele, que estiveram sempre presentes ao meu lado (mesmo longe

fisicamente), me apoiando, incentivando, ajudando, compreendendo, enfim, por todo o carinho e amor que sempre tiveram comigo. Aos meus familiares que tanto me apoiaram e me

incentivaram.

Agrade¸co aos meus queridos colegas do PPGMA, Ana, Stela e Geovani, ao Dion pela ajuda, e a todos os demais pelos conhecimentos compartilhados, amizade e companheirismo. Este

trabalho tem um pouco de cada um de vocˆ es.

Aos professores do programa, que me ajudaram a crescer intelectual e pessoalmente, principalmente aos professores Ademir

e Elizabeth, pelo apoio e incentivo. Aos ex-colegas e professores do Departamento de Matem´ atica da UTFPR-Campus Pato Branco, principalmente Adriano e Gilberto pela ajuda e incentivo.

Aos membros da banca, professores Marko, Washington e Lucas, obrigada por aceitarem o convite.

As amigas Cristina e Patr´ıcia, pelo apoio, compreens˜ ao e amizade ao longo destes dois anos. Aos demais amigos que me apoiaram.

Muito Obrigada.

Ao Programa de P´ os-Gradua¸c˜ ao em Matem´ atica Aplicada da UFPR pela oportunidade e forma¸c˜ ao de qualidade propiciada. Ao

Conselho Nacional de Desenvolvimento Cient´ıfico e Tecnol´ ogico - CNPQ, pelo apoio financeiro.

E finalmente, mas n˜ ao menos importante, a Deus pela capacita¸c˜ ao concedida, pela for¸ca espiritual e por seguir ao meu lado.

iv

(5)

“ O que ´ e o homem na natureza? Um nada em rela¸ c˜ ao ao infinito, um tudo em rela¸ c˜ ao ao nada, um ponto a meio entre nada e tudo”

Blaise Pascal

v

(6)

rem, acreditarem, apoiarem e me da- rem for¸ cas para seguir.

vi

(7)

Resumo

Apresenta-se um estudo da existˆ encia de solu¸c˜ oes e das condi¸c˜ oes de otima- lidade de primeira e segunda ordem, para problemas com um e com v´ arios objetivos. Neste estudo, a convexidade desempenha um papel muito im- portante. Nosso objetivo foi estender os conceitos de convexidade para tais problemas, nos quais as fun¸c˜ oes envolvidas s˜ ao diferenci´ aveis. Definimos os conceitos de pontos estacion´ arios e de condi¸c˜ oes de Kuhn-Tucker para problemas mono-objetivos e os seus an´ alogos para os problemas multiob- jetivos. Neste ˆ ambito, os Teoremas da Alternativa foram largamente em- pregados. Introduzir-se-˜ ao conceitos de invexidade, nos quais, os problemas KT-invexos e KT-pseudoinvexos foram a chave para garantir a suficiˆ encia destas condi¸c˜ oes.

Palavras-chave: Condi¸c˜ oes de Otimalidade; otimiza¸c˜ ao mono e multiob- jetivos; fun¸c˜ oes convexas generalizadas, KT-invexidade.

vii

(8)

In this work we study the existence of the solutions and the first- and second- order optimality conditions (ou first and second order optimality conditions) for scalar and vector optimization problems. In this study, the plays a very important role. The main aspect of this work was to extend the concepts of convexity for such optimization problems, where the functions are differenti- able. We define concepts of stationary points and Kuhn-Tucker conditions for mono-objective problems and for their analogues multi-objective pro- blems. In this context, Theorems of Alternative have been widely used.

Invexity concepts have been used, in which the problems KT-invexos and KT-pseudoinvexos was key to ensure the sufficiency of these conditions.

Keywords:Optimality Conditions; scalar and vector (ou mono-objective and multi-objective) optimization problems; generalized convexity, KT- invexity.

viii

(9)

Sum´ ario

1 Introdu¸ c˜ ao 1

I Problema Mono-objetivo 3

2 Existˆ encia de Solu¸ c˜ oes 4

3 Condi¸ c˜ oes necess´ arias de otimalidade 12 3.1 Condi¸c˜ oes de primeira ordem . . . . 12 3.2 Condi¸c˜ oes de segunda ordem . . . . 17

4 Condi¸ c˜ oes Suficientes de Otimalidade 21

4.1 Fun¸c˜ oes invexas e suficiˆ encia das condi¸c˜ oes de Kuhn-Tucker . . . . 22 4.2 KT-invexidade e condi¸c˜ oes suficientes de primeira ordem . . . . 23 4.3 KT-invexidade de segunda ordem e condi¸c˜ oes suficientes de segunda ordem 26

II Problema Multiobjetivo 31

5 Formula¸ c˜ ao do problema, conceitos de solu¸ c˜ ao e escalariza¸ c˜ ao 32 5.1 Formula¸c˜ ao do problema e conceitos de solu¸c˜ ao . . . . 32 5.2 Escalariza¸c˜ ao . . . . 34

6 Existˆ encia de solu¸ c˜ oes 39

7 Condi¸ c˜ oes necess´ arias de otimalidade 43 7.1 Condi¸c˜ oes de primeira ordem . . . . 43 7.2 Condi¸c˜ oes de segunda ordem . . . . 44

8 Condi¸ c˜ oes suficientes de otimalidade 46

8.1 Condi¸c˜ oes de primeira ordem . . . . 46 8.2 Condi¸c˜ oes de segunda ordem . . . . 48 9 Conclus˜ oes e possibilidades de trabalho futuro 53

Referˆ encias Bibliogr´ aficas 55

ix

(10)

Introdu¸ c˜ ao

Diariamente encontramos situa¸c˜ oes que nos levam ` a tomada de decis˜ oes. Esse tipo de problema surge por exemplo, nas ´ areas da Engenharia, Economia, Administra¸c˜ ao, etc. Inicialmente, restrito a problemas que envolvem um ´ unico objetivo, os modelos de otimiza¸c˜ ao e suas t´ ecnicas visam minimizar (ou maximizar) uma fun¸c˜ ao (nem sempre li- near), denominada fun¸c˜ ao objetivo, de v´ arias vari´ aveis escolhidas dentro de alguma regi˜ ao admiss´ıvel (fact´ıvel), que ´ e definida pelas restri¸c˜ oes impostas ` as vari´ aveis do problema.

Esses problemas que buscam calcular o ponto ´ otimo (de m´ınimo ou m´ aximo) de alguma fun¸c˜ ao objetivo, sujeita ou n˜ ao a restri¸c˜ oes, s˜ ao chamados problemas de pro- grama¸c˜ ao matem´ atica.

No sentido de contemplar situa¸c˜ oes mais realistas, os problemas de programa¸c˜ ao matem´ atica evolu´ıram para o estudo de v´ arios objetivos, em geral conflitantes, que con- correm para uma determinada solu¸c˜ ao. Esses problemas de otimiza¸c˜ ao com objetivos m´ ultiplos, denotados problemas multiobjetivos, s˜ ao interessantes tanto do ponto de vista te´ orico quanto aplicado a problemas reais (para aplica¸c˜ oes veja, por exemplo, [26] e ad- mitem a seguinte formula¸c˜ ao:

minimizar f(x) = (f

1

(x), . . . , f

p

(x))

sujeito a x ∈ D (1.1)

em que D ⊂ IR

n

´ e um conjunto n˜ ao vazio e f : IR

n

→ IR.

Conceitualmente, um ponto ´ otimo de (1.1) ´ e chamado eficiente, quando n˜ ao ´ e poss´ıvel melhorar nenhum objetivo sem piorar em algum outro. Essa nomenclatura ´ e devido a Pareto, um dos precursores neste campo da Otimiza¸c˜ ao Multiobjetivo, que tratou do tema em seu c´ elebre trabalho ”Cours d’Econimie Politique” [30].

Em meados da d´ ecada de 40 muitos trabalhos surgiram no campo da otimiza¸c˜ ao (auge da Pesquisa Operacional), os quais se destacam Charnes e Cooper, Gale, Kuhn e Tucker e de Karlin. Entre 60 e 70 a literatura sobre este tema foi se sofisticando e no¸c˜ oes como eficiˆ encia fraca e eficiˆ encia pr´ opria surgiram. A grosso modo, um ponto

´ e fracamente eficiente se n˜ ao ´ e poss´ıvel melhorar todos os objetivos simultaneamente e propriamente eficiente se ´ e solu¸c˜ ao eficiente e se os quocientes entre ganho em um objetivo e perda com respeito aos demais ´ e limitada.

A partir disso, in´ umeras publica¸c˜ oes tˆ em aparecido visando desenvolver crit´ erios que permitam decidir quando um ponto fact´ıvel ´ e ou n˜ ao eficiente. Um dos m´ etodos mais cl´ assicos tenta relacionar o problema multiobjetivo com algum problema escalar espec´ıfico, cuja teoria ´ e bastante desenvolvida.

1

(11)

Introdu¸c˜ ao 2 Nesse ˆ ambito, a convexidade desempenha um papel fundamental. Sob hip´ oteses de convexidade as condi¸c˜ oes necess´ arias e suficientes de otimalidade s˜ ao trivialmente es- tabelecidas, as quais garantem a existˆ encia de pontos ´ otimos (eficientes).

Desde a ´ ultima d´ ecada outras fam´ılias de fun¸c˜ oes mais gerais que as fun¸c˜ oes convexas come¸caram a surgir no intuito de generalizar o conceito de convexidade. Tais fun¸c˜ oes s˜ ao conhecidas por fun¸c˜ oes convexas generalizadas. Entre elas, as fun¸c˜ oes invexas introduzidas por Hanson [16] tem grande destaque, uma vez que esta classe de fun¸c˜ oes tem a propriedade de que todo ponto ´ e m´ınimo global quando, e somente quando, for estacion´ ario. Al´ em disso, para problemas definidos por restri¸c˜ oes de desigualdades, as condi¸c˜ oes de Kuhn-Tucker s˜ ao suficientes para a otimalidade, quando as fun¸c˜ oes envolvi- das no problema s˜ ao invexas. Al´ em disso, Martin [4], introduziu uma classe de problemas, denominados Kuhn-Tucker invexos (KT-invexos), que inclui a classe dos problemas inve- xos, a qual satisfaz a propriedade: o problema ´ e KT-invexo quando, e somente quando, todo ponto que satisfaz as condi¸c˜ oes de Kuhn-Tucker ´ e minimo global. Contrapartidas deste resultado para o problema vetorial (1.1) foram estabelecidas em Osuna-G´ omez et al.[25] para solu¸c˜ oes fracamente eficientes.

At´ e agora, quando citamos as condi¸c˜ oes necess´ arias e suficientes de otimalidade estavamos na verdade nos referindo as condi¸c˜ oes de otimalidade de primeira ordem. ´ E sabido que as condi¸c˜ oes de otimalidade de segunda ordem s˜ ao de suma importˆ ancia, j´ a que elas nos auxiliam a eliminar candidatos n˜ ao ´ otimos em nossos problemas de pro- grama¸c˜ ao matem´ atica. As condi¸c˜ oes necess´ arias de segunda ordem s˜ ao utilizadas para eliminar pontos estacion´ arios n˜ ao ´ otimos, e as suficientes de segunda ordem nos ajudam a determinar quando um dado ponto ´ e de fato minimizador.

Trabalhando com convexidade generalizada, ` a luz das condi¸c˜ oes de segunda or- dem, Ginchev e Ivanov [27] fizeram para problemas com um objetivo um interessante trabalho usando a no¸c˜ ao de segunda ordem e de derivadas direcionais. Al´ em disso, Iva- nov [28] introduziu a no¸c˜ ao de KT-invexidade de segunda ordem e provou que um pro- blema ´ e KT-invexo de segunda ordem quando, e somente quando, todo ponto que satisfaz condi¸c˜ oes necess´ arias de segunda ordem ´ e um minimizador global deste problema.

Visando estender os conceitos explorados por Ginchev e Ivanov [27, 28] aos pro- blemas multiobjetivos, Santos, et al. [15] definem pontos de Kuhn-Tucker de segunda ordem e deriva as condi¸c˜ oes necess´ arias de otimalidade de segunda ordem para problemas multiobjetivos. Al´ em disso, introduzem o conceito de KT-pseudoinvexidade de segunda ordem cuja principal propriedade ´ e: o problema multi-objetivo ´ e KT-pseudoinvexo de segunda ordem quando, e somente quando, todo ponto Kuhn-Tucker de segunda ordem do problema ´ e solu¸c˜ ao fracamente eficiente.

Este trabalho divide-se em duas partes. A primeira, concentra-se no estudo de

problemas de programa¸c˜ ao matem´ atica com um objetivo. O intuito ´ e estudar a existˆ encia

de solu¸c˜ oes para tais problemas e garantir as condi¸c˜ oes necess´ arias e suficientes de oti-

malidade. A segunda, trata dos problemas de programa¸c˜ ao matem´ atica multiobjetivos, e

uma an´ alise an´ aloga a realizada na primeira parte ´ e estudada.

(12)

Problema Mono-objetivo

3

(13)

Cap´ıtulo 2

Existˆ encia de Solu¸ c˜ oes

Inicialmente, consideraremos o seguinte problema de otimiza¸c˜ ao:

Minimizar f(x)

sujeito a x ∈ D (2.1)

onde D ⊂ IR

n

´ e um conjunto n˜ ao vazio e f : IR

n

→ IR.

Para este problema, a fun¸c˜ ao f ser´ a chamada fun¸c˜ ao objetivo e D ´ e o conjunto de restri¸c˜ oes (tamb´ em chamado conjunto vi´ avel). Cada ponto x ∈ D ser´ a chamado ponto fact´ıvel (ou ponto vi´ avel).

Os conceitos de solu¸c˜ ao para o problema (2.1) s˜ ao os seguintes:

• Um ponto fact´ıvel x

∈ D ´ e um minimizador (ou solu¸c˜ ao) do problema (2.1) se f (x

) ≤ f (x), ∀x ∈ D.

• Um ponto fact´ıvel x

∈ D ´ e um minimizador local do problema (2.1) se existe uma vizinhan¸ca V do ponto x

tal que

f(x

) ≤ f(x), ∀x ∈ D ∩ V.

• O valor ´ otimo do problema (2.1), se define com v = inf

x∈D

f (x).

A figura a seguir ilustra os conceitos de minimizador e de minimizador local.

4

(14)

Figura 2.1: Caracteriza¸c˜ ao de m´ aximos e m´ınimos

Na primeira parte desta Disserta¸c˜ ao consideraremos o seguinte problema de oti- miza¸c˜ ao:

Minimizar f(x)

sujeito a: g

i

(x) ≤ 0, i = 1, · · · , m x ∈ U

(P) onde f, g

i

: IR

n

→ IR e U ⊂ IR

n

´ e um subconjunto aberto e n˜ ao vazio de IR

n

.

Por simplicidade, definiremos I = {1, · · · , m} . Denotaremos

X = {x ∈ U : g

i

(x) ≤ 0, i ∈ I}

ao conjunto fact´ıvel. Note que, o problema (P) ´ e um caso particular do problema (2.1), tomando-se D = X.

Cada fun¸c˜ ao g

i

: IR

n

→ IR ´ e uma restri¸c˜ ao (de desigualdade) do problema (P).

Para cada ponto fact´ıvel x ∈ X, definiremos o conjunto I(x) = {i ∈ I : g

i

(x) = 0}

o qual ´ e chamado conjunto dos ´ındices das restri¸c˜ oes ativas em x.

O objetivo fundamental deste cap´ıtulo ´ e estudar os resultados de existˆ encia de solu¸c˜ oes para o problema (P). Antes por´ em, recordamos o muito conhecido Teorema de Weirstrass, o qual est´ a muito relacionado a este tema:

Proposi¸ c˜ ao 2.1 [Teorema de Weierstrass] Suponha que D ´ e um subconjunto compacto e n˜ ao-vazio de IR

n

e que a fun¸ c˜ ao f : IR

n

→ IR ´ e cont´ınua em D. Ent˜ ao existem x

1

, x

2

∈ D tais que

f(x

1

) ≤ f(x) ≤ f(x

2

), ∀x ∈ D.

Para demonstra¸c˜ ao, veja [6].

Em particular, se f ´ e cont´ınua e o conjunto fact´ıvel D ´ e compacto e n˜ ao vazio, ent˜ ao o problema (P) tem solu¸c˜ ao.

Neste cap´ıtulo estudaremos alguns resultados de existˆ encia de solu¸c˜ oes para o problema (P) com hip´ oteses mais fracas de continuidade (na fun¸c˜ ao objetivo f) e de compacidade do conjunto fact´ıvel X.

Para isto, iniciamos recordando as defini¸c˜ oes de semi-continuidade:

(15)

6 Defini¸ c˜ ao 2.2 Seja a fun¸ c˜ ao f : R

n

→ R .

(1) Dizemos que f ´ e semi-cont´ ınua inferiormente (sci, por simplicidade) em x ∈ R

n

, se para cada ε > 0 existe um r = r(ε) > 0 tal que

f(x) > f (x) − ε, ∀x ∈ B(x, r)

(onde B(x, r) denota a bola aberta de centro x e raio r). Se f for sci em cada x ∈ R

n

diremos simplesmente que f ´ e semi-cont´ınua inferiormente.

(2) Dizemos que f ´ e semi-cont´ ınua superiormente (scs, por simplicidade) em x se(−f ) for sci em x. Similarmente, se f for scs em cada x ∈ R

n

diremos sim- plesmente que f ´ e semi-cont´ınua superiormente.

Note que a no¸c˜ ao de semi-continuidade ´ e mais fraca que a de continuidade. Se f ´ e cont´ınua em x, ent˜ ao f ´ e sci e scs em x. O exemplo a seguir mostra que semi-continuidade inferior n˜ ao implica continuidade.

Exemplo 2.3 Seja a fun¸ c˜ ao f : IR → IR definida por:

f (x) =

x

2

, se x ≤ 1

−2x

2

+ 4x, se x > 1. (2.2)

Temos que f ´ e semi-cont´ınua inferior em x = 1, entretanto, pelo gr´ afico (Figura 2.2) abaixo, podemos observar que o limite lateral inferior tende a 1 e o superior a 2, logo f n˜ ao ´ e cont´ınua em x = 1.

Figura 2.2: Fun¸c˜ ao semi-cont´ınua inferior

A seguinte proposi¸c˜ ao nos d´ a uma caracteriza¸c˜ ao alternativa de semi-continuidade:

Proposi¸ c˜ ao 2.4 Uma fun¸ c˜ ao f : R

n

→ R ´ e sci em x ∈ R

n

se, e somente se, para toda sequencia (x

k

) convergente a x, tem-se

f (x) ≤ lim inf

k→∞

f (x

k

). (2.3)

Demonstra¸ c˜ ao. Seja f uma fun¸c˜ ao sci em x e considere uma sequencia (x

k

), com x

k

→ x.

Tome ε > 0 arbitr´ ario. Sendo f sci em x, existe uma bola aberta B (x, r), tal que f (x) >

f(x) − ε, ∀x ∈ B (x, r). Como x

k

→ x, existe um n

0

∈ N tal que x

k

∈ B (x, r), ∀k > n

0

. Em particular, f(x

k

) > f (x) − ε, ∀k > n

0

. Em particular,

lim inf

k→∞

f (x

k

) ≥ f (x) − ε

(16)

e, sendo ε > 0 arbitr´ ario, lim inf

k→∞

f (x

k

) ≥ f(x).

Para demonstra¸c˜ ao da rec´ıproca, suponha por contradi¸c˜ ao que (2.3) ´ e v´ alido para cada sequˆ encia x

k

→ x e que f n˜ ao ´ e sci em x. Ent˜ ao, existe um ε

0

> 0, tal que, para cada r > 0, existe um x ∈ B (x, r) tal que f (x) ≤ f (x) − ε

0

. Assim sendo, existe uma sequˆ encia z

k

→ x tal que f(z

k

) ≤ f(x) − ε

0

, ∀k ∈ N . Da hip´ otese feita,

f (x) ≤ lim inf

k→∞

f(z

k

) ≤ f(x) − ε

0

o que ´ e absurdo.

Sejam f : R

n

→ R uma fun¸c˜ ao dada e α ∈ R . Se define o conjunto de n´ıvel,

S

α

(f) = {x ∈ IR

n

: f (x) ≤ α}.

Figura 2.3: Conjunto de N´ıveis

Observe os itens (a) e (b) da Figura 2.3. Em (a) est´ a ilustrado o gr´ afico das curvas de n´ıvel da fun¸c˜ ao representada em (b), onde os planos cortantes est˜ ao represen- tados em azul claro. Note que curvas de n´ıvel muito espa¸cadas significa que o gr´ afico cresce lentamente; duas curvas de n´ıvel muito pr´ oximas significa que o gr´ afico cresce abruptamente.

O seguinte resultado nos d´ a uma caracteriza¸c˜ ao de sci em termos dos conjuntos de n´ıvel.

Proposi¸ c˜ ao 2.5 Uma fun¸ c˜ ao f : R

n

→ R ´ e sci se, e somente, se S

α

(f ) ´ e fechado, para cada α ∈ R .

Demonstra¸ c˜ ao. Sejam f uma fun¸c˜ ao sci e α ∈ R . Mostraremos que o conjunto S

α

(f )

´ e fechado. Para isto, provaremos que seu complementar, [S

α

(f)]

c

´ e aberto. Tome x ∈ [S

α

(f )]

c

, ent˜ ao, f (x) > α e, para cada ε > 0, existe uma bola B(x, r), tal que, f (x) >

f(x)− ε, ∀x ∈ B(x, r). Ent˜ ao, f(x) > α− ε e, como ε > 0 ´ e arbitr´ ario, temos que f(x) > α para cada x ∈ B (x, r). Ou seja, [S

α

(f)]

c

´ e aberto.

Agora, demonstramos a rec´ıproca. Suponha que o conjunto [S

α

(f )]

c

´ e aberto,

para todo α ∈ R . Fixe x ∈ IR

n

e ε > 0. Como f(x) > f (x) − ε, ent˜ ao x ∈ [S

α0

(f)]

c

, onde

(17)

8 α

0

= f (x)−ε. Assim, existe r > 0 tal que B (x, r) ⊂ [S

α0

(f )]

c

, isto ´ e, f (x) > f (x)−ε, ∀x ∈ B(x, r) ou, equivalentemente, f ´ e sci em x.

A seguinte proposi¸c˜ ao nos fornece condi¸c˜ oes suficientes para que o conjunto fact´ıvel de (P) seja fechado.

Corol´ ario 2.6 Seja U ⊂ R

n

um conjunto fechado. Se as restri¸ c˜ oes g

i

, i ∈ I , s˜ ao sci, ent˜ ao X = {x ∈ U : g

i

(x) ≤ 0, i ∈ I} ´ e fechado.

Demonstra¸ c˜ ao. Se g

i

s˜ ao sci, ent˜ ao pela Proposi¸c˜ ao 2.4, o conjunto S

0

(g

i

) s˜ ao fechados.

Mas, podemos escrever

X = U ∩ (

m

\

i=1

S

0

(g

i

)),

ou seja, X ´ e interse¸c˜ ao de m + 1 fechados e, portanto, X ´ e fechado.

Um conceito necess´ ario nesta discuss˜ ao ´ e o de fun¸c˜ ao coerciva:

Defini¸ c˜ ao 2.7 Sejam f : R

n

→ R uma fun¸ c˜ ao dada e X ⊂ R

n

um subconjunto n˜ ao vazio.

Diremos que f ´ e coerciva sobre X se para toda sequˆ encia (x

k

) ⊂ X, tal que ||x

k

|| → ∞, tem-se f(x

k

) → +∞.

Figura 2.4: Fun¸c˜ ao coerciva [8]

A Figura 2.4 ilustra que f : IR → IR dada por f(x) = x

4

− x

2

´ e coerciva.

Proposi¸ c˜ ao 2.8 Sejam f : R

n

→ R e X ⊂ R

n

um subconjunto n˜ ao vazio. Ent˜ ao f ´ e coerciva sobre X se, e somente se, o conjunto

S

α

(f, X) = {x ∈ X : f(x) ≤ α}

´ e limitado, para todo α ∈ R .

Demonstra¸ c˜ ao. Inicialmente, suponha que f ´ e coerciva e, por contradi¸c˜ ao, suponha que exista um α

0

∈ R tal que o conjunto S

α0

(f, X) ´ e ilimitado. Ent˜ ao, existe uma sequˆ encia (x

k

) ⊂ X tal que ||x

k

|| → ∞ e f (x

k

) ≤ α

0

, para cada k, que contradiz o fato de f ser coerciva.

Agora, demonstramos a rec´ıproca. Tome (x

k

) ⊂ X uma sequˆ encia tal que ||x

k

|| →

∞, e suponha que os conjuntos S

α

(f, X) s˜ ao limitados, ∀α ∈ R . Ent˜ ao, para cada n ∈ N

fixado, existe um ´ındice k(n) tal que x

k

∈ / S

k(n)

(f, X ), ∀k ≥ k(n). Como x

k

∈ / S

k(n)

(f, X)

ent˜ ao f(x

k

) > k(n), ∀k ≥ k(n) e, portanto, f (x

k

) → +∞. Logo, f ´ e coerciva.

(18)

Corol´ ario 2.9 Suponha que no problema (P), pelo menos uma das restri¸ c˜ oes g

i

, i ∈ I ´ e coerciva. Ent˜ ao, o conjunto fact´ıvel X ´ e limitado.

Demonstra¸ c˜ ao. Suponha que existe um ´ındice i

0

∈ I tal que g

i0

´ e coerciva. Ent˜ ao, pela Proposi¸c˜ ao anterior, o conjunto de n´ıvel S

0

(g

i0

) = {x ∈ R

n

: g

i0

(x) ≤ 0} ´ e limitado. Com maior raz˜ ao, X ⊂ S

0

(g

i0

) tamb´ em ´ e limitado.

Outro conceito que necessitaremos ´ e o de solu¸c˜ ao ´ otima com tolerˆ ancia:

Defini¸ c˜ ao 2.10 Sejam ε ≥ 0 dado e v(P ) o valor ´ otimo do problema (P). Definimos o conjunto

X(ε) = b {x ∈ X : f(x) ≤ v(P ) + ε}

ao qual chamaremos conjunto das solu¸ c˜ oes ´ otimas de (P) com tolerˆ ancia ε.

Observe que, em particular, o conjunto X(0) = b {x ∈ X : f (x) ≤ v(P )} . Exemplo 2.11 No caso da figura abaixo, X(ε) = ˆ

x ∈ IR

+

: x

2

≤ ε , cuja fun¸ c˜ ao ´ e f(x) = x

2

.

Figura 2.5: Valor ´ otimo com tolerˆ ancia ε

O pr´ oximo teorema apresenta um resultado de existˆ encia de solu¸c˜ oes, relaxando-se a hip´ otese de compacidade do conjunto fact´ıvel. Para demonstrar tal fato, necessitaremos do seguinte resultado:

Proposi¸ c˜ ao 2.12 Se f ´ e sci e X ´ e um conjunto fechado, ent˜ ao os conjuntos X(ε) b s˜ ao fechados, para cada ε ≥ 0.

Demonstra¸ c˜ ao. Tome ε ≥ 0. Se v(P ) = −∞, ent˜ ao X(ε) = b ∅ , logo ´ e limitado. Agora, suponhamos que v(P ) ´ e finito. Como f ´ e sci, pela Proposi¸c˜ ao (2.5), o conjunto {x ∈ R

n

: f(x) ≤ v(P ) + ε} ´ e fechado. Al´ em disso, por hip´ otese, X tamb´ em ´ e fechado. Portanto, o conjunto

X(ε) = b X ∩ {x ∈ R

n

: f (x) ≤ v(P ) + ε}

´ e fechado.

Finalmente, estabeleceremos os principais resultados desta Se¸c˜ ao.

(19)

10 Teorema 2.13 No problema (P), suponha que o conjunto X ´ e compacto e n˜ ao vazio e que a fun¸ c˜ ao objetivo f ´ e sci. Ent˜ ao o conjunto X(0) b das solu¸ c˜ oes ´ otimas de (P) ´ e compacto e n˜ ao vazio.

Demonstra¸ c˜ ao. A demonstra¸c˜ ao se dar´ a em duas partes. Na primeira delas, verificaremos que X(0) ´ b e n˜ ao-vazio e, na segunda, que ´ e compacto.

Seja β = v(P ) o valor ´ otimo do problema (P), ent˜ ao existe uma sequˆ encia (x

k

) ⊂ X tal que β = lim

k→∞

f (x

k

) e, se α > β, existe k ∈ N tal que

x

k

∈ {x ∈ X : f(x) ≤ α} = S

α

(f, X ), ∀k ≥ k.

Sendo X limitado, o conjunto S

α

(f, X) tamb´ em ´ e limitado. Assim sendo, a sequˆ encia (x

k

) ´ e limitada e portanto, admite uma subsequˆ encia (x

k0

) tal que x

k0 k

−→

0→∞

x.

Como x

k0

∈ S

α

(f, X), ∀k

0

≥ k e S

α

(f, X) ´ e fechado, ent˜ ao x ∈ S

α

(f, X). Considere a sequˆ encia (f (x

k0

)). ´ E claro que f(x

k0

)

k

0→∞

−→ β, e sendo f uma fun¸c˜ ao sci, f (x) ≤ lim inf

k0→∞

f (x

k0

) = lim

k0→∞

f(x

k0

) = β.

Por outro lado, como x ∈ X, temos que β ≤ f (x) e portanto, f(x) = v(P ), ou seja, x ∈ X(0). b

Agora, verifiquemos que o conjunto X(0) ´ b e compacto. Sendo f sci e X fechado, ent˜ ao, pela Proposi¸c˜ ao 2.12, o conjunto X(0) ´ b e fechado. Al´ em disto, X(0) b ⊂ X e, por hip´ otese, X ´ e limitado. Logo, X(0) ´ b e limitado. Portanto X(0) ´ b e compacto.

Observa¸ c˜ ao 1 O Teorema 2.13, fornece um resultado de existˆ encia de solu¸ c˜ oes para o problema (P) com hip´ oteses relaxadas de continuidade na fun¸ c˜ ao objetivo f. (Compare com a Proposi¸ c˜ ao 2.1).

O pr´ oximo resultado estabelece que, sob hip´ oteses de coercividade da fun¸c˜ ao objetivo, os conjuntos X(ε) s˜ b ao limitados.

Proposi¸ c˜ ao 2.14 Seja f uma fun¸ c˜ ao coerciva sobre o conjunto fact´ıvel X. Ent˜ ao, para cada ε ≥ 0, os conjuntos X(ε) b s˜ ao limitados.

Demonstra¸ c˜ ao. Tome ε ≥ 0. Se v(P ) = −∞, ent˜ ao X(ε) = b ∅ e, portanto, limitado.

Suponhamos, que v(P ) ´ e finito. Se f ´ e coerciva sobre X,, ent˜ ao pela Proposi¸c˜ ao (2.8) o conjunto S

v(P)+ε

(f, X ) = X(ε) ´ b e limitado.

O teorema que se segue apresenta outro resultado de existˆ encia de solu¸c˜ oes, relaxando-se a hip´ otese de compacidade do conjunto fact´ıvel.

Teorema 2.15 Suponha que X ´ e fechado, n˜ ao vazio e que a fun¸ c˜ ao f ´ e sci. Se f ´ e coerciva, ent˜ ao X(0) b ´ e compacto e n˜ ao-vazio.

Demonstra¸ c˜ ao. Seja β = v (P ) o valor ´ otimo de (P). Ent˜ ao existe uma sequˆ encia (x

k

) ⊂ X tal que β = lim

k→∞

f (x

k

). Primeiro vamos demonstrar que X(0) ´ b e n˜ ao-vazio. Seja α > β, ent˜ ao existe k ∈ N tal que

x

k

∈ S

α

(f, X) = {x ∈ X : f (x) ≤ α}, ∀k ≥ k.

(20)

Segue da Proposi¸c˜ ao 2.8 que o conjunto S

α

(f, X ) ´ e limitado e, existe uma subsequˆ encia (x

k0

) de (x

k

) tal que x

k0 k

0→∞

−→ x. Como X ´ e fechado, temos x ∈ X. Considere a sequˆ encia (f (x

k0

)). Temos que β = lim

k→∞

f(x

k0

) e como f ´ e sci, f(x) ≤ lim inf

k0→∞

f (x

k0

) = β.

Como x ∈ X, temos que β ≤ f (x), ou seja β = f(x). Logo, x ∈ X(0). b

Provaremos agora a compacidade de X(0). b Como X fechado e f sci, segue da Proposi¸c˜ ao (2.12) que X(0) ´ b e fechado. Sendo f coerciva, ent˜ ao pela Proposi¸c˜ ao 2.14 X(0) b

´ e limitado.

Exemplo 2.16 [13] Dados uma regi˜ ao convexa fechada n˜ ao-vazia C ⊆ IR

n

e um ponto x ∈ IR

n

, aplicaremos os teoremas vistos anteriormente sobre o estudo da existˆ encia e caracteriza¸ c˜ ao dos pontos em C que minimizam, sobre C, uma certa distˆ ancia euclideana ao ponto x, isto ´ e, o estudo do problema:

Minimizar kx − xk

Q

sujeito a: x ∈ C (Q)

onde kyk

Q

= y

T

Qy

12

, Q ´ e uma matriz (n × n) sim´ etrica definida positiva (em particular, se Q=I, I a matriz identidade de ordem n, ent˜ ao temos a distˆ ancia euclideana habitual).

Mais precisamente, estudaremos o problema equivalente, com fun¸ c˜ ao objetivo di- ferenci´ avel:

Minimizar

12

kx − xk

2Q

sujeito a: x ∈ C (Q)

A fun¸ c˜ ao objetivo f(x) de (Q) ´ e cont´ınua. Mostraremos que f (x) ´ e coerciva:

Como Q ´ e definida positiva, ent˜ ao a seguinte rela¸ c˜ ao ´ e v´ alida para todo x ∈ IR

n

x

T

Qx ≥ α kxk

2

, com α > 0

Logo,

(α)

12

kxk ≤ kxk

Q

≤ kx − xk

Q

+ kxk

Q

(2.4)

onde α > 0 e kxk → +∞, por hip´ otese. Ent˜ ao, por (2.4), kx − xk

Q

→ +∞. Como

f(x) =

12

kx − xk

2Q

, temos que f(x) → +∞. Portanto f (x) ´ e coerciva e, pelo Teorema

2.15, conclu´ımos que o problema (Q) admite solu¸ c˜ oes ´ otimas.

(21)

Cap´ıtulo 3

Condi¸ c˜ oes necess´ arias de otimalidade

Neste Cap´ıtulo, consideraremos as condi¸c˜ oes que devem ser satisfeitas para que um ponto fact´ıvel do problema (P) seja ´ otimo. Ser˜ ao consideradas condi¸c˜ oes de 1

a

. ordem (i.e., condi¸c˜ oes que envolvem as derivadas de 1

a

. ordem) e tamb´ em de segunda ordem (i.e., condi¸c˜ oes que envolvem as derivadas segundas).

3.1 Condi¸ c˜ oes de primeira ordem

Iniciamos com uma caracteriza¸c˜ ao geom´ etrica de otimalidade local para o pro- blema (P):

Proposi¸ c˜ ao 3.1 Suponha que as fun¸ c˜ oes f, g

i

, i ∈ I, s˜ ao diferenci´ aveis. Se x

∈ X ´ e um minimizador local de (P), ent˜ ao o sistema

T

f (x

)d < 0

T

g

i

(x

)d < 0, i ∈ I (x

) (3.1) n˜ ao admite solu¸ c˜ ao d ∈ R

n

.

Demonstra¸ c˜ ao. Seja x

∈ X um minimizador local de (P). Suponhamos por contradi¸c˜ ao que exista uma dire¸c˜ ao d b ∈ R

n

que resolve o Sistema (3.1). Como x

∈ U e U ´ e aberto, ent˜ ao existe um δ

0

> 0 tal que x

+ t d b ∈ U, para todo t ∈ (0, δ

0

). Al´ em disso, para cada i ∈ I (x

) fixado, temos

0 > ∇

T

g

i

(x

) d b = lim

t→0+

g

i

(x

+ t d) b − g

i

(x

)

t .

Logo, para cada i ∈ I (x

) existe δ

i

> 0 tal que

g

i

(x

+ t d) b − g

i

(x

) = g

i

(x

+ t d) b < 0, ∀t ∈ (0, δ

i

).

Por outro lado, para i ∈ I \ I(x

) temos que g

i

(x

) < 0 e como as fun¸c˜ oes g

i

s˜ ao cont´ınuas, existe δ

i

> 0 tal que

g

i

(x

+ t d) b < 0, ∀t ∈ (0, δ

i

).

Definindo-se b δ = min{δ

0

, · · · , δ

m

}, temos que x

+ t d b ∈ X, para todo t ∈ (0, b δ). Por outro lado, temos

0 > ∇

T

f(x

) d b = lim

t→0+

f (x

+ t d) b − f(x

) t

12

(22)

e portanto, existe δ

0

> 0 tal que f(x

+ t d) b < f (x

), ∀t ∈ (0, δ

0

).

Defina δ = min{b δ, δ

0

}. Para cada t ∈ (0, δ), obtemos os pontos da forma x

+ t d b que s˜ ao fact´ıveis para (P) e f(x

+ t d) b < f (x

), contrariando a otimalidade local de x

.

Utilizando-se um Teorema de Alternativa, podemos converter a condi¸c˜ ao geom´ etrica de otimalidade dada na proposi¸c˜ ao anterior em uma regra de multiplicadores.

Adotaremos a seguinte nota¸c˜ ao: Para x, y ∈ R

n

, escreveremos x < y ⇐⇒ x

i

< y

i

, i = 1, · · · , n

x 5 y ⇐⇒ x

i

≤ y

i

, , i = 1, · · · , n x ≤ y ⇐⇒ x 5 y e x 6= y.

Observa¸ c˜ ao 2 Recordemos que:

(i) Um conjunto D ⊂ IR

n

´ e chamado conjunto convexo se para quaisquer x ∈ D, y ∈ D e α ∈ [0, 1] tem-se que αx + (1 − α)y ∈ D.

Figura 3.1: (a) Conjunto convexo (b) Conjunto n˜ ao convexo

(ii) Seja D ⊂ IR

n

um conjunto convexo. Dizemos que a fun¸ c˜ ao f : D → IR ´ e convexa em D quando para quaisquer x, y ∈ D e t ∈ [0, 1], tem-se que

f ((1 − t)x + ty) 5 (1 − t)f (x) + tf (y)

Figura 3.2: Fun¸c˜ ao convexa

Pode-se provar: se f : D → R ´ e uma fun¸c˜ ao convexa e continuamente dife- renci´ avel em D, convexo, ent˜ ao ∀x, y ∈ D

f(x) + ∇

T

f (x)(y − x) 5 f (y).

Para maiores detalhes, veja [1].

(23)

Condi¸c˜ oes Necess´ arias de Otimalidade 14 Lema 3.2 [Teorema de Gordan Generalizado] Sejam D ⊆ IR

n

um conjunto convexo e f : D → IR

p

, uma fun¸ c˜ ao convexa definida em D. Temos que:

(i) N˜ ao existe x ∈ D tal que:

f

j

(x) < 0, ∀j ∈ J se, e somente se

(ii) Existem m escalares n˜ ao-negativos µ

j

, j ∈ J , n˜ ao todos nulos, tais que:

p

X

j=1

µ

j

f

j

(x) = 0, ∀x ∈ D

em que J = {1, . . . , p}.

Demonstra¸ c˜ ao. (ii) ⇒ (i). Suponha por contradi¸c˜ ao que (ii) ocorre, entretanto existe x ∈ D tal que:

f

j

(x) < 0, ∀j ∈ J (3.2)

Como (ii) ´ e v´ alido por hip´ otese, temos que:

p

X

j=1

µ

j

f

j

(x) = 0, ∀x ∈ D

µ

j

= 0 (3.3)

µ

j0

> 0, para algum j

0

∈ J.

Assim, de (3.2) e (3.3) conclu´ımos que

p

X

j=1,j6=j0

µ

j

f

j

(x) + µ

j0

f

j0

(x) < 0 o que ´ e um absurdo. Portanto, (ii) ⇒ (i).

Na sequˆ encia abaixo, mostraremos que (i) ⇒ (ii).

• Seja φ = {y ∈ IR

m

: f (x) 5 y, (i. ´ e., f

j

(x) 5 y

j

, j ∈ J), para algum x ∈ D}, de modo que o conjunto φ seja n˜ ao vazio e convexo.

• Seja o conjunto convexo K = {y ∈ IR

m

: y

j

< 0, j ∈ J }. Ou seja, o ortante negativo do IR

m

.

• Mostremos que K ∩ φ = ∅. Suponha que exista y ∈ K ∩ φ. Ent˜ ao, existe x ∈ D tal que f

j

(x) ≤ y < 0, ∀j ∈ J , o que imposs´ıvel por (i).

• Agora, dado que K ´ e convexo, φ ´ e convexo e K ∩ φ = ∅, podemos aplicar o Teorema da Separa¸ c˜ ao, (para maiores detalhes, veja [22]), o qual garante a existˆ encia de h ∈ IR

m

(h 6= 0) e α ∈ IR, tais que:

h · y = α = h · z, ∀y ∈ φ e ∀z ∈ K, onde h.y ´ e o produto interno usual

(24)

• Mostremos que h = 0. Suponha por contradi¸c˜ ao que existe j

0

∈ J tal que h

j0

< 0.

Defina z(ρ) ∈ K (com ρ ∈ IR

), como:

z

j

(ρ) =

1

ρ

, se j 6= j

0

ρ, se j = j

0

ent˜ ao, de

h · z 5 α (α ∈ IR), ∀z ∈ K z(ρ) ∈ K, ∀ρ ∈ IR

h

j0

< 0

conclu´ımos que 0 < ρ · h

j0

5 α, ∀ρ < 0 onde α ∈ IR. O que ´ e imposs´ıvel. Logo, h = 0.

• Por um racioc´ınio similar, temos que α = 0. Assim, definindo µ

j

= h

j

, j ∈ J, temos o resultado.

Em particular, temos o conhecido Teorema de Gordan:

Corol´ ario 3.3 [Teorema de Gordan] Se {a

j

}

mj=1

´ e um conjunto dado de p vetores no IR

n

, ent˜ ao:

(i) N˜ ao existe x ∈ IR

n

tal que:

a

j

· x < 0, ∀j ∈ J

(3.4) se, e somente se,

(ii) Existe m escalares n˜ ao negativos, µ

j

, j ∈ J, n˜ ao todos nulos, tais que:

m

X

j=1

µ

j

· a

j

= 0

Aplicando o Teorema de Gordan ao sistema de desigualdade (3.1) obtemos o Teorema de Fritz-John.

Teorema 3.4 [Fritz-John] Seja x

∈ X um minimizador local de (P). Suponha que as fun¸ c˜ oes f, g

i

(i ∈ I(x

)) s˜ ao diferenci´ aveis e que as fun¸ c˜ oes g

i

(i ∈ I \I (x

)) s˜ ao cont´ınuas.

Ent˜ ao, existem escalares λ

0

, λ

i

∈ R , i ∈ I, n˜ ao todos nulos, tais que, λ

0

∇f(x

) + X

i∈I

λ

i

∇g

i

(x

) = 0 (3.5)

λ

0

, λ

i

= 0, i ∈ I (3.6)

λ

i

g

i

(x

) = 0, i ∈ I. (3.7)

(25)

Condi¸c˜ oes Necess´ arias de Otimalidade 16 Demonstra¸ c˜ ao. Seja x

uma solu¸c˜ ao local de (P). Pela Proposi¸c˜ ao 3.1, o Sistema (3.1) n˜ ao possui solu¸c˜ ao d ∈ R

n

. Ent˜ ao, aplicando o Teorema de Gordan (Corol´ ario 3.3) ao Sistema (3.1), existem λ b

i

= 0, i ∈ {0} ∪ I(x

), n˜ ao todos nulos e tais que

b λ

0

T

f(x

)d + X

i∈I(x)

b λ

i

T

g

i

(x

)d = 0, ∀d ∈ R

n

isto ´ e,

λ b

0

∇f(x

) + X

i∈I(x)

b λ

i

∇g

i

(x

) = 0.

Assim, basta definir:

λ

i

=

b λ

i

, i ∈ I(x

) ∪ {0}

0, i ∈ I \ I(x

).

Podemos observar que no Teorema 3.4, n˜ ao existe a garantia de que o multiplica- dor associado ` a fun¸c˜ ao objetivo λ

0

seja n˜ ao nulo. Dessa forma, se este multiplicador for zero, perdemos as informa¸c˜ oes contidas na derivada da fun¸c˜ ao objetivo. Para contornar este inconveniente, inserimos nas hip´ oteses das condi¸c˜ oes necess´ arias, alguma condi¸c˜ ao de regularidade (ou qualifica¸c˜ ao de restri¸c˜ ao).

Por simplicidade, admitiremos a seguinte qualifica¸c˜ ao de restri¸c˜ ao:

Defini¸ c˜ ao 3.5 Diremos que o problema (P) satisfaz a qualifica¸ c˜ ao de restri¸ c˜ ao (QR) em x

se o conjunto {∇g

i

(x

)}

i∈I(x)

for linearmente independente.

Se ` as hip´ oteses do Teorema de Fritz-John acrescentar a qualifica¸c˜ ao de restri¸c˜ ao (QR), o multiplicador λ

0

6= 0.

Teorema 3.6 [Kuhn-Tucker] Suponha que x

∈ X ´ e um minimizador local de (P), que as fun¸ c˜ oes f, g

i

(i ∈ I (x

)) s˜ ao diferenci´ aveis e que as fun¸ c˜ oes g

i

(i ∈ I \ I(x

)) s˜ ao cont´ınuas. Al´ em disto, suponha que as restri¸ c˜ oes do problema (P) satisfazem a quali- fica¸ c˜ ao de restri¸ c˜ ao (QR) no ponto x

. Ent˜ ao, existem µ

i

∈ R , i ∈ I tais que

∇f(x

) + X

i∈I

µ

i

∇g

i

(x

) = 0 (3.8)

µ

i

= 0, i ∈ I (3.9)

µ

i

g

i

(x

) = 0, i ∈ I. (3.10)

Demonstra¸ c˜ ao. Pelo Teorema (3.4), existem multiplicadores λ

0

, λ

i

(i ∈ I) tais que se verificam as equa¸c˜ oes (3.5)-(3.7). Se λ

0

= 0, por (3.5) ter´ıamos P

i∈I

λ

i

∇g

i

(x

) = 0, com λ

i

= 0 e n˜ ao todos nulos, o que contraria a condi¸c˜ ao (QR). Basta definir

µ

i

= λ

i

λ

0

, i ∈ I e obtemos o resultado desejado.

Observa¸ c˜ ao 3 Observe que as condi¸ c˜ oes de Kuhn-Tucker (Teorema 3.6) podem ser ob-

tidas com qualifica¸ c˜ oes de restri¸ c˜ ao mais gerais que a condi¸ c˜ ao (QR). Para maiores de-

talhes, veja, por exemplo [24, 9, 5, 17, 18, 32, 23, 31].

(26)

Defini¸ c˜ ao 3.7 Um ponto x

∈ X fact´ıvel para (P) ´ e dito ser um ponto Kuhn-Tucker se existem µ

i

∈ R , i ∈ I, satisfazendo ` as Equa¸ c˜ oes (3.8)-(3.10).

Exemplo 3.8 Seja o seguinte problema:

Minimizar f (x)

sujeito a: g

i

(x) 5 0, i = 1, · · · , 4 x ∈ U ⊆ IR

2

(M)

Figura 3.3: Condi¸c˜ oes de Kuhn-Tucker

Na Figura (3.3), tra¸ camos as quatro restri¸ c˜ oes nos casos em que g

i

(x) = 0, i = 1, · · · , 4 com x ∈ IR

2

. O conjunto das restri¸ c˜ oes ativas em x ´ e dado por I(x) = {1, 4}.

Os gradientes ∇g

i

(x) s˜ ao naturalmente ortogonais as respectivas fun¸ c˜ oes g

i

(x) no ponto x, e apontam para a dire¸ c˜ ao de m´ aximo crescimento de g

i

(x) a partir de x (onde g

i

(x) = 0).

Se o ponto x ´ e m´ınimo local do problema diferenci´ avel (M), o Teorema de Kuhn- Tucker (3.6) garante a existˆ encia dos multiplicadores µ

1

, µ

4

≥ 0, tais que,

−∇f(x) = µ

1

∇g

1

(x) + µ

4

∇g

4

(x)

isto ´ e, −∇f (x) pode ser escrito como combina¸ c˜ ao linear (com coeficientes positivos) dos gradientes das restri¸ c˜ oes ativas em x.

3.2 Condi¸ c˜ oes de segunda ordem

Nesta se¸c˜ ao, obteremos as condi¸c˜ oes necess´ arias de otimalidade para o problema (P) utilizando as informa¸c˜ oes das derivadas segundas das fun¸c˜ oes do problema. Ao longo desta se¸c˜ ao, suporemos que as fun¸c˜ oes f, g

i

s˜ ao duas vezes diferenci´ avel.

Para isto, necessitaremos do conceito de dire¸c˜ ao cr´ıtica abaixo.

Defini¸ c˜ ao 3.9 Dizemos que o vetor d ∈ R

n

´ e uma dire¸ c˜ ao cr´ıtica do problema (P) no ponto x

∈ X se

T

f (x

)d ≤ 0

T

g

i

(x

)d ≤ 0, i ∈ I(x

)

e denotaremos por D(x

) o conjunto de dire¸ c˜ oes cr´ıticas em x

.

(27)

Condi¸c˜ oes Necess´ arias de Otimalidade 18 E do conhecido Teorema da Alternativa abaixo.

Lema 3.10 [Teorema de Motzkin] Sejam A, C e D matrizes dadas, com A 6= 0. Ent˜ ao, exatamente uma das seguintes condi¸ c˜ oes deve ocorrer:

(I) O sistema

Ax > 0 Cx = 0 Dx = 0

 tem uma solu¸ c˜ ao x;

(II) O sistema

A

T

y

1

+ C

T

y

2

+ D

T

y

3

= 0 y

1

≥ 0, y

2

= 0

tem solu¸ c˜ ao (y

1

, y

2

, y

3

).

Para maiores detalhes e prova, veja [22].

Teorema 3.11 Seja x

∈ X um minimizador local de (P). Suponha que as fun¸ c˜ oes f, g

i

(i ∈ I(x

)) s˜ ao duas vezes continuamente diferenci´ aveis e que as fun¸ c˜ oes g

i

(i ∈ I I(x

)) s˜ ao cont´ınuas. Ent˜ ao, para cada dire¸ c˜ ao cr´ıtica d ∈ D(x

), existem multiplicadores λ

0

, λ

i

≥ 0 (i ∈ I) tais que

λ

0

∇f (x

) + X

i∈I(x)

λ

i

∇g

i

(x

) = 0 (3.11)

λ

i

g

i

(x

) = 0, i ∈ I (3.12)

λ

0

T

f (x

)d = 0 (3.13)

λ

i

T

g

i

(x

)d = 0, i ∈ I(x

) (3.14) d

T

(∇

2

f(x

) + X

i∈I(x)

λ

i

2

g

i

(x

))d = 0. (3.15) Al´ em disto, se (QR) vale em x

, ent˜ ao para todo d ∈ D(x

), teremos λ

0

6= 0.

Para facilitar a demonstra¸c˜ ao, defina o seguinte conjunto:

I

0

=

i ∈ I(x

) : ∇

T

g

i

(x

)d = 0

Observe que este conjunto de ´ındices ´ e equivalente as afirma¸c˜ oes (3.12) e (3.14).

Demonstra¸ c˜ ao. Seja d uma dire¸c˜ ao cr´ıtica fixa e arbitr´ aria. Ent˜ ao, o sistema ∇

T

f(x

)z + d

T

(∇

2

f(x

))d < 0

T

g

i

(x

)z + d

T

(∇

2

g

i

(x

))d 5 0, i ∈ I

0

(3.16)

n˜ ao tem solu¸c˜ ao z ∈ IR

n

. Isto ´ e equivalente a

(28)

T

f (x

)z + [d

T

(∇

2

f(x

))d]t < 0

T

g

i

(x

)z + [d

T

(∇

2

g

i

(x

))d]t 5 0, i ∈ I

0

−t < 0,

o qual n˜ ao tem solu¸c˜ ao z ∈ IR

n

, t ∈ IR. Pelo Teorema de Motzkin (Lema 3.10), existem multiplicadores ξ, λ

0

∈ IR e λ

i

∈ IR

m

tais que

 

 

 

 

 

 

λ

0

∇f (x

) +

m

X

i=1

λ

i

∇g

i

(x

) = 0 d

T

(∇

2

f(x

) +

m

X

i=1

λ

i

2

g

i

(x

))d − ξ = 0 (λ

0

, ξ) ≥ 0, λ

i

= 0, λ

i

= 0, ∀i / ∈ I

0

Como (λ

0

, ξ) ≥ 0, temos que: λ

0

≥ 0 e ξ = 0, ou, λ

0

= 0 e ξ > 0. E assim, existem λ

0

∈ IR e λ

i

∈ IR

m

tais que

 

 

 

 

 

 

λ

0

∇f (x

) +

m

X

i=1

λ

i

∇g

i

(x

) = 0 d

T

(∇

2

f(x

) +

m

X

i=1

λ

i

2

g

i

(x

))d > 0 λ

0

= 0, λ

i

= 0, λ

i

= 0, ∀i / ∈ I

0

(3.17)

ou,

 

 

 

 

 

 

λ

0

∇f (x

) +

m

X

i=1

λ

i

∇g

i

(x

) = 0 d

T

(∇

2

f(x

) +

m

X

i=1

λ

i

2

g

i

(x

))d = 0 λ

0

≥ 0, λ

i

= 0, λ

i

= 0, ∀i / ∈ I

0

.

(3.18)

Assuma que (3.18) n˜ ao ocorre. Isto ´ e equivalente a

 

 

 

 

 

 

λ

0

∇f (x

) +

m

X

i=1

λ

i

∇g

i

(x

) = 0 d

T

(∇

2

f(x

) +

m

X

i=1

λ

i

2

g

i

(x

))d − ξ = 0 λ

0

≥ 0, ξ = 0, λ

i

= 0, λ

i

= 0, ∀i / ∈ I

0

.

(3.19)

Logo, novamente pelo Teorema de Motzkin (Lema 3.10), existem z, t = 0, satisfazendo d

T

[∇f(x

)z + ∇

2

f(x

)]dt < 0

d

T

[(∇g

i

(x

)z + ∇

2

g

i

(x

)]dt 5 0, ∀i ∈ I

0

. Mas, como (3.16) n˜ ao tem solu¸c˜ ao, temos que t = 0. Por isso,

T

f (x

)z < 0

T

g

i

(x

)z 5 0, ∀i ∈ I

0

.

(29)

Condi¸c˜ oes Necess´ arias de Otimalidade 20 Por outro lado,

T

f(x

)d = 0

T

g

i

(x

)d = 0, ∀i ∈ I

0

e

T

f(x

)d < 0

T

g

i

(x

)d < 0, ∀i ∈ I \ I

0

porque d ´ e cr´ıtica. Assim, vale que

T

f (x

)(d + εz) < 0

T

g

i

(x

)(d + εz) 5 0, ∀i ∈ I

para qualquer ε > 0 suficientemente pequeno. O que contradiz (3.11). E isto completa a prova.

Defini¸ c˜ ao 3.12 Um ponto x

∈ X fact´ıvel para (P) que satisfaz as condi¸ c˜ oes (3.11)- (3.15), com λ

0

6= 0, para toda dire¸ c˜ ao cr´ıtica d ∈ D(x

) ´ e chamado ponto Kuhn-Tucker de segunda ordem.

No pr´ oximo cap´ıtulo estabeleceremos condi¸c˜ oes adicionais para que pontos Kuhn-

Tucker e Kuhn-Tucker de segunda ordem sejam minimizadores locais.

(30)

Condi¸ c˜ oes Suficientes de Otimalidade

Neste cap´ıtulo abordaremos crit´ erios que garantem que as condi¸c˜ oes necess´ arias vistas no cap´ıtulo anterior tamb´ em s˜ ao suficientes para a otimalidade local. Tais resultados ser˜ ao obtidos para fun¸c˜ oes convexas e posteriormente generalizaremos a uma classe mais ampla de fun¸c˜ oes.

E bastante conhecido que sob hip´ ´ oteses de convexidade as condi¸c˜ oes de Kuhn- Tucker s˜ ao suficientes para a otimalidade global.

Teorema 4.1 Seja x ∈ X um ponto fact´ıvel de (P) e suponha que as fun¸ c˜ oes f, g

i

(i ∈ I(x)) s˜ ao continuamente diferenci´ aveis e convexas. Se existe λ ∈ R

n

que satisfaz as condi¸ c˜ oes

∇f (x) + X

i∈I

λ

i

∇g

i

(x) = 0 (4.1)

λ

i

= 0, i ∈ I (4.2)

λ

i

g

i

(x) = 0, i ∈ I, (4.3)

ent˜ ao x ´ e uma solu¸ c˜ ao ´ otima global de (P).

Demonstra¸ c˜ ao. Dado x ∈ X, temos que

g

i

(x) 5 0 = g

i

(x), ∀i ∈ I (x) e pela convexidade das g

i

, temos que

T

g

i

(x)(x − x) 5 0, i ∈ I(x), (4.4) e de (4.4) e (4.1) segue que

T

f (x)(x − x) = − X

i∈I

λ

i

T

g

i

(x)(x − x) = 0. (4.5) Mas, sendo f convexa, temos

T

f(x)(y − x) 5 f (y) − f(x), ∀y ∈ X. (4.6) De (4.5) e (4.6), segue que

f(x) 5 f(y), ∀y ∈ X, ou seja, x ´ e minimizador global de (P).

O objetivo central deste cap´ıtulo ´ e estabelecer a suficiˆ encia das condi¸c˜ oes de Kuhn-Tucker para uma classe mais ampla de fun¸c˜ oes.

21

(31)

Condi¸c˜ oes Suficientes de Otimalidade 22

4.1 Fun¸ c˜ oes invexas e suficiˆ encia das condi¸ c˜ oes de Kuhn-Tucker

A suficiˆ encia da condi¸c˜ oes de Kuhn-Tucker ´ e verificada sob hip´ oteses de con- vexidade, como observamos no in´ıcio deste cap´ıtulo. Neste momento, surge um ques- tionamento pertinente: existem classes de fun¸c˜ oes que generalizam a classe das fun¸c˜ oes convexas e que, para tais fun¸c˜ oes, as condi¸c˜ oes de Kuhn-Tucker ainda resultam suficientes para a otimalidade?

Hanson [16] foi um dos primeiros a dar contribui¸c˜ oes significativas no intuito de enfraquecer as hip´ oteses de convexidade na obten¸c˜ ao de condi¸c˜ oes suficientes de otima- lidade. Ele introduziu o conceito de fun¸c˜ ao invexa e demonstrou que - para problemas irrestritos - uma fun¸c˜ ao ´ e invexa se, e somente se, todos os seus pontos estacion´ arios s˜ ao minimizadores globais. Al´ em disso, sob hip´ oteses de invexidade se verifica a suficiˆ encia das condi¸c˜ oes de Kuhn-Tucker para a otimalidade global.

Inicialmente, trataremos o problema irrestrito Minimizar f (x)

sujeito a: x ∈ U (P

)

onde U ⊂ R

n

´ e um subconjunto aberto e n˜ ao vazio de R

n

e f : R

n

→ R ´ e uma fun¸c˜ ao diferenci´ avel definida em U.

O conceito de fun¸c˜ ao invexa ´ e a generaliza¸c˜ ao natural do conceito de fun¸c˜ ao convexa continuamente diferenci´ avel.

Defini¸ c˜ ao 4.2 Dizemos que uma fun¸ c˜ ao f ´ e invexa em x ∈ U se, para cada x ∈ U, existe uma fun¸ c˜ ao η : U × U → R

n

tal que

f (x) − f (x) = ∇

T

f (x)η(x, x).

Se f for invexa em cada ponto de U, diremos simplesmente que f ´ e invexa.

Observe que esta ´ e a extens˜ ao natural do conceito de fun¸c˜ ao convexa diferenci´ avel.

De fato, se f ´ e convexa e continuamente diferenci´ avel, ent˜ ao f ´ e invexa, com η(x, x) = x − x.

Note que ´ e poss´ıvel “construir” fun¸c˜ oes invexas como a composta F ◦ φ, onde F : R → R ´ e uma fun¸c˜ ao convexa e φ : R

n

→ R ´ e uma fun¸c˜ ao diferenci´ avel, com derivada invers´ıvel. De fato, se f = F ◦ φ e x, y ∈ R

n

, temos:

f(y) − f (x) = F (φ(y)) − F (φ(x))

= F

0

(φ(x))[φ(y) − φ(x)]

= f

0

(x)[φ

0

(x)]

−1

[φ(y) − φ(x)]

Desta desigualdade, segue que f ´ e invexa, com η(y, x) = [φ

0

(x)]

−1

[φ(y) − φ(x)].

Proposi¸ c˜ ao 4.3 Seja f : U ⊂ R

n

→ R uma fun¸ c˜ ao diferenci´ avel. Ent˜ ao f ´ e invexa se, e somente se, seus pontos estacion´ arios s˜ ao minimizadores globais de (P

).

Observa¸ c˜ ao 4 Lembremos que x ∈ U ´ e chamado ponto estacion´ ario (ou cr´ıtico) do

Problema (P

) se, ∇f(x) = 0.

Referências

Documentos relacionados

3.1 Síntese do Lariat-éter Coroa 3.1.1 Síntese do Complexo Cu-SIL15NH 3.1.2 Caracterização dos Sistemas 3.2 Estudo Eletroquímico 3.2.1 Materiais e Reagentes 3.2.2 Preparo da Pasta

4 Realizei, também, pesquisas em cinco municípios de quatro estados brasileiros, percorrendo pontos cruciais da trajetória de Patápio – Itaocara (RJ), a pequena cidade em que

O candidato deverá comparecer no local indicado para realização das Provas, pelo menos, 30 (trinta) minutos antes do horário previsto para o seu início,

O objetivo deste trabalho é determinar os valores do fator de descasamento espectral encontrado ao longo de um dia para um módulo de silício amorfo de tripla junção, utilizando

O tramado, a pena e as tropas: família, política e negócios do casal Domingos José de Almeida e Bernardina Rodrigues Barcellos Rio Grande de São Pedro, Século XIX..

A associação simbiótica de espécies florestais nativas do Estado do Rio Grande do Sul com fungos ectomicorrízicos poderá ser uma alternativa para o estabelecimento de mudas, e para

hemera sap-feeding larva: (A–D) head under dorsal, ventral, anterior and lateral views (arrow indicates stemma); (E) labrum, dorsal; (F) labium, ventral (arrow indicates

Durante os anos de 2013 e 2014 avaliou-se o comprimento da corola nos botões florais em pré-antese, o volume de néctar em flores de 1 dia e o número de flores produzidas por ramo sob