CAMILA ISOTON
CONDIC ¸ ˜ OES NECESS ´ ARIAS E SUFICIENTES DE OTIMALIDADE PARA PROBLEMAS COM UM E COM
V ´ ARIOS OBJETIVOS
CONDIC ¸ ˜ OES NECESS ´ ARIAS E SUFICIENTES DE OTIMALIDADE PARA PROBLEMAS COM UM E COM
V ´ ARIOS OBJETIVOS
Disserta¸c˜ ao apresentada ao Programa de P´ os-Gradua¸c˜ ao em Matem´ atica Aplicada da Universidade Federal do Paran´ a, como requisito parcial ` a obten¸c˜ ao do grau de Mestre em Matem´ atica Aplicada.
Orientadora: Prof.
aDr.
aLucelina Batista dos Santos.
Curitiba
Agosto de 2013
UNIVERSIDADE FEDERAL DO PARAN ´ A CAMILA ISOTON
CONDIC ¸ ˜ OES NECESS ´ ARIAS E SUFICIENTES DE OTIMALIDADE PARA PROBLEMAS COM UM E
COM V ´ ARIOS OBJETIVOS
Prof
a. Dr
a. Lucelina Batista dos Santos
Orientadora - Universidade Federal do Paran´ a - UFPR
Prof. Dr. Marko Antonio Rojas Medar Universidad del Bio-Bio - Chile
Prof. Dr. Lucas Garcia Pedroso Universidade Federal do Paran´ a - PR
Curitiba, 23 de agosto de 2013.
iii
Meus sinceros agradecimentos:
Agrade¸co primeiramente a minha querida orientadora, pela paciˆ encia, amizade e ajuda. Pelo tempo, esfor¸co e dedica¸c˜ ao
empregados nesta pesquisa.
Aos meus pais Expedito e Lorena, e a minha irm˜ a, Gisele, que estiveram sempre presentes ao meu lado (mesmo longe
fisicamente), me apoiando, incentivando, ajudando, compreendendo, enfim, por todo o carinho e amor que sempre tiveram comigo. Aos meus familiares que tanto me apoiaram e me
incentivaram.
Agrade¸co aos meus queridos colegas do PPGMA, Ana, Stela e Geovani, ao Dion pela ajuda, e a todos os demais pelos conhecimentos compartilhados, amizade e companheirismo. Este
trabalho tem um pouco de cada um de vocˆ es.
Aos professores do programa, que me ajudaram a crescer intelectual e pessoalmente, principalmente aos professores Ademir
e Elizabeth, pelo apoio e incentivo. Aos ex-colegas e professores do Departamento de Matem´ atica da UTFPR-Campus Pato Branco, principalmente Adriano e Gilberto pela ajuda e incentivo.
Aos membros da banca, professores Marko, Washington e Lucas, obrigada por aceitarem o convite.
As amigas Cristina e Patr´ıcia, pelo apoio, compreens˜ ao e amizade ao longo destes dois anos. Aos demais amigos que me apoiaram.
Muito Obrigada.
Ao Programa de P´ os-Gradua¸c˜ ao em Matem´ atica Aplicada da UFPR pela oportunidade e forma¸c˜ ao de qualidade propiciada. Ao
Conselho Nacional de Desenvolvimento Cient´ıfico e Tecnol´ ogico - CNPQ, pelo apoio financeiro.
E finalmente, mas n˜ ao menos importante, a Deus pela capacita¸c˜ ao concedida, pela for¸ca espiritual e por seguir ao meu lado.
iv
“ O que ´ e o homem na natureza? Um nada em rela¸ c˜ ao ao infinito, um tudo em rela¸ c˜ ao ao nada, um ponto a meio entre nada e tudo”
Blaise Pascal
v
rem, acreditarem, apoiarem e me da- rem for¸ cas para seguir.
vi
Resumo
Apresenta-se um estudo da existˆ encia de solu¸c˜ oes e das condi¸c˜ oes de otima- lidade de primeira e segunda ordem, para problemas com um e com v´ arios objetivos. Neste estudo, a convexidade desempenha um papel muito im- portante. Nosso objetivo foi estender os conceitos de convexidade para tais problemas, nos quais as fun¸c˜ oes envolvidas s˜ ao diferenci´ aveis. Definimos os conceitos de pontos estacion´ arios e de condi¸c˜ oes de Kuhn-Tucker para problemas mono-objetivos e os seus an´ alogos para os problemas multiob- jetivos. Neste ˆ ambito, os Teoremas da Alternativa foram largamente em- pregados. Introduzir-se-˜ ao conceitos de invexidade, nos quais, os problemas KT-invexos e KT-pseudoinvexos foram a chave para garantir a suficiˆ encia destas condi¸c˜ oes.
Palavras-chave: Condi¸c˜ oes de Otimalidade; otimiza¸c˜ ao mono e multiob- jetivos; fun¸c˜ oes convexas generalizadas, KT-invexidade.
vii
In this work we study the existence of the solutions and the first- and second- order optimality conditions (ou first and second order optimality conditions) for scalar and vector optimization problems. In this study, the plays a very important role. The main aspect of this work was to extend the concepts of convexity for such optimization problems, where the functions are differenti- able. We define concepts of stationary points and Kuhn-Tucker conditions for mono-objective problems and for their analogues multi-objective pro- blems. In this context, Theorems of Alternative have been widely used.
Invexity concepts have been used, in which the problems KT-invexos and KT-pseudoinvexos was key to ensure the sufficiency of these conditions.
Keywords:Optimality Conditions; scalar and vector (ou mono-objective and multi-objective) optimization problems; generalized convexity, KT- invexity.
viii
Sum´ ario
1 Introdu¸ c˜ ao 1
I Problema Mono-objetivo 3
2 Existˆ encia de Solu¸ c˜ oes 4
3 Condi¸ c˜ oes necess´ arias de otimalidade 12 3.1 Condi¸c˜ oes de primeira ordem . . . . 12 3.2 Condi¸c˜ oes de segunda ordem . . . . 17
4 Condi¸ c˜ oes Suficientes de Otimalidade 21
4.1 Fun¸c˜ oes invexas e suficiˆ encia das condi¸c˜ oes de Kuhn-Tucker . . . . 22 4.2 KT-invexidade e condi¸c˜ oes suficientes de primeira ordem . . . . 23 4.3 KT-invexidade de segunda ordem e condi¸c˜ oes suficientes de segunda ordem 26
II Problema Multiobjetivo 31
5 Formula¸ c˜ ao do problema, conceitos de solu¸ c˜ ao e escalariza¸ c˜ ao 32 5.1 Formula¸c˜ ao do problema e conceitos de solu¸c˜ ao . . . . 32 5.2 Escalariza¸c˜ ao . . . . 34
6 Existˆ encia de solu¸ c˜ oes 39
7 Condi¸ c˜ oes necess´ arias de otimalidade 43 7.1 Condi¸c˜ oes de primeira ordem . . . . 43 7.2 Condi¸c˜ oes de segunda ordem . . . . 44
8 Condi¸ c˜ oes suficientes de otimalidade 46
8.1 Condi¸c˜ oes de primeira ordem . . . . 46 8.2 Condi¸c˜ oes de segunda ordem . . . . 48 9 Conclus˜ oes e possibilidades de trabalho futuro 53
Referˆ encias Bibliogr´ aficas 55
ix
Introdu¸ c˜ ao
Diariamente encontramos situa¸c˜ oes que nos levam ` a tomada de decis˜ oes. Esse tipo de problema surge por exemplo, nas ´ areas da Engenharia, Economia, Administra¸c˜ ao, etc. Inicialmente, restrito a problemas que envolvem um ´ unico objetivo, os modelos de otimiza¸c˜ ao e suas t´ ecnicas visam minimizar (ou maximizar) uma fun¸c˜ ao (nem sempre li- near), denominada fun¸c˜ ao objetivo, de v´ arias vari´ aveis escolhidas dentro de alguma regi˜ ao admiss´ıvel (fact´ıvel), que ´ e definida pelas restri¸c˜ oes impostas ` as vari´ aveis do problema.
Esses problemas que buscam calcular o ponto ´ otimo (de m´ınimo ou m´ aximo) de alguma fun¸c˜ ao objetivo, sujeita ou n˜ ao a restri¸c˜ oes, s˜ ao chamados problemas de pro- grama¸c˜ ao matem´ atica.
No sentido de contemplar situa¸c˜ oes mais realistas, os problemas de programa¸c˜ ao matem´ atica evolu´ıram para o estudo de v´ arios objetivos, em geral conflitantes, que con- correm para uma determinada solu¸c˜ ao. Esses problemas de otimiza¸c˜ ao com objetivos m´ ultiplos, denotados problemas multiobjetivos, s˜ ao interessantes tanto do ponto de vista te´ orico quanto aplicado a problemas reais (para aplica¸c˜ oes veja, por exemplo, [26] e ad- mitem a seguinte formula¸c˜ ao:
minimizar f(x) = (f
1(x), . . . , f
p(x))
sujeito a x ∈ D (1.1)
em que D ⊂ IR
n´ e um conjunto n˜ ao vazio e f : IR
n→ IR.
Conceitualmente, um ponto ´ otimo de (1.1) ´ e chamado eficiente, quando n˜ ao ´ e poss´ıvel melhorar nenhum objetivo sem piorar em algum outro. Essa nomenclatura ´ e devido a Pareto, um dos precursores neste campo da Otimiza¸c˜ ao Multiobjetivo, que tratou do tema em seu c´ elebre trabalho ”Cours d’Econimie Politique” [30].
Em meados da d´ ecada de 40 muitos trabalhos surgiram no campo da otimiza¸c˜ ao (auge da Pesquisa Operacional), os quais se destacam Charnes e Cooper, Gale, Kuhn e Tucker e de Karlin. Entre 60 e 70 a literatura sobre este tema foi se sofisticando e no¸c˜ oes como eficiˆ encia fraca e eficiˆ encia pr´ opria surgiram. A grosso modo, um ponto
´ e fracamente eficiente se n˜ ao ´ e poss´ıvel melhorar todos os objetivos simultaneamente e propriamente eficiente se ´ e solu¸c˜ ao eficiente e se os quocientes entre ganho em um objetivo e perda com respeito aos demais ´ e limitada.
A partir disso, in´ umeras publica¸c˜ oes tˆ em aparecido visando desenvolver crit´ erios que permitam decidir quando um ponto fact´ıvel ´ e ou n˜ ao eficiente. Um dos m´ etodos mais cl´ assicos tenta relacionar o problema multiobjetivo com algum problema escalar espec´ıfico, cuja teoria ´ e bastante desenvolvida.
1
Introdu¸c˜ ao 2 Nesse ˆ ambito, a convexidade desempenha um papel fundamental. Sob hip´ oteses de convexidade as condi¸c˜ oes necess´ arias e suficientes de otimalidade s˜ ao trivialmente es- tabelecidas, as quais garantem a existˆ encia de pontos ´ otimos (eficientes).
Desde a ´ ultima d´ ecada outras fam´ılias de fun¸c˜ oes mais gerais que as fun¸c˜ oes convexas come¸caram a surgir no intuito de generalizar o conceito de convexidade. Tais fun¸c˜ oes s˜ ao conhecidas por fun¸c˜ oes convexas generalizadas. Entre elas, as fun¸c˜ oes invexas introduzidas por Hanson [16] tem grande destaque, uma vez que esta classe de fun¸c˜ oes tem a propriedade de que todo ponto ´ e m´ınimo global quando, e somente quando, for estacion´ ario. Al´ em disso, para problemas definidos por restri¸c˜ oes de desigualdades, as condi¸c˜ oes de Kuhn-Tucker s˜ ao suficientes para a otimalidade, quando as fun¸c˜ oes envolvi- das no problema s˜ ao invexas. Al´ em disso, Martin [4], introduziu uma classe de problemas, denominados Kuhn-Tucker invexos (KT-invexos), que inclui a classe dos problemas inve- xos, a qual satisfaz a propriedade: o problema ´ e KT-invexo quando, e somente quando, todo ponto que satisfaz as condi¸c˜ oes de Kuhn-Tucker ´ e minimo global. Contrapartidas deste resultado para o problema vetorial (1.1) foram estabelecidas em Osuna-G´ omez et al.[25] para solu¸c˜ oes fracamente eficientes.
At´ e agora, quando citamos as condi¸c˜ oes necess´ arias e suficientes de otimalidade estavamos na verdade nos referindo as condi¸c˜ oes de otimalidade de primeira ordem. ´ E sabido que as condi¸c˜ oes de otimalidade de segunda ordem s˜ ao de suma importˆ ancia, j´ a que elas nos auxiliam a eliminar candidatos n˜ ao ´ otimos em nossos problemas de pro- grama¸c˜ ao matem´ atica. As condi¸c˜ oes necess´ arias de segunda ordem s˜ ao utilizadas para eliminar pontos estacion´ arios n˜ ao ´ otimos, e as suficientes de segunda ordem nos ajudam a determinar quando um dado ponto ´ e de fato minimizador.
Trabalhando com convexidade generalizada, ` a luz das condi¸c˜ oes de segunda or- dem, Ginchev e Ivanov [27] fizeram para problemas com um objetivo um interessante trabalho usando a no¸c˜ ao de segunda ordem e de derivadas direcionais. Al´ em disso, Iva- nov [28] introduziu a no¸c˜ ao de KT-invexidade de segunda ordem e provou que um pro- blema ´ e KT-invexo de segunda ordem quando, e somente quando, todo ponto que satisfaz condi¸c˜ oes necess´ arias de segunda ordem ´ e um minimizador global deste problema.
Visando estender os conceitos explorados por Ginchev e Ivanov [27, 28] aos pro- blemas multiobjetivos, Santos, et al. [15] definem pontos de Kuhn-Tucker de segunda ordem e deriva as condi¸c˜ oes necess´ arias de otimalidade de segunda ordem para problemas multiobjetivos. Al´ em disso, introduzem o conceito de KT-pseudoinvexidade de segunda ordem cuja principal propriedade ´ e: o problema multi-objetivo ´ e KT-pseudoinvexo de segunda ordem quando, e somente quando, todo ponto Kuhn-Tucker de segunda ordem do problema ´ e solu¸c˜ ao fracamente eficiente.
Este trabalho divide-se em duas partes. A primeira, concentra-se no estudo de
problemas de programa¸c˜ ao matem´ atica com um objetivo. O intuito ´ e estudar a existˆ encia
de solu¸c˜ oes para tais problemas e garantir as condi¸c˜ oes necess´ arias e suficientes de oti-
malidade. A segunda, trata dos problemas de programa¸c˜ ao matem´ atica multiobjetivos, e
uma an´ alise an´ aloga a realizada na primeira parte ´ e estudada.
Problema Mono-objetivo
3
Cap´ıtulo 2
Existˆ encia de Solu¸ c˜ oes
Inicialmente, consideraremos o seguinte problema de otimiza¸c˜ ao:
Minimizar f(x)
sujeito a x ∈ D (2.1)
onde D ⊂ IR
n´ e um conjunto n˜ ao vazio e f : IR
n→ IR.
Para este problema, a fun¸c˜ ao f ser´ a chamada fun¸c˜ ao objetivo e D ´ e o conjunto de restri¸c˜ oes (tamb´ em chamado conjunto vi´ avel). Cada ponto x ∈ D ser´ a chamado ponto fact´ıvel (ou ponto vi´ avel).
Os conceitos de solu¸c˜ ao para o problema (2.1) s˜ ao os seguintes:
• Um ponto fact´ıvel x
∗∈ D ´ e um minimizador (ou solu¸c˜ ao) do problema (2.1) se f (x
∗) ≤ f (x), ∀x ∈ D.
• Um ponto fact´ıvel x
∗∈ D ´ e um minimizador local do problema (2.1) se existe uma vizinhan¸ca V do ponto x
∗tal que
f(x
∗) ≤ f(x), ∀x ∈ D ∩ V.
• O valor ´ otimo do problema (2.1), se define com v = inf
x∈Df (x).
A figura a seguir ilustra os conceitos de minimizador e de minimizador local.
4
Figura 2.1: Caracteriza¸c˜ ao de m´ aximos e m´ınimos
Na primeira parte desta Disserta¸c˜ ao consideraremos o seguinte problema de oti- miza¸c˜ ao:
Minimizar f(x)
sujeito a: g
i(x) ≤ 0, i = 1, · · · , m x ∈ U
(P) onde f, g
i: IR
n→ IR e U ⊂ IR
n´ e um subconjunto aberto e n˜ ao vazio de IR
n.
Por simplicidade, definiremos I = {1, · · · , m} . Denotaremos
X = {x ∈ U : g
i(x) ≤ 0, i ∈ I}
ao conjunto fact´ıvel. Note que, o problema (P) ´ e um caso particular do problema (2.1), tomando-se D = X.
Cada fun¸c˜ ao g
i: IR
n→ IR ´ e uma restri¸c˜ ao (de desigualdade) do problema (P).
Para cada ponto fact´ıvel x ∈ X, definiremos o conjunto I(x) = {i ∈ I : g
i(x) = 0}
o qual ´ e chamado conjunto dos ´ındices das restri¸c˜ oes ativas em x.
O objetivo fundamental deste cap´ıtulo ´ e estudar os resultados de existˆ encia de solu¸c˜ oes para o problema (P). Antes por´ em, recordamos o muito conhecido Teorema de Weirstrass, o qual est´ a muito relacionado a este tema:
Proposi¸ c˜ ao 2.1 [Teorema de Weierstrass] Suponha que D ´ e um subconjunto compacto e n˜ ao-vazio de IR
ne que a fun¸ c˜ ao f : IR
n→ IR ´ e cont´ınua em D. Ent˜ ao existem x
1, x
2∈ D tais que
f(x
1) ≤ f(x) ≤ f(x
2), ∀x ∈ D.
Para demonstra¸c˜ ao, veja [6].
Em particular, se f ´ e cont´ınua e o conjunto fact´ıvel D ´ e compacto e n˜ ao vazio, ent˜ ao o problema (P) tem solu¸c˜ ao.
Neste cap´ıtulo estudaremos alguns resultados de existˆ encia de solu¸c˜ oes para o problema (P) com hip´ oteses mais fracas de continuidade (na fun¸c˜ ao objetivo f) e de compacidade do conjunto fact´ıvel X.
Para isto, iniciamos recordando as defini¸c˜ oes de semi-continuidade:
6 Defini¸ c˜ ao 2.2 Seja a fun¸ c˜ ao f : R
n→ R .
(1) Dizemos que f ´ e semi-cont´ ınua inferiormente (sci, por simplicidade) em x ∈ R
n, se para cada ε > 0 existe um r = r(ε) > 0 tal que
f(x) > f (x) − ε, ∀x ∈ B(x, r)
(onde B(x, r) denota a bola aberta de centro x e raio r). Se f for sci em cada x ∈ R
ndiremos simplesmente que f ´ e semi-cont´ınua inferiormente.
(2) Dizemos que f ´ e semi-cont´ ınua superiormente (scs, por simplicidade) em x se(−f ) for sci em x. Similarmente, se f for scs em cada x ∈ R
ndiremos sim- plesmente que f ´ e semi-cont´ınua superiormente.
Note que a no¸c˜ ao de semi-continuidade ´ e mais fraca que a de continuidade. Se f ´ e cont´ınua em x, ent˜ ao f ´ e sci e scs em x. O exemplo a seguir mostra que semi-continuidade inferior n˜ ao implica continuidade.
Exemplo 2.3 Seja a fun¸ c˜ ao f : IR → IR definida por:
f (x) =
x
2, se x ≤ 1
−2x
2+ 4x, se x > 1. (2.2)
Temos que f ´ e semi-cont´ınua inferior em x = 1, entretanto, pelo gr´ afico (Figura 2.2) abaixo, podemos observar que o limite lateral inferior tende a 1 e o superior a 2, logo f n˜ ao ´ e cont´ınua em x = 1.
Figura 2.2: Fun¸c˜ ao semi-cont´ınua inferior
A seguinte proposi¸c˜ ao nos d´ a uma caracteriza¸c˜ ao alternativa de semi-continuidade:
Proposi¸ c˜ ao 2.4 Uma fun¸ c˜ ao f : R
n→ R ´ e sci em x ∈ R
nse, e somente se, para toda sequencia (x
k) convergente a x, tem-se
f (x) ≤ lim inf
k→∞
f (x
k). (2.3)
Demonstra¸ c˜ ao. Seja f uma fun¸c˜ ao sci em x e considere uma sequencia (x
k), com x
k→ x.
Tome ε > 0 arbitr´ ario. Sendo f sci em x, existe uma bola aberta B (x, r), tal que f (x) >
f(x) − ε, ∀x ∈ B (x, r). Como x
k→ x, existe um n
0∈ N tal que x
k∈ B (x, r), ∀k > n
0. Em particular, f(x
k) > f (x) − ε, ∀k > n
0. Em particular,
lim inf
k→∞
f (x
k) ≥ f (x) − ε
e, sendo ε > 0 arbitr´ ario, lim inf
k→∞
f (x
k) ≥ f(x).
Para demonstra¸c˜ ao da rec´ıproca, suponha por contradi¸c˜ ao que (2.3) ´ e v´ alido para cada sequˆ encia x
k→ x e que f n˜ ao ´ e sci em x. Ent˜ ao, existe um ε
0> 0, tal que, para cada r > 0, existe um x ∈ B (x, r) tal que f (x) ≤ f (x) − ε
0. Assim sendo, existe uma sequˆ encia z
k→ x tal que f(z
k) ≤ f(x) − ε
0, ∀k ∈ N . Da hip´ otese feita,
f (x) ≤ lim inf
k→∞
f(z
k) ≤ f(x) − ε
0o que ´ e absurdo.
Sejam f : R
n→ R uma fun¸c˜ ao dada e α ∈ R . Se define o conjunto de n´ıvel,
S
α(f) = {x ∈ IR
n: f (x) ≤ α}.
Figura 2.3: Conjunto de N´ıveis
Observe os itens (a) e (b) da Figura 2.3. Em (a) est´ a ilustrado o gr´ afico das curvas de n´ıvel da fun¸c˜ ao representada em (b), onde os planos cortantes est˜ ao represen- tados em azul claro. Note que curvas de n´ıvel muito espa¸cadas significa que o gr´ afico cresce lentamente; duas curvas de n´ıvel muito pr´ oximas significa que o gr´ afico cresce abruptamente.
O seguinte resultado nos d´ a uma caracteriza¸c˜ ao de sci em termos dos conjuntos de n´ıvel.
Proposi¸ c˜ ao 2.5 Uma fun¸ c˜ ao f : R
n→ R ´ e sci se, e somente, se S
α(f ) ´ e fechado, para cada α ∈ R .
Demonstra¸ c˜ ao. Sejam f uma fun¸c˜ ao sci e α ∈ R . Mostraremos que o conjunto S
α(f )
´ e fechado. Para isto, provaremos que seu complementar, [S
α(f)]
c´ e aberto. Tome x ∈ [S
α(f )]
c, ent˜ ao, f (x) > α e, para cada ε > 0, existe uma bola B(x, r), tal que, f (x) >
f(x)− ε, ∀x ∈ B(x, r). Ent˜ ao, f(x) > α− ε e, como ε > 0 ´ e arbitr´ ario, temos que f(x) > α para cada x ∈ B (x, r). Ou seja, [S
α(f)]
c´ e aberto.
Agora, demonstramos a rec´ıproca. Suponha que o conjunto [S
α(f )]
c´ e aberto,
para todo α ∈ R . Fixe x ∈ IR
ne ε > 0. Como f(x) > f (x) − ε, ent˜ ao x ∈ [S
α0(f)]
c, onde
8 α
0= f (x)−ε. Assim, existe r > 0 tal que B (x, r) ⊂ [S
α0(f )]
c, isto ´ e, f (x) > f (x)−ε, ∀x ∈ B(x, r) ou, equivalentemente, f ´ e sci em x.
A seguinte proposi¸c˜ ao nos fornece condi¸c˜ oes suficientes para que o conjunto fact´ıvel de (P) seja fechado.
Corol´ ario 2.6 Seja U ⊂ R
num conjunto fechado. Se as restri¸ c˜ oes g
i, i ∈ I , s˜ ao sci, ent˜ ao X = {x ∈ U : g
i(x) ≤ 0, i ∈ I} ´ e fechado.
Demonstra¸ c˜ ao. Se g
is˜ ao sci, ent˜ ao pela Proposi¸c˜ ao 2.4, o conjunto S
0(g
i) s˜ ao fechados.
Mas, podemos escrever
X = U ∩ (
m
\
i=1
S
0(g
i)),
ou seja, X ´ e interse¸c˜ ao de m + 1 fechados e, portanto, X ´ e fechado.
Um conceito necess´ ario nesta discuss˜ ao ´ e o de fun¸c˜ ao coerciva:
Defini¸ c˜ ao 2.7 Sejam f : R
n→ R uma fun¸ c˜ ao dada e X ⊂ R
num subconjunto n˜ ao vazio.
Diremos que f ´ e coerciva sobre X se para toda sequˆ encia (x
k) ⊂ X, tal que ||x
k|| → ∞, tem-se f(x
k) → +∞.
Figura 2.4: Fun¸c˜ ao coerciva [8]
A Figura 2.4 ilustra que f : IR → IR dada por f(x) = x
4− x
2´ e coerciva.
Proposi¸ c˜ ao 2.8 Sejam f : R
n→ R e X ⊂ R
num subconjunto n˜ ao vazio. Ent˜ ao f ´ e coerciva sobre X se, e somente se, o conjunto
S
α(f, X) = {x ∈ X : f(x) ≤ α}
´ e limitado, para todo α ∈ R .
Demonstra¸ c˜ ao. Inicialmente, suponha que f ´ e coerciva e, por contradi¸c˜ ao, suponha que exista um α
0∈ R tal que o conjunto S
α0(f, X) ´ e ilimitado. Ent˜ ao, existe uma sequˆ encia (x
k) ⊂ X tal que ||x
k|| → ∞ e f (x
k) ≤ α
0, para cada k, que contradiz o fato de f ser coerciva.
Agora, demonstramos a rec´ıproca. Tome (x
k) ⊂ X uma sequˆ encia tal que ||x
k|| →
∞, e suponha que os conjuntos S
α(f, X) s˜ ao limitados, ∀α ∈ R . Ent˜ ao, para cada n ∈ N
fixado, existe um ´ındice k(n) tal que x
k∈ / S
k(n)(f, X ), ∀k ≥ k(n). Como x
k∈ / S
k(n)(f, X)
ent˜ ao f(x
k) > k(n), ∀k ≥ k(n) e, portanto, f (x
k) → +∞. Logo, f ´ e coerciva.
Corol´ ario 2.9 Suponha que no problema (P), pelo menos uma das restri¸ c˜ oes g
i, i ∈ I ´ e coerciva. Ent˜ ao, o conjunto fact´ıvel X ´ e limitado.
Demonstra¸ c˜ ao. Suponha que existe um ´ındice i
0∈ I tal que g
i0´ e coerciva. Ent˜ ao, pela Proposi¸c˜ ao anterior, o conjunto de n´ıvel S
0(g
i0) = {x ∈ R
n: g
i0(x) ≤ 0} ´ e limitado. Com maior raz˜ ao, X ⊂ S
0(g
i0) tamb´ em ´ e limitado.
Outro conceito que necessitaremos ´ e o de solu¸c˜ ao ´ otima com tolerˆ ancia:
Defini¸ c˜ ao 2.10 Sejam ε ≥ 0 dado e v(P ) o valor ´ otimo do problema (P). Definimos o conjunto
X(ε) = b {x ∈ X : f(x) ≤ v(P ) + ε}
ao qual chamaremos conjunto das solu¸ c˜ oes ´ otimas de (P) com tolerˆ ancia ε.
Observe que, em particular, o conjunto X(0) = b {x ∈ X : f (x) ≤ v(P )} . Exemplo 2.11 No caso da figura abaixo, X(ε) = ˆ
x ∈ IR
+: x
2≤ ε , cuja fun¸ c˜ ao ´ e f(x) = x
2.
Figura 2.5: Valor ´ otimo com tolerˆ ancia ε
O pr´ oximo teorema apresenta um resultado de existˆ encia de solu¸c˜ oes, relaxando-se a hip´ otese de compacidade do conjunto fact´ıvel. Para demonstrar tal fato, necessitaremos do seguinte resultado:
Proposi¸ c˜ ao 2.12 Se f ´ e sci e X ´ e um conjunto fechado, ent˜ ao os conjuntos X(ε) b s˜ ao fechados, para cada ε ≥ 0.
Demonstra¸ c˜ ao. Tome ε ≥ 0. Se v(P ) = −∞, ent˜ ao X(ε) = b ∅ , logo ´ e limitado. Agora, suponhamos que v(P ) ´ e finito. Como f ´ e sci, pela Proposi¸c˜ ao (2.5), o conjunto {x ∈ R
n: f(x) ≤ v(P ) + ε} ´ e fechado. Al´ em disso, por hip´ otese, X tamb´ em ´ e fechado. Portanto, o conjunto
X(ε) = b X ∩ {x ∈ R
n: f (x) ≤ v(P ) + ε}
´ e fechado.
Finalmente, estabeleceremos os principais resultados desta Se¸c˜ ao.
10 Teorema 2.13 No problema (P), suponha que o conjunto X ´ e compacto e n˜ ao vazio e que a fun¸ c˜ ao objetivo f ´ e sci. Ent˜ ao o conjunto X(0) b das solu¸ c˜ oes ´ otimas de (P) ´ e compacto e n˜ ao vazio.
Demonstra¸ c˜ ao. A demonstra¸c˜ ao se dar´ a em duas partes. Na primeira delas, verificaremos que X(0) ´ b e n˜ ao-vazio e, na segunda, que ´ e compacto.
Seja β = v(P ) o valor ´ otimo do problema (P), ent˜ ao existe uma sequˆ encia (x
k) ⊂ X tal que β = lim
k→∞
f (x
k) e, se α > β, existe k ∈ N tal que
x
k∈ {x ∈ X : f(x) ≤ α} = S
α(f, X ), ∀k ≥ k.
Sendo X limitado, o conjunto S
α(f, X) tamb´ em ´ e limitado. Assim sendo, a sequˆ encia (x
k) ´ e limitada e portanto, admite uma subsequˆ encia (x
k0) tal que x
k0 k−→
0→∞x.
Como x
k0∈ S
α(f, X), ∀k
0≥ k e S
α(f, X) ´ e fechado, ent˜ ao x ∈ S
α(f, X). Considere a sequˆ encia (f (x
k0)). ´ E claro que f(x
k0)
k0→∞
−→ β, e sendo f uma fun¸c˜ ao sci, f (x) ≤ lim inf
k0→∞
f (x
k0) = lim
k0→∞
f(x
k0) = β.
Por outro lado, como x ∈ X, temos que β ≤ f (x) e portanto, f(x) = v(P ), ou seja, x ∈ X(0). b
Agora, verifiquemos que o conjunto X(0) ´ b e compacto. Sendo f sci e X fechado, ent˜ ao, pela Proposi¸c˜ ao 2.12, o conjunto X(0) ´ b e fechado. Al´ em disto, X(0) b ⊂ X e, por hip´ otese, X ´ e limitado. Logo, X(0) ´ b e limitado. Portanto X(0) ´ b e compacto.
Observa¸ c˜ ao 1 O Teorema 2.13, fornece um resultado de existˆ encia de solu¸ c˜ oes para o problema (P) com hip´ oteses relaxadas de continuidade na fun¸ c˜ ao objetivo f. (Compare com a Proposi¸ c˜ ao 2.1).
O pr´ oximo resultado estabelece que, sob hip´ oteses de coercividade da fun¸c˜ ao objetivo, os conjuntos X(ε) s˜ b ao limitados.
Proposi¸ c˜ ao 2.14 Seja f uma fun¸ c˜ ao coerciva sobre o conjunto fact´ıvel X. Ent˜ ao, para cada ε ≥ 0, os conjuntos X(ε) b s˜ ao limitados.
Demonstra¸ c˜ ao. Tome ε ≥ 0. Se v(P ) = −∞, ent˜ ao X(ε) = b ∅ e, portanto, limitado.
Suponhamos, que v(P ) ´ e finito. Se f ´ e coerciva sobre X,, ent˜ ao pela Proposi¸c˜ ao (2.8) o conjunto S
v(P)+ε(f, X ) = X(ε) ´ b e limitado.
O teorema que se segue apresenta outro resultado de existˆ encia de solu¸c˜ oes, relaxando-se a hip´ otese de compacidade do conjunto fact´ıvel.
Teorema 2.15 Suponha que X ´ e fechado, n˜ ao vazio e que a fun¸ c˜ ao f ´ e sci. Se f ´ e coerciva, ent˜ ao X(0) b ´ e compacto e n˜ ao-vazio.
Demonstra¸ c˜ ao. Seja β = v (P ) o valor ´ otimo de (P). Ent˜ ao existe uma sequˆ encia (x
k) ⊂ X tal que β = lim
k→∞
f (x
k). Primeiro vamos demonstrar que X(0) ´ b e n˜ ao-vazio. Seja α > β, ent˜ ao existe k ∈ N tal que
x
k∈ S
α(f, X) = {x ∈ X : f (x) ≤ α}, ∀k ≥ k.
Segue da Proposi¸c˜ ao 2.8 que o conjunto S
α(f, X ) ´ e limitado e, existe uma subsequˆ encia (x
k0) de (x
k) tal que x
k0 k0→∞
−→ x. Como X ´ e fechado, temos x ∈ X. Considere a sequˆ encia (f (x
k0)). Temos que β = lim
k→∞
f(x
k0) e como f ´ e sci, f(x) ≤ lim inf
k0→∞
f (x
k0) = β.
Como x ∈ X, temos que β ≤ f (x), ou seja β = f(x). Logo, x ∈ X(0). b
Provaremos agora a compacidade de X(0). b Como X fechado e f sci, segue da Proposi¸c˜ ao (2.12) que X(0) ´ b e fechado. Sendo f coerciva, ent˜ ao pela Proposi¸c˜ ao 2.14 X(0) b
´ e limitado.
Exemplo 2.16 [13] Dados uma regi˜ ao convexa fechada n˜ ao-vazia C ⊆ IR
ne um ponto x ∈ IR
n, aplicaremos os teoremas vistos anteriormente sobre o estudo da existˆ encia e caracteriza¸ c˜ ao dos pontos em C que minimizam, sobre C, uma certa distˆ ancia euclideana ao ponto x, isto ´ e, o estudo do problema:
Minimizar kx − xk
Qsujeito a: x ∈ C (Q)
onde kyk
Q= y
TQy
12, Q ´ e uma matriz (n × n) sim´ etrica definida positiva (em particular, se Q=I, I a matriz identidade de ordem n, ent˜ ao temos a distˆ ancia euclideana habitual).
Mais precisamente, estudaremos o problema equivalente, com fun¸ c˜ ao objetivo di- ferenci´ avel:
Minimizar
12kx − xk
2Qsujeito a: x ∈ C (Q)
A fun¸ c˜ ao objetivo f(x) de (Q) ´ e cont´ınua. Mostraremos que f (x) ´ e coerciva:
Como Q ´ e definida positiva, ent˜ ao a seguinte rela¸ c˜ ao ´ e v´ alida para todo x ∈ IR
nx
TQx ≥ α kxk
2, com α > 0
Logo,
(α)
12kxk ≤ kxk
Q≤ kx − xk
Q+ kxk
Q(2.4)
onde α > 0 e kxk → +∞, por hip´ otese. Ent˜ ao, por (2.4), kx − xk
Q→ +∞. Como
f(x) =
12kx − xk
2Q, temos que f(x) → +∞. Portanto f (x) ´ e coerciva e, pelo Teorema
2.15, conclu´ımos que o problema (Q) admite solu¸ c˜ oes ´ otimas.
Cap´ıtulo 3
Condi¸ c˜ oes necess´ arias de otimalidade
Neste Cap´ıtulo, consideraremos as condi¸c˜ oes que devem ser satisfeitas para que um ponto fact´ıvel do problema (P) seja ´ otimo. Ser˜ ao consideradas condi¸c˜ oes de 1
a. ordem (i.e., condi¸c˜ oes que envolvem as derivadas de 1
a. ordem) e tamb´ em de segunda ordem (i.e., condi¸c˜ oes que envolvem as derivadas segundas).
3.1 Condi¸ c˜ oes de primeira ordem
Iniciamos com uma caracteriza¸c˜ ao geom´ etrica de otimalidade local para o pro- blema (P):
Proposi¸ c˜ ao 3.1 Suponha que as fun¸ c˜ oes f, g
i, i ∈ I, s˜ ao diferenci´ aveis. Se x
∗∈ X ´ e um minimizador local de (P), ent˜ ao o sistema
∇
Tf (x
∗)d < 0
∇
Tg
i(x
∗)d < 0, i ∈ I (x
∗) (3.1) n˜ ao admite solu¸ c˜ ao d ∈ R
n.
Demonstra¸ c˜ ao. Seja x
∗∈ X um minimizador local de (P). Suponhamos por contradi¸c˜ ao que exista uma dire¸c˜ ao d b ∈ R
nque resolve o Sistema (3.1). Como x
∗∈ U e U ´ e aberto, ent˜ ao existe um δ
0> 0 tal que x
∗+ t d b ∈ U, para todo t ∈ (0, δ
0). Al´ em disso, para cada i ∈ I (x
∗) fixado, temos
0 > ∇
Tg
i(x
∗) d b = lim
t→0+
g
i(x
∗+ t d) b − g
i(x
∗)
t .
Logo, para cada i ∈ I (x
∗) existe δ
i> 0 tal que
g
i(x
∗+ t d) b − g
i(x
∗) = g
i(x
∗+ t d) b < 0, ∀t ∈ (0, δ
i).
Por outro lado, para i ∈ I \ I(x
∗) temos que g
i(x
∗) < 0 e como as fun¸c˜ oes g
is˜ ao cont´ınuas, existe δ
i> 0 tal que
g
i(x
∗+ t d) b < 0, ∀t ∈ (0, δ
i).
Definindo-se b δ = min{δ
0, · · · , δ
m}, temos que x
∗+ t d b ∈ X, para todo t ∈ (0, b δ). Por outro lado, temos
0 > ∇
Tf(x
∗) d b = lim
t→0+
f (x
∗+ t d) b − f(x
∗) t
12
e portanto, existe δ
0> 0 tal que f(x
∗+ t d) b < f (x
∗), ∀t ∈ (0, δ
0).
Defina δ = min{b δ, δ
0}. Para cada t ∈ (0, δ), obtemos os pontos da forma x
∗+ t d b que s˜ ao fact´ıveis para (P) e f(x
∗+ t d) b < f (x
∗), contrariando a otimalidade local de x
∗.
Utilizando-se um Teorema de Alternativa, podemos converter a condi¸c˜ ao geom´ etrica de otimalidade dada na proposi¸c˜ ao anterior em uma regra de multiplicadores.
Adotaremos a seguinte nota¸c˜ ao: Para x, y ∈ R
n, escreveremos x < y ⇐⇒ x
i< y
i, i = 1, · · · , n
x 5 y ⇐⇒ x
i≤ y
i, , i = 1, · · · , n x ≤ y ⇐⇒ x 5 y e x 6= y.
Observa¸ c˜ ao 2 Recordemos que:
(i) Um conjunto D ⊂ IR
n´ e chamado conjunto convexo se para quaisquer x ∈ D, y ∈ D e α ∈ [0, 1] tem-se que αx + (1 − α)y ∈ D.
Figura 3.1: (a) Conjunto convexo (b) Conjunto n˜ ao convexo
(ii) Seja D ⊂ IR
num conjunto convexo. Dizemos que a fun¸ c˜ ao f : D → IR ´ e convexa em D quando para quaisquer x, y ∈ D e t ∈ [0, 1], tem-se que
f ((1 − t)x + ty) 5 (1 − t)f (x) + tf (y)
Figura 3.2: Fun¸c˜ ao convexa
Pode-se provar: se f : D → R ´ e uma fun¸c˜ ao convexa e continuamente dife- renci´ avel em D, convexo, ent˜ ao ∀x, y ∈ D
f(x) + ∇
Tf (x)(y − x) 5 f (y).
Para maiores detalhes, veja [1].
Condi¸c˜ oes Necess´ arias de Otimalidade 14 Lema 3.2 [Teorema de Gordan Generalizado] Sejam D ⊆ IR
num conjunto convexo e f : D → IR
p, uma fun¸ c˜ ao convexa definida em D. Temos que:
(i) N˜ ao existe x ∈ D tal que:
f
j(x) < 0, ∀j ∈ J se, e somente se
(ii) Existem m escalares n˜ ao-negativos µ
j, j ∈ J , n˜ ao todos nulos, tais que:
p
X
j=1
µ
jf
j(x) = 0, ∀x ∈ D
em que J = {1, . . . , p}.
Demonstra¸ c˜ ao. (ii) ⇒ (i). Suponha por contradi¸c˜ ao que (ii) ocorre, entretanto existe x ∈ D tal que:
f
j(x) < 0, ∀j ∈ J (3.2)
Como (ii) ´ e v´ alido por hip´ otese, temos que:
p
X
j=1
µ
jf
j(x) = 0, ∀x ∈ D
µ
j= 0 (3.3)
µ
j0> 0, para algum j
0∈ J.
Assim, de (3.2) e (3.3) conclu´ımos que
p
X
j=1,j6=j0
µ
jf
j(x) + µ
j0f
j0(x) < 0 o que ´ e um absurdo. Portanto, (ii) ⇒ (i).
Na sequˆ encia abaixo, mostraremos que (i) ⇒ (ii).
• Seja φ = {y ∈ IR
m: f (x) 5 y, (i. ´ e., f
j(x) 5 y
j, j ∈ J), para algum x ∈ D}, de modo que o conjunto φ seja n˜ ao vazio e convexo.
• Seja o conjunto convexo K = {y ∈ IR
m: y
j< 0, j ∈ J }. Ou seja, o ortante negativo do IR
m.
• Mostremos que K ∩ φ = ∅. Suponha que exista y ∈ K ∩ φ. Ent˜ ao, existe x ∈ D tal que f
j(x) ≤ y < 0, ∀j ∈ J , o que imposs´ıvel por (i).
• Agora, dado que K ´ e convexo, φ ´ e convexo e K ∩ φ = ∅, podemos aplicar o Teorema da Separa¸ c˜ ao, (para maiores detalhes, veja [22]), o qual garante a existˆ encia de h ∈ IR
m(h 6= 0) e α ∈ IR, tais que:
h · y = α = h · z, ∀y ∈ φ e ∀z ∈ K, onde h.y ´ e o produto interno usual
• Mostremos que h = 0. Suponha por contradi¸c˜ ao que existe j
0∈ J tal que h
j0< 0.
Defina z(ρ) ∈ K (com ρ ∈ IR
−), como:
z
j(ρ) =
1ρ
, se j 6= j
0ρ, se j = j
0ent˜ ao, de
h · z 5 α (α ∈ IR), ∀z ∈ K z(ρ) ∈ K, ∀ρ ∈ IR
−h
j0< 0
conclu´ımos que 0 < ρ · h
j05 α, ∀ρ < 0 onde α ∈ IR. O que ´ e imposs´ıvel. Logo, h = 0.
• Por um racioc´ınio similar, temos que α = 0. Assim, definindo µ
j= h
j, j ∈ J, temos o resultado.
Em particular, temos o conhecido Teorema de Gordan:
Corol´ ario 3.3 [Teorema de Gordan] Se {a
j}
mj=1´ e um conjunto dado de p vetores no IR
n, ent˜ ao:
(i) N˜ ao existe x ∈ IR
ntal que:
a
j· x < 0, ∀j ∈ J
(3.4) se, e somente se,
(ii) Existe m escalares n˜ ao negativos, µ
j, j ∈ J, n˜ ao todos nulos, tais que:
m
X
j=1
µ
j· a
j= 0
Aplicando o Teorema de Gordan ao sistema de desigualdade (3.1) obtemos o Teorema de Fritz-John.
Teorema 3.4 [Fritz-John] Seja x
∗∈ X um minimizador local de (P). Suponha que as fun¸ c˜ oes f, g
i(i ∈ I(x
∗)) s˜ ao diferenci´ aveis e que as fun¸ c˜ oes g
i(i ∈ I \I (x
∗)) s˜ ao cont´ınuas.
Ent˜ ao, existem escalares λ
0, λ
i∈ R , i ∈ I, n˜ ao todos nulos, tais que, λ
0∇f(x
∗) + X
i∈I
λ
i∇g
i(x
∗) = 0 (3.5)
λ
0, λ
i= 0, i ∈ I (3.6)
λ
ig
i(x
∗) = 0, i ∈ I. (3.7)
Condi¸c˜ oes Necess´ arias de Otimalidade 16 Demonstra¸ c˜ ao. Seja x
∗uma solu¸c˜ ao local de (P). Pela Proposi¸c˜ ao 3.1, o Sistema (3.1) n˜ ao possui solu¸c˜ ao d ∈ R
n. Ent˜ ao, aplicando o Teorema de Gordan (Corol´ ario 3.3) ao Sistema (3.1), existem λ b
i= 0, i ∈ {0} ∪ I(x
∗), n˜ ao todos nulos e tais que
b λ
0∇
Tf(x
∗)d + X
i∈I(x∗)
b λ
i∇
Tg
i(x
∗)d = 0, ∀d ∈ R
nisto ´ e,
λ b
0∇f(x
∗) + X
i∈I(x∗)
b λ
i∇g
i(x
∗) = 0.
Assim, basta definir:
λ
i=
b λ
i, i ∈ I(x
∗) ∪ {0}
0, i ∈ I \ I(x
∗).
Podemos observar que no Teorema 3.4, n˜ ao existe a garantia de que o multiplica- dor associado ` a fun¸c˜ ao objetivo λ
0seja n˜ ao nulo. Dessa forma, se este multiplicador for zero, perdemos as informa¸c˜ oes contidas na derivada da fun¸c˜ ao objetivo. Para contornar este inconveniente, inserimos nas hip´ oteses das condi¸c˜ oes necess´ arias, alguma condi¸c˜ ao de regularidade (ou qualifica¸c˜ ao de restri¸c˜ ao).
Por simplicidade, admitiremos a seguinte qualifica¸c˜ ao de restri¸c˜ ao:
Defini¸ c˜ ao 3.5 Diremos que o problema (P) satisfaz a qualifica¸ c˜ ao de restri¸ c˜ ao (QR) em x
∗se o conjunto {∇g
i(x
∗)}
i∈I(x∗)for linearmente independente.
Se ` as hip´ oteses do Teorema de Fritz-John acrescentar a qualifica¸c˜ ao de restri¸c˜ ao (QR), o multiplicador λ
06= 0.
Teorema 3.6 [Kuhn-Tucker] Suponha que x
∗∈ X ´ e um minimizador local de (P), que as fun¸ c˜ oes f, g
i(i ∈ I (x
∗)) s˜ ao diferenci´ aveis e que as fun¸ c˜ oes g
i(i ∈ I \ I(x
∗)) s˜ ao cont´ınuas. Al´ em disto, suponha que as restri¸ c˜ oes do problema (P) satisfazem a quali- fica¸ c˜ ao de restri¸ c˜ ao (QR) no ponto x
∗. Ent˜ ao, existem µ
i∈ R , i ∈ I tais que
∇f(x
∗) + X
i∈I
µ
i∇g
i(x
∗) = 0 (3.8)
µ
i= 0, i ∈ I (3.9)
µ
ig
i(x
∗) = 0, i ∈ I. (3.10)
Demonstra¸ c˜ ao. Pelo Teorema (3.4), existem multiplicadores λ
0, λ
i(i ∈ I) tais que se verificam as equa¸c˜ oes (3.5)-(3.7). Se λ
0= 0, por (3.5) ter´ıamos P
i∈I
λ
i∇g
i(x
∗) = 0, com λ
i= 0 e n˜ ao todos nulos, o que contraria a condi¸c˜ ao (QR). Basta definir
µ
i= λ
iλ
0, i ∈ I e obtemos o resultado desejado.
Observa¸ c˜ ao 3 Observe que as condi¸ c˜ oes de Kuhn-Tucker (Teorema 3.6) podem ser ob-
tidas com qualifica¸ c˜ oes de restri¸ c˜ ao mais gerais que a condi¸ c˜ ao (QR). Para maiores de-
talhes, veja, por exemplo [24, 9, 5, 17, 18, 32, 23, 31].
Defini¸ c˜ ao 3.7 Um ponto x
∗∈ X fact´ıvel para (P) ´ e dito ser um ponto Kuhn-Tucker se existem µ
i∈ R , i ∈ I, satisfazendo ` as Equa¸ c˜ oes (3.8)-(3.10).
Exemplo 3.8 Seja o seguinte problema:
Minimizar f (x)
sujeito a: g
i(x) 5 0, i = 1, · · · , 4 x ∈ U ⊆ IR
2(M)
Figura 3.3: Condi¸c˜ oes de Kuhn-Tucker
Na Figura (3.3), tra¸ camos as quatro restri¸ c˜ oes nos casos em que g
i(x) = 0, i = 1, · · · , 4 com x ∈ IR
2. O conjunto das restri¸ c˜ oes ativas em x ´ e dado por I(x) = {1, 4}.
Os gradientes ∇g
i(x) s˜ ao naturalmente ortogonais as respectivas fun¸ c˜ oes g
i(x) no ponto x, e apontam para a dire¸ c˜ ao de m´ aximo crescimento de g
i(x) a partir de x (onde g
i(x) = 0).
Se o ponto x ´ e m´ınimo local do problema diferenci´ avel (M), o Teorema de Kuhn- Tucker (3.6) garante a existˆ encia dos multiplicadores µ
1, µ
4≥ 0, tais que,
−∇f(x) = µ
1∇g
1(x) + µ
4∇g
4(x)
isto ´ e, −∇f (x) pode ser escrito como combina¸ c˜ ao linear (com coeficientes positivos) dos gradientes das restri¸ c˜ oes ativas em x.
3.2 Condi¸ c˜ oes de segunda ordem
Nesta se¸c˜ ao, obteremos as condi¸c˜ oes necess´ arias de otimalidade para o problema (P) utilizando as informa¸c˜ oes das derivadas segundas das fun¸c˜ oes do problema. Ao longo desta se¸c˜ ao, suporemos que as fun¸c˜ oes f, g
is˜ ao duas vezes diferenci´ avel.
Para isto, necessitaremos do conceito de dire¸c˜ ao cr´ıtica abaixo.
Defini¸ c˜ ao 3.9 Dizemos que o vetor d ∈ R
n´ e uma dire¸ c˜ ao cr´ıtica do problema (P) no ponto x
∗∈ X se
∇
Tf (x
∗)d ≤ 0
∇
Tg
i(x
∗)d ≤ 0, i ∈ I(x
∗)
e denotaremos por D(x
∗) o conjunto de dire¸ c˜ oes cr´ıticas em x
∗.
Condi¸c˜ oes Necess´ arias de Otimalidade 18 E do conhecido Teorema da Alternativa abaixo.
Lema 3.10 [Teorema de Motzkin] Sejam A, C e D matrizes dadas, com A 6= 0. Ent˜ ao, exatamente uma das seguintes condi¸ c˜ oes deve ocorrer:
(I) O sistema
Ax > 0 Cx = 0 Dx = 0
tem uma solu¸ c˜ ao x;
(II) O sistema
A
Ty
1+ C
Ty
2+ D
Ty
3= 0 y
1≥ 0, y
2= 0
tem solu¸ c˜ ao (y
1, y
2, y
3).
Para maiores detalhes e prova, veja [22].
Teorema 3.11 Seja x
∗∈ X um minimizador local de (P). Suponha que as fun¸ c˜ oes f, g
i(i ∈ I(x
∗)) s˜ ao duas vezes continuamente diferenci´ aveis e que as fun¸ c˜ oes g
i(i ∈ I I(x
∗)) s˜ ao cont´ınuas. Ent˜ ao, para cada dire¸ c˜ ao cr´ıtica d ∈ D(x
∗), existem multiplicadores λ
0, λ
i≥ 0 (i ∈ I) tais que
λ
0∇f (x
∗) + X
i∈I(x∗)
λ
i∇g
i(x
∗) = 0 (3.11)
λ
ig
i(x
∗) = 0, i ∈ I (3.12)
λ
0∇
Tf (x
∗)d = 0 (3.13)
λ
i∇
Tg
i(x
∗)d = 0, i ∈ I(x
∗) (3.14) d
T(∇
2f(x
∗) + X
i∈I(x∗)
λ
i∇
2g
i(x
∗))d = 0. (3.15) Al´ em disto, se (QR) vale em x
∗, ent˜ ao para todo d ∈ D(x
∗), teremos λ
06= 0.
Para facilitar a demonstra¸c˜ ao, defina o seguinte conjunto:
I
0=
i ∈ I(x
∗) : ∇
Tg
i(x
∗)d = 0
Observe que este conjunto de ´ındices ´ e equivalente as afirma¸c˜ oes (3.12) e (3.14).
Demonstra¸ c˜ ao. Seja d uma dire¸c˜ ao cr´ıtica fixa e arbitr´ aria. Ent˜ ao, o sistema ∇
Tf(x
∗)z + d
T(∇
2f(x
∗))d < 0
∇
Tg
i(x
∗)z + d
T(∇
2g
i(x
∗))d 5 0, i ∈ I
0(3.16)
n˜ ao tem solu¸c˜ ao z ∈ IR
n. Isto ´ e equivalente a
∇
Tf (x
∗)z + [d
T(∇
2f(x
∗))d]t < 0
∇
Tg
i(x
∗)z + [d
T(∇
2g
i(x
∗))d]t 5 0, i ∈ I
0−t < 0,
o qual n˜ ao tem solu¸c˜ ao z ∈ IR
n, t ∈ IR. Pelo Teorema de Motzkin (Lema 3.10), existem multiplicadores ξ, λ
0∈ IR e λ
i∈ IR
mtais que
λ
0∇f (x
∗) +
m
X
i=1
λ
i∇g
i(x
∗) = 0 d
T(∇
2f(x
∗) +
m
X
i=1
λ
i∇
2g
i(x
∗))d − ξ = 0 (λ
0, ξ) ≥ 0, λ
i= 0, λ
i= 0, ∀i / ∈ I
0Como (λ
0, ξ) ≥ 0, temos que: λ
0≥ 0 e ξ = 0, ou, λ
0= 0 e ξ > 0. E assim, existem λ
0∈ IR e λ
i∈ IR
mtais que
λ
0∇f (x
∗) +
m
X
i=1
λ
i∇g
i(x
∗) = 0 d
T(∇
2f(x
∗) +
m
X
i=1
λ
i∇
2g
i(x
∗))d > 0 λ
0= 0, λ
i= 0, λ
i= 0, ∀i / ∈ I
0(3.17)
ou,
λ
0∇f (x
∗) +
m
X
i=1
λ
i∇g
i(x
∗) = 0 d
T(∇
2f(x
∗) +
m
X
i=1
λ
i∇
2g
i(x
∗))d = 0 λ
0≥ 0, λ
i= 0, λ
i= 0, ∀i / ∈ I
0.
(3.18)
Assuma que (3.18) n˜ ao ocorre. Isto ´ e equivalente a
λ
0∇f (x
∗) +
m
X
i=1
λ
i∇g
i(x
∗) = 0 d
T(∇
2f(x
∗) +
m
X
i=1
λ
i∇
2g
i(x
∗))d − ξ = 0 λ
0≥ 0, ξ = 0, λ
i= 0, λ
i= 0, ∀i / ∈ I
0.
(3.19)
Logo, novamente pelo Teorema de Motzkin (Lema 3.10), existem z, t = 0, satisfazendo d
T[∇f(x
∗)z + ∇
2f(x
∗)]dt < 0
d
T[(∇g
i(x
∗)z + ∇
2g
i(x
∗)]dt 5 0, ∀i ∈ I
0. Mas, como (3.16) n˜ ao tem solu¸c˜ ao, temos que t = 0. Por isso,
∇
Tf (x
∗)z < 0
∇
Tg
i(x
∗)z 5 0, ∀i ∈ I
0.
Condi¸c˜ oes Necess´ arias de Otimalidade 20 Por outro lado,
∇
Tf(x
∗)d = 0
∇
Tg
i(x
∗)d = 0, ∀i ∈ I
0e
∇
Tf(x
∗)d < 0
∇
Tg
i(x
∗)d < 0, ∀i ∈ I \ I
0porque d ´ e cr´ıtica. Assim, vale que
∇
Tf (x
∗)(d + εz) < 0
∇
Tg
i(x
∗)(d + εz) 5 0, ∀i ∈ I
para qualquer ε > 0 suficientemente pequeno. O que contradiz (3.11). E isto completa a prova.
Defini¸ c˜ ao 3.12 Um ponto x
∗∈ X fact´ıvel para (P) que satisfaz as condi¸ c˜ oes (3.11)- (3.15), com λ
06= 0, para toda dire¸ c˜ ao cr´ıtica d ∈ D(x
∗) ´ e chamado ponto Kuhn-Tucker de segunda ordem.
No pr´ oximo cap´ıtulo estabeleceremos condi¸c˜ oes adicionais para que pontos Kuhn-
Tucker e Kuhn-Tucker de segunda ordem sejam minimizadores locais.
Condi¸ c˜ oes Suficientes de Otimalidade
Neste cap´ıtulo abordaremos crit´ erios que garantem que as condi¸c˜ oes necess´ arias vistas no cap´ıtulo anterior tamb´ em s˜ ao suficientes para a otimalidade local. Tais resultados ser˜ ao obtidos para fun¸c˜ oes convexas e posteriormente generalizaremos a uma classe mais ampla de fun¸c˜ oes.
E bastante conhecido que sob hip´ ´ oteses de convexidade as condi¸c˜ oes de Kuhn- Tucker s˜ ao suficientes para a otimalidade global.
Teorema 4.1 Seja x ∈ X um ponto fact´ıvel de (P) e suponha que as fun¸ c˜ oes f, g
i(i ∈ I(x)) s˜ ao continuamente diferenci´ aveis e convexas. Se existe λ ∈ R
nque satisfaz as condi¸ c˜ oes
∇f (x) + X
i∈I
λ
i∇g
i(x) = 0 (4.1)
λ
i= 0, i ∈ I (4.2)
λ
ig
i(x) = 0, i ∈ I, (4.3)
ent˜ ao x ´ e uma solu¸ c˜ ao ´ otima global de (P).
Demonstra¸ c˜ ao. Dado x ∈ X, temos que
g
i(x) 5 0 = g
i(x), ∀i ∈ I (x) e pela convexidade das g
i, temos que
∇
Tg
i(x)(x − x) 5 0, i ∈ I(x), (4.4) e de (4.4) e (4.1) segue que
∇
Tf (x)(x − x) = − X
i∈I