• Nenhum resultado encontrado

Método do ponto proximal para um problema de otimização multiobjetivo não-convexo

N/A
N/A
Protected

Academic year: 2021

Share "Método do ponto proximal para um problema de otimização multiobjetivo não-convexo"

Copied!
79
0
0

Texto

(1)

Centro de Ciˆ

encias da Natureza

os-Graduac

¸˜

ao em Matem´

atica

Mestrado em Matem´

atica

etodo do ponto proximal para um problema de

otimiza¸

ao multiobjetivo n˜

ao-convexo

Ray Victor Guimar˜

aes Serra

(2)

Disserta¸c˜ao de Mestrado:

etodo do ponto proximal para um problema de otimiza¸

ao

multiobjetivo n˜

ao-convexo

Disserta¸c˜ao submetida `a Coordena¸c˜ao do Programa de P´os-Gradua¸c˜ao em Ma-tem´atica, da Universidade Federal do Piau´ı, como requisito parcial para obten¸c˜ao do grau de Mestre em Matem´atica.

Orientadora:

Profa. Dra. Sissy da Silva Souza

(3)
(4)

Dedico este trabalho aos meus pais e irm˜a; `

(5)

Agradecimentos

Chegando ao fim de mais uma etapa, agrade¸co primeiramente a Deus por me dar for¸ca de vontade o suficiente para chegar at´e aqui. S˜ao tantas as pessoas que quero e devo agradecer pela importˆancia que tiveram para conseguir mais esse objetivo. Agrade¸co pri-meiramente meus pais e irm˜a, por serem a minha base e pelo apoio incondicional em todos os momentos, n˜ao existem palavras que descrevam meu sentimento e agradecimento por vocˆes, muito obrigado!

Agrade¸co a toda minha fam´ılia a qual compartilho essa vit´oria, pelo apoio e confian¸ca sem igual, em especial `as minhas av´os Antˆonia Serra (In memoriam) e Raimunda Paix˜ao, `as minhas tias (Cristina, Edmea, Iranilda, Josefa, Maria Jos´e), tios (Artur, Iranildo, Jesus, Marco Jorge) e primos.

Aos meus professores/mestres que tive at´e chegar aqui, entre eles o Professor Gilson San-tana pelo grande incentivo e apoio desde o ensino m´edio at´e o presente momento. A todos os Professores do campus de Parna´ıba, em especial Cleyton Cunha, Pedro Jorge, Cl´oris Violeta, Paulo S´ergio e Sissy Souza pelos ensinamentos, apoio e principalmente amizade ao longo desses anos. Obrigado!

A todos os professores do mestrado, em especial os professores Jurandir, Jos´e Francisco, Marcondes e Barnab´e. Aqui incluo novamente meu agradecimento para Sissy Souza e Paulo S´ergio pela excelente orienta¸c˜ao, ensinamentos repassados e amizade desde a gra-dua¸c˜ao.

Aos meus amigos de Parna´ıba, em especial Herbet Micael, Amanda Tha´ına, Vict´oria R´egia (In memoriam) pela amizade desde sempre. Aos amigos de gradua¸c˜ao, com ˆenfase aos parceiros Maciel Santos e Julliette Ara´ujo pela enorme amizade. Por fim, agrade¸co algumas pessoas que tive o privil´egio de ter em minha vida e que serei eternamente grato por isso, s˜ao elas Renata Brito, George Santos, Fernando Santos e em especial Carla Brito a quem agrade¸co por toda a confian¸ca depositada em mim, meu muito obrigado pela

(6)

zade e companheirismo incondicional, apesar da distˆancia.

Aos amigos do mestrado Rafael (Coxinha), Veludex (Antˆonio Aguiar), Raul, At´ecio (Rico), H´ercules (Semi-Deus), Tiago (Balada), Jeferson (Poker), Kelvin (Cabelim), Juli-ana, Quaresma, L´ıvio, Bruno, Fernando Lima, Fernando Gomes e `a todos os outros com ˆenfase aos amigos P´adua (P´adua) e Lucas (Foto) companheiros de gradua¸c˜ao.

(7)

“A alegria est´a na luta, na tentativa, no sofrimento envolvido e n˜ao na vit´oria pro-priamente dita.”.

(8)

Resumo

Neste trabalho, apresentamos uma generaliza¸c˜ao do M´etodo do Ponto Proximal para minimizar uma fun¸c˜ao vetorial, n˜ao necessariamente convexa, no contexto de espa¸cos euclidianos. No problema estudado, as coordenadas da fun¸c˜ao vetorial s˜ao definidas como o m´aximo de fun¸c˜oes continuamente diferenci´aveis. Iniciamos estudando o M´etodo do Ponto Proximal cl´assico para o Problema de Otimiza¸c˜ao Multiobjetivo e ferramentas de deriva¸c˜ao generalizada no sentido de Clarke. Como resultados, temos que qualquer ponto de acumula¸c˜ao da sequˆencia gerada pelo m´etodo ´e um ponto cr´ıtico Pareto-Clarke. Al´em disso apresentamos a convergˆencia do M´etodo do Ponto Proximal para um ponto cr´ıtico Pareto fraco.

(9)

Abstract

In this work, we present a generalized proximal point method for minimizing a vectorial function, not necessarily convex, in the setting of Euclidean Spaces. In the problem studied, the coordinates functions of the vectorial function are defined by the maximum of continuously differentiable functions. For this, we started studying of the Classical Proximal Point Method for the Multiobjective Optimization Problem and tools of Clarke’s generalized derivate. As results, we have that any cluster point of the sequence generated by the method is a Pareto-Clarke stationary point. Moreover, we present a convergence of the Proximal Point Method for a weak Pareto stationary point.

(10)

Sum´

ario

Resumo v

Abstract vi

1 Preliminares 3

1.1 Defini¸c˜oes e alguns fatos b´asicos . . . 3 1.2 Existˆencia de solu¸c˜oes . . . 7 1.3 Elementos de An´alise convexa . . . 9 2 M´etodo do ponto proximal para otimiza¸c˜ao escalar 30 2.1 M´etodo do ponto proximal cl´assico . . . 30 2.2 An´alise de convergˆencia . . . 31

3 Otimiza¸c˜ao multiobjetivo 34

3.1 Ordem parcial . . . 34 3.2 Problema de Otimiza¸c˜ao Multiobjetivo . . . 36 3.2.1 Escalariza¸c˜ao . . . 40

4 Derivada Generalizada 43

4.1 Derivada direcional generalizada . . . 43 5 M´etodo do ponto proximal para otimiza¸c˜ao multiobjetivo n˜ao-convexo 49 5.1 M´etodo do ponto proximal para otimiza¸c˜ao multiobjetivo n˜ao-convexo . . . 49 5.2 An´alise de convergˆencia . . . 55 5.2.1 Exemplo . . . 60

6 Considera¸c˜oes Finais 65

(11)
(12)

Introdu¸

ao

Em nosso cotidiano temos v´arias tomadas de decis˜oes, onde ´e natural querer que as esco-lhas sejam as melhores poss´ıveis, em outras palavras, desejamos sempre tomar a decis˜ao ideal para cada problema. A dificuldade na maioria dos casos est´a no conflito existente entre nossos objetivos e metas. Por isso nas situa¸c˜oes do cotidiano acabamos escolhendo nossas decis˜oes baseadas na intui¸c˜ao, sem ter uma precis˜ao de que tal escolha ´e a melhor poss´ıvel. Por´em em alguns casos a intui¸c˜ao n˜ao ´e o bastante para garantir um resul-tado satisfat´orio. O presente trabalho busca fazer um breve estudo desses problemas com m´ultiplos objetivos. Da´ı, fala-se de Otimiza¸c˜ao Multiobjetivo, onde buscamos otimizar simultaneamente duas ou mais fun¸c˜oes, as quais chamamos de fun¸c˜oes objetivos. Em geral, n˜ao h´a um ´unico ponto que ir´a minimizar ou maximizar todas as fun¸c˜oes objetivos ao mesmo tempo. Nesses casos estamos interessados em buscar um ponto que chama-mos de ´otimo Pareto, ou ainda como iremos ver, ponto cr´ıtico Pareto-Clarke, ver [6]. Os problemas de Otimiza¸c˜ao Multiobjetivo tˆem in´umeras aplica¸c˜oes, entre elas na biologia, estat´ıstica e engenharia como pode ser visto em [15], [2] e [9] respectivamente.

Nosso objetivo aqui ser´a o de apresentar o que ´e um problema de Otimiza¸c˜ao Multiobje-tivo e al´em disso abordar um m´etodo para resolver tal problema. A solu¸c˜ao em quest˜ao ser´a uma generaliza¸c˜ao do chamado M´etodo do Ponto Proximal cl´assico, onde trabalha-mos com uma fun¸c˜ao objetivo escalar e convexa. O M´etodo do Ponto Proximal para problemas de Otimiza¸c˜ao Multiobjetivo ´e introduzido por Bonnel em [5], onde trabalha-se com uma certa clastrabalha-se de fun¸c˜oes n˜ao-convexas. Esta disserta¸c˜ao tem como inspira¸c˜ao os trabalhos feitos por Bonnel, Iusem e Svaiter em [5], G. Bento, O. Ferreira e V. L. Sousa Junior em [4], G. Bento, J. X. Cruz Neto e P. R. Oliveira em [12]. ´E importante ressaltar que outros m´etodos, associados `a otimiza¸c˜ao escalar, j´a foram estendidos a Otimiza¸c˜ao Multiobjetivo, entre eles [10], [11], [13] e [14].

(13)

trabalho apresenta no Cap´ıtulo 1 alguns resultados preliminares vistos em [17] a cerca de An´alise convexa, em especial a no¸c˜ao de subdiferencial de uma fun¸c˜ao convexa, entre outros resultados que ser˜ao utilizados no decorrer deste trabalho.

No Cap´ıtulo 2, baseado em [16] recordamos o M´etodo do Ponto Proximal cl´assico, bem como a no¸c˜ao de F´ejer convergˆencia que ser´a tamb´em de grande importˆancia para o re-sultado principal deste trabalho.

No Cap´ıtulo 3 abordaremos alguns t´opicos de Otimiza¸c˜ao Multiobjetivo. Entre eles iremos definir um problema de Otimiza¸c˜ao Multiobjetivo e caracterizar a solu¸c˜ao desse problema. Al´em disso, com o objetivo de facilitar a demonstr¸c˜ao do resultado principal deste traba-lho iremos introduzir tamb´em a no¸c˜ao de Escalariza¸c˜ao. Tal t´ecnica tem como objetivo substituir um problema de Otimiza¸c˜ao Multiobjetivo, onde n˜ao temos uma rela¸c˜ao de or-dem total, por um problema de Otimiza¸c˜ao Escalar ou uma s´erie de problemas escalares, onde podemos aplicar alguns dos resultados cl´assicos da literatura abordados no Cap´ıtulo 1.

No Cap´ıtulo 4 baseado em [6] buscamos generalizar alguns dos resultados vistos no Cap´ıtulo 1, em especial o conceito de subdiferencial de uma fun¸c˜ao convexa. Generaliza-mos a derivada usual do Rn, abordando a derivada generalizada no sentindo de Clarke, buscando fazer um comparativo de ambas.

(14)

Cap´ıtulo 1

Preliminares

Neste cap´ıtulo estudaremos alguns fatos b´asicos que ser˜ao necess´arios ao longo deste trabalho. Iremos abordar resultados que garantem a existˆencia de solu¸c˜oes do seguinte problema:

min f(x)

s.a x∈ Rn, (1.1)

onde f : Rn → R. Veremos sob quais hip´oteses nosso problema tem solu¸c˜ao. Al´em disso, estudaremos as condi¸c˜oes necess´arias e suficientes de otimalidade para o Problema (1.1). Por fim, abordaremos alguns t´opicos de An´alise convexa, procurando esclarecer a importˆancia da convexidade na otimiza¸c˜ao. Maiores detalhes dos resultados abordados neste Cap´ıtulo poder˜ao ser encontrados em [17], [21], [22] e [4].

1.1

Defini¸

oes e alguns fatos b´

asicos

Defini¸c˜ao 1.1.1. ([17]) Dizemos que um ponto ¯x ∈ Rn ´e

1. Minimizador global de (1.1) se

f(¯x)6 f(y) ∀y ∈ Rn;

2. Minimizador local de (1.1) se existe uma vizinhan¸ca U de ¯x tal que f(¯x) 6 f(y) ∀y ∈ U ∩ Rn.

Se ¯x ´e minimizador global ent˜ao f(¯x) ´e chamado valor ´otimo global.

(15)

Defini¸c˜ao 1.1.2. ([17]) Dizemos que ¯v∈ [−∞, +∞) definido por ¯

v = infx∈Rnf(x),

´e o valor ´otimo do Problema (1.1).

Uma fun¸c˜ao pode admitir v´arios minimizadores globais, mas o valor ´otimo (global) do problema ´e ´unico. Apresentamos a seguir uma condi¸c˜ao necess´aria de primeira ordem para caracterizar um minimizador para o Problema (1.1).

Teorema 1.1.1. ([17]) (Condi¸c˜ao necess´aria de primeira ordem) Seja f : Rn→ R

diferenci´avel no ponto ¯x ∈ Rn. Se ¯x ´e um minimizador local de f, ent˜ao

f0(¯x) =0. (1.2) Demonstra¸c˜ao. Seja d ∈ Rn arbitr´ario, pela defini¸c˜ao de minimizador local, temos que existe  > 0 tal que

f(¯x) 6 f(¯x + td), ∀t ∈ (0, ]. Da´ı, pela diferenciabilidade de f em ¯x,

f(¯x + td) = f(¯x) + thf0(¯x), di + θ(t),

onde θ(t) segue da defini¸c˜ao de fun¸c˜ao diferenci´avel e ´e tal que limt→0+

θ(t) t =0. 0 6 thf0(¯x), di + θ(t).

Dividindo por t > 0, obtemos

0 6 hf0(¯x), di + θ(t) t , passando o limite quando t −→ 0+, temos que

0 6 hf0(¯x), di.

Como d ∈ Rn ´e fixo, por´em arbitr´ario, podemos escolher d = −f0x), o que resulta na

condi¸c˜ao 0 6 hf0(¯x), di = −||f0(¯x)||2. Com isso, segue que f0x) =0.

Defini¸c˜ao 1.1.3. Um ponto ¯x ∈ Rn que satisfaz a condi¸ao (1.2) ´e chamado de ponto

(16)

A partir do Teorema 1.1.1. e Defini¸c˜ao 1.1.3., temos que se f ´e diferenci´avel ent˜ao as solu¸c˜oes locais do problema de minimiza¸c˜ao (1.1) s˜ao pontos estacion´arios. O mesmo valendo para problemas de maximiza¸c˜ao.

Abordaremos a seguir um resultado que ´e conhecido na literatura como F´ormula de Taylor, onde a prova poder´a ser encontrada em ([21]).

Teorema 1.1.2. Seja f : U −→ Rn de classe C2 no aberto U ⊂ Rn. Fixado a ∈ U, para

todo v = (α1, ..., αn)∈ Rn tal que a + v ∈ U, escrevamos

f(a + v) − f(a) = n X i=1 ∂f ∂xi αi+ 1 2 n X i,j=1 ∂2f ∂xi∂xj αiαj+ θ(v),

as derivadas sendo calculadas no ponto a. Ent˜ao lim

v→0

θ(v) |v|2 =0.

Teorema 1.1.3. ([17]) (Condi¸c˜ao necess´aria de segunda ordem) Suponhamos que f : Rn → R seja duas vezes diferenci´avel em ¯x ∈ Rn. Se ¯x ´e um minimizador local

irrestrito de f, ent˜ao vale (1.2) e a matriz hessiana de f em ¯x ´e semidefinida positiva, ou seja,

hf00(¯x)d, di > 0, ∀d ∈ Rn. (1.3) Demonstra¸c˜ao. A condi¸c˜ao (1.2) ´e satisfeita pelo Teorema 1.1.1.. Agora, seja d ∈ Rn

qualquer, por´em fixo. Se ¯x ´e minimizador local do Problema (1.1), ent˜ao para todo t estritamente positivo e suficientemente pequeno temos que

0 6 f(¯x + td) − f(¯x) = hf0(¯x), tdi + 1 2hf 00 (¯x)td, tdi + θ(t2) = t 2 2hf 00 (¯x)d, di + θ(t2),

onde acima usamos a expans˜ao da fun¸c˜ao em s´erie de Taylor (Ver [17]) e novamente o Teorema 1.1.1. Da´ı, dividindo ambos os lados por t2 >0, temos que

0 6 1 2hf 00 (¯x)d, di + θ(t 2) t2 .

Por fim, passando o limite quando t → 0+ e usando o Teorema 1.1.2. citado acima temos que hf00(¯x)d, d)i > 0, ∀d ∈ Rn.

(17)

Teorema 1.1.4. ([17]) (Condi¸c˜ao suficiente de segunda ordem)

Suponhamos que f : Rn → R seja duas vezes diferenci´aveis em ¯x ∈ Rn. Se ¯x ´e um

ponto estacion´ario e se a matriz hessiana de f em ¯x ´e definida positiva ent˜ao existem uma vizinhan¸ca U de ¯x e β > 0 tais que

f(x) − f(¯x)> β||x − ¯x||2, ∀x ∈ U. (1.4) Em particular, ¯x ´e um minimizador local estrito do Problema (1.1). Reciprocamente, se vale (1.4), ent˜ao ¯x ´e um ponto estacion´ario do Problema (1.1) e tem matriz hessiana definida positiva.

Demonstra¸c˜ao. Seja ¯xponto estacion´ario do Problema (1.1) e que a hessiana seja definida positiva, i.e.,

hf00(x)d, di > 0, ∀d ∈ Rn\ {0}.

Suponha por absurdo que n˜ao ocorra (1.4). Ent˜ao, existe {xk} ⊂ Rn\ {xk} tal que xk → ¯x

e f(xk) − f(¯x) < 1 k||x k− ¯x||2, ∀k. Da´ı, como xk− ¯x ||xk− ¯x||

´e limitada, ela possui pontos de acumula¸c˜ao. Portanto, a menos de subsequˆencia, podemos supor sem perda de generalidade que

xk− ¯x ||xk− ¯x||

→ d ∈ Rn\{0}.

Logo, temos que 1 k||x k− ¯x||2 > f(xk) − f(¯x) = hf0x), xk− ¯xi +1 2hf 00x)(xk− ¯x), xk− ¯xi + θ(||xk− ¯x||2) = 1 2hf 00x)(xk− ¯x), xk− ¯xi + θ(||xk− ¯x||2),

onde acima usamos que f0(¯x) = 0. Dividindo ambos os membros desta desigualdade por ||xk− ¯x||2 e tomando o limite quando k → +∞, obtemos

0 > hf00(¯x)d, di,

o que gera uma contradi¸c˜ao, pois temos por hip´otese que a hessiana ´e definida positiva. Portanto, temos que vale (1.4). Em particular,

(18)

ou seja, ¯x´e um minimizador local.

Reciprocamente, suponha que valha (1.4), ent˜ao como tal condi¸c˜ao implica que ¯x ´e mini-mizador local de f ent˜ao obtemos que tal ponto ´e estacion´ario (vide Teorema 1.1.1.). Seja d∈ Rn arbitr´ario por´em fixo, ent˜ao para todo t ∈ R suficientemente pequeno ¯x + td ∈ U.

Logo, usando (1.4) e o fato de ¯x ser ponto estacion´ario obtemos que βt2||d||2 = β||(¯x + td) − ¯x||2 6 f(¯x + td) − f(¯x) = thf0x), di + t 2 2hf 00x)d, di + θ(t2) = t 2 2hf 00 (¯x)d, di + θ(t2). .

Dividindo ambos os lados por t2 e fazendo t → 0, temos que

β||d||2 6 1 2hf

00

(¯x)d, di.

Portanto, como d ´e arbitr´ario temos que a hessiana ´e definida positiva.

Note que as condi¸c˜oes (1.2) e (1.3) n˜ao s˜ao suficientes para garantir que um ponto ¯x ´e minimizador. Por exemplo, a fun¸c˜ao f : R −→ R dada por f(x) = x3, satisfaz tais condi¸c˜oes em ¯x =0, mas tal ponto n˜ao ´e minimizador local do Problema (1.1). Por outro lado, (1.2) e o fato da hessiana ser definida positiva n˜ao s˜ao condi¸c˜oes necess´arias para que um ponto ¯x seja minimizador. Como exemplo, podemos tomar f : R −→ R dada por f(x) = x6. Note que ¯x = 0 ´e ponto minimizador de (1.1). Mas essa fun¸c˜ao n˜ao possui hessiana definida positiva nesse ponto.

1.2

Existˆ

encia de solu¸

oes

No caso em que f ´e ilimitada inferiormente na Defini¸c˜ao 1.1.2, temos que ¯v = −∞, e o problema de minimiza¸c˜ao n˜ao possui solu¸c˜ao global. Por´em, mesmo quando ¯v ´e finito o minimizador pode n˜ao existir, como ´e o caso de f(x) = ex em R . Nesta se¸c˜ao teremos por

(19)

O primeiro resultado desta se¸c˜ao traz a importˆancia da compacidade do dom´ınio e con-tinuidade da fun¸c˜ao estudada para garantirmos a existˆencia de solu¸c˜ao do problema de maximiza¸c˜ao e minimiza¸c˜ao. Tal resultado ´e bem conhecido na literatura, em especial na An´alise Matem´atica, como Teorema de Weierstrass, onde sua demonstra¸c˜ao pode ser encontrada em ([17]).

Teorema 1.2.1. ([17]) Sejam D ⊂ Rn um conjunto compacto n˜ao-vazio e f : D → Rn

uma fun¸c˜ao cont´ınua. Ent˜ao, os problemas de minimiza¸c˜ao e maximiza¸c˜ao de f em D tˆem solu¸c˜oes globais.

Como explica o autor em [17] o exemplo da fun¸c˜ao f(x) = ex mencionada acima refor¸ca

a importˆancia do conjunto(vi´avel) em quest˜ao ser compacto. Da´ı, tal hip´otese s´o poder´a ser retirada e ainda assim garantirmos a existˆencia de solu¸c˜oes se refor¸camos as hip´oteses com respeito a fun¸c˜ao objetivo em quest˜ao. Da´ı, surge a importˆancia da seguinte defini¸c˜ao:

Defini¸c˜ao 1.2.1. ([17]) O conjunto de n´ıvel da fun¸c˜ao f : D → R associado a c ∈ R, ´e o conjunto dado por

Lf,D(c) ={x ∈ D | f(x) 6 c}.

Corol´ario 1.2.1. ([17]) Sejam D ⊂ Rne f : D → R cont´ınua no conjunto D. Suponhamos

que existe c ∈ R tal que o conjunto de n´ıvel Lf,D(c) seja n˜ao-vazio e compacto. Ent˜ao o

problema de minimiza¸c˜ao f em D possui uma solu¸c˜ao global.

Demonstra¸c˜ao. Pelo Teorema 1.2.1 o Problema (1.1) tem solu¸c˜ao global em Lf,D(c),

digamos ¯x, isto ´e, f(¯x) 6 f(x), ∀x ∈ Lf,D(c). Agora seja x ∈ D\ Lf,D(c) qualquer, temos

que f(x) > c > f(¯x), em outras palavras ¯x ´e um minimizador global de f em todo conjunto D.

Defini¸c˜ao 1.2.2. Dizemos que f : D → R ´e coerciva no conjunto D, quando para cada sequˆencia {xk} ⊂ D tal que ou k xk k→ ∞ ou {xk} → x ∈ ¯D \ D(k → ∞),tem-se

limk→sup f(xk) = +∞.

(20)

Demonstra¸c˜ao. Com x ∈ D arbitr´ario, definimos c = f(x). Da´ı, obtemos que Lf,D(c)6=

∅. Iremos mostrar que tal conjunto ´e compacto. Suponhamos inicialmente que exista {xk} ⊂ L

f,D(c) tal que {xk} −→ x, onde x 6∈ Lf,D(c). Usando que

Lf,D(c) = D∩{x ∈ Rn | f(x) 6 c},

onde o segundo conjunto ´e fechado pelo fato de f ser cont´ınua por hip´otese. Isto nos diz que {xk} −→ x ∈ ¯D\ D. Com isso, devido a coercividade de f em D temos que

limk→supf(xk) = +∞. Mas isso contradiz o fato de {xk} ⊂ Lf,D(c). Portanto, obtemos

que Lf,D(c)´e fechado.

Agora suponha Lf,D(c)ilimitado, isto ´e, podemos tomar uma sequˆencia{xk} ⊂ Lf,D(c)tal

que{xk} −→ +∞. Ent˜ao pela fato de f ser coerciva em D e {xk} ⊂ D, lim

k→supf(xk) =

+∞. Mas f(xk)6 c, ∀ k ∈ N. Portanto, Lf,D(c)´e limitado.

1.3

Elementos de An´

alise convexa

Nesta se¸c˜ao apresentamos t´opicos de An´alise Convexa, abordando alguns fatos b´asicos sobre conjuntos convexos e fun¸c˜oes convexas que ser˜ao importantes para o desenvolvi-mento deste trabalho. ´E grande a importˆancia da convexidade na otimiza¸c˜ao, pois com tal hip´otese, as condi¸c˜oes necess´arias de otimalidade se tornam suficientes . Isto ´e, todo ponto estacion´ario ´e solu¸c˜ao do problema de minimiza¸c˜ao. Al´em disso, o estudo de alguns resultados de an´alise convexa s˜ao de grande valia para termos um maior entendimento do teorema principal deste trabalho.

Defini¸c˜ao 1.3.1. ([17]) Um conjunto C ⊂ Rn ´e convexo se, para quaisquer elementos

x, y ∈ C, temos

tx + (1 − t)y ∈ C para todo 0 6 t 6 1.

Em outras palavras, se x e y s˜ao pontos quaisquer do conjunto C ent˜ao o segmento de reta com extremos x e y pertence `a C. ´E chamado de combina¸c˜ao convexa de x e y o ponto tx + (1 − t)y. Exemplos triviais de conjunto convexo ´e o conjunto vazio, o espa¸co n-dimensional Rn, um conjunto que cont´em s´o um ponto.

(21)

Demonstra¸c˜ao. De fato, sejam x, y ∈ C, logo ha, xi 6 c e ha, yi 6 c. Ent˜ao, para tx + (1 − t)y, com t ∈ [0, 1], temos:

ha, tx + (1 − t)yi 6 tc + (1 − t)c = c. Portanto, tx + (1 − t)y ∈ C e, assim, C ´e um conjunto convexo.

Defini¸c˜ao 1.3.2. ([17]) Uma fun¸c˜ao f : Rn → R ´e dita convexa quando para todos

x, y ∈ Rn tivermos

f((1 − t)x + ty) 6 (1 − t)f(x) + tf(y), (1.5) para todo t ∈ [0, 1]. A fun¸c˜ao f diz-se estritamente convexa quando a desigualdade acima ´e estrita para qualquer x 6= y e t ∈ (0, 1).

Observa¸c˜ao 1.3.1. Note que a condi¸c˜ao (1.5) ´e equivalente a f(x + t(y − x)) 6 f(x) + t (f(y) − f(x)).

Defini¸c˜ao 1.3.3. ([17]) Uma fun¸c˜ao f : Rn → R ´e dita fortemente convexa com

odulo L > 0 quando para todos x, y ∈ Rn tivermos

f((1 − t)x + ty) 6 (1 − t)f(x) + tf(y) − Lt(1 − t)k x − y k2, (1.6) para todo t ∈ [0, 1].

Observa¸c˜ao 1.3.2. Note que se f ´e fortemente convexa ent˜ao ´e estritamente convexa, em particular tamb´em ´e convexa.

Exemplo 1.3.2. A fun¸c˜ao f : R → R dada por f(x) = x2 ´e convexa.

Demonstra¸c˜ao. De fato,

f(x + t(y − x)) = x2+2tx(y − x) + t2(y − x)2

6 x2+2tx(y − x) + t(y − x)2 = x2+ t(y − x)2 ∀ t ∈ [0, 1].

Exemplo 1.3.3. ([17]) Seja f : Rn−→ R uma fun¸c˜ao convexa e sejam x ∈ Rn e d ∈ Rn

(22)

Demonstra¸c˜ao. De fato, sejam α1, α2 ∈ R e λ ∈ [0, 1], temos que ψ(λα1+ (1 − λ)α2) = f(x + (λα1+ (1 − λ)α2)d) = f(x + λα1d + (1 − λ)α2d) = f(λ(x + α1d) + (1 − λ)(x + α2d)) 6 λf(x + α1d) + (1 − λ)f(x + α2d) = λψ(α1) + (1 − λ)ψ(α2). Portanto, ψ ´e convexa.

Exemplo 1.3.4. A fun¸c˜ao f : Rn → R dada por f(x) =k x k2 ´e fortemente convexa com

m´odulo L = 1.

Demonstra¸c˜ao. Dados x, y ∈ Rn e t ∈ [0, 1] temos que,

f(tx + (1 − t)y) = t2 k x k2 +2t(1 − t)hx, yi + (1 − t)2 k y k2 6 t2 k x k2 +2t(1 − t) k x kk y k +(1 − t)2 k y k2 = t2 k x k2 +2t(1 − t) k x kk y k + k y k2 −2t k y k2 +t2 k y k2 + (1 − t) k y k2 +(t −1) k y k2 +tk x k2 −tk x k2 = tf(x) + (1 − t)f(y) + t k y k2 (t −1) + t k x k2 (t −1) + 2t(1 − t) k x kk y k = tf(x) + (1 − t)f(y) − t k y k2 (1 − t) − t k x k2 (1 − t) + 2t(1 − t) k x kk y k = tf(x) + (1 − t)f(y) − t(1 − t)(k x k − k y k)2 6 tf(x) + (1 − t)f(y) − t(1 − t)k x − y k2

Proposi¸c˜ao 1.3.1. ([4]) Seja hi : Rn −→ R uma fun¸c˜ao fortemente convexa com

cons-tante Li para i ∈ I = {1, ..., p}. Ent˜ao h : Rn −→ R definida por h(x) = maxi∈Ih(x)

´e fortemente convexa com constante L := mini∈Li. Em particular, se hi ´e convexa para

cada i ∈ I, h ´e convexa em Ω.

Demonstra¸c˜ao. Temos por hip´otese que

hi(αx + (1 − α)y) 6 αhi(x) + (1 − α)hi(y) −

Li

2 α(1 − α)||x − y||

2.

Da´ı, como

(23)

suponha que o m´aximo seja atingido em algum j ∈ I. Por (1.5), h((αx + (1 − α)y) = hj((αx + (1 − α)y) 6 αhj(x) + (1 − α)hj(y) − Lj 2α(1 − α)||x − y|| 2 6 αh(x) + (1 − α)h(y) − L 2α(1 − α)||x − y|| 2

onde L := mini∈ILi, i.e., L 6 Lj, ∀j ∈ I, ent˜ao −Lj 6 −L. Concluimos ent˜ao que h ´e

fortemente convexa.

Defini¸c˜ao 1.3.4. ([17]) O ep´ıgrafo da fun¸c˜ao f : D → R ´e o conjunto Ef ={(x, c) ∈ D × R | f(x) 6 c}.

Teorema 1.3.1. ([17]) Seja D ∈ Rn um conjunto convexo. Uma fun¸ao f : D → R ´e

convexa em D se, e somente se, o ep´ıgrafo de f ´e um conjunto convexo em Rn× R.

Demonstra¸c˜ao. Seja f uma fun¸c˜ao convexa e (x, c1) e (y, c2) pontos de Ef. Como pela

defini¸c˜ao 1.3.4., f(x) 6 c1e f(y) 6 c2temos pela convexidade de f que para todo α ∈ [0, 1]

ocorre o seguinte:

f(αx + (1 − α)y) 6 αf(x) + (1 − α)f(y) 6 αc1+ (1 − α)c2

logo,

α(x, c1) + (1 − α)(y, c2) = (αx + (1 − α)y, αc1+ (1 − α)c2)∈ Ef.

Em outras palavras, temos que Ef ´e convexo.

Reciprocamente, suponha Ef convexo. Da´ı, dados x, y ∈ D, como (x, f(x)), (y, f(y)) ∈ Ef

temos que para todo α ∈ [0, 1]

(αx + (1 − α)y, αf(x) + (1 − α)f(y)) = α(x, f(x)) + (1 − α)(y, f(y)) ∈ Ef.

Logo, pela defini¸c˜ao anterior temos que

f(αx + (1 − α)y) 6 αf(x) + (1 − α)f(y), ou seja, f ´e convexa.

(24)

Defini¸c˜ao 1.3.5. Dizemos que d ∈ Rn ´e uma dire¸c˜ao de descida de f : Rn −→ R no ponto ¯x∈ Rn, se existir  > 0 tal que

f(¯x + td) < f(¯x) ∀t ∈ (0, ]. Ou ainda,

hgrad f(¯x), di < 0.

Denotamos por Df(¯x) o conjunto de todas as dire¸c˜oes de descidas da fun¸c˜ao f no ponto

¯ x.

Em geral, Df(¯x) pode ser vazio. Por exemplo, quando ¯x ´e um minimizador de f.

Defini¸c˜ao 1.3.6. ([17]) Um conjunto K ⊂ Rn chama-se cone quando ele contem todos os m´ultiplos n˜ao-negativos de seus elementos, i.e.,

d∈ K ⇒ td ∈ K, ∀t ∈ R+.

Note que se K ´e um cone n˜ao-vazio, podemos concluir que 0 ∈ K e que de certa maneira, podemos interpretar um cone como um conjunto de dire¸c˜oes. Da´ı, temos que quando Df(¯x) ´e n˜ao-vazio, ele n˜ao ´e um cone, pois 0 6∈ Df(¯x). No entanto, Df(¯x) ∪{0} ´e um

cone n˜ao-vazio, no caso em que Df(¯x)6= ∅. Vejamos agora um exemplo de cone que ser´a

utilizado no decorrer deste trabalho.

Exemplo 1.3.5. O ortante n˜ao-negativo Rn

+ ´e um cone.

Demonstra¸c˜ao. De fato, tome y = (y1, ..., yn) ∈ Rn+, logo temos que yi ∈ R+ para todo

i =1, ..., n. Da´ı, dado t ∈ R+ ent˜ao

tyi∈ R+,

para todo i = 1, ..., n. Portanto, ty ∈ Rn +.

Defini¸c˜ao 1.3.7. ([17]) Sejam D ⊂ Rn um conjunto convexo e ¯x ∈ D. O cone normal

no ponto ¯x em rela¸c˜ao ao conjunto D ´e dado por:

ℵD(¯x) ={d ∈ Rn| hd, x − ¯xi 6 0, ∀x ∈ D}.

(25)

Defini¸c˜ao 1.3.8. ([17]) Dado D ⊂ Rn e ponto ¯x ∈ D, chama-se de cone tangente no ponto ¯x o conjunto de todas as dire¸c˜oes tangentes ao conjunto D no ponto ¯x definido por

TD(¯x) =          d∈ Rn ∀{tk} ⊂ R+,{tk} → 0+, ∃{dk} ⊂ Rn,{dk} → d, tal que ¯ x + tkdk ∈ D para todo k ∈ N          .

Outra no¸c˜ao ´util ´e a de cone (tangente) de Bouligand ou contigent cone, dado por:

BD(¯x) =          d∈ Rn ∃{tk} ⊂ R+,{tk} → 0+, ∃{dk} ⊂ Rn,{dk} → d, tal que ¯ x + tkdk ∈ D para todo k ∈ N          .

Note que pela Defini¸c˜ao 1.3.8. temos que τD(¯x) ⊂ BD(¯x). Ou seja, a no¸c˜ao de cone

(tangente) de Bouligand ´e mais geral que a de cone tangente.

Teorema 1.3.2. ([17]) Se f : Rn → R ´e convexa ent˜ao todo minimizador local ´e global.

Al´em disso, o conjunto dos minimizadores ´e convexo.

Demonstra¸c˜ao. Suponhamos que x∗ ∈ Rn seja m´ınimo local, e suponha por contradi¸c˜ao

que este n˜ao ´e global, ent˜ao existe algum y ∈ Rntal que f(y) < f(x). Como f ´e convexa,

temos:

f((1 − t)x∗+ ty) 6 (1 − t)f(x∗) + tf(y) < (1 − t)f(y) + tf(x∗) = f(x∗), ∀t ∈ [0, 1].

Tomando t suficientemente pequeno temos que (1 − t)x∗+ ty ´e arbitrariamente pr´oximo de x∗com f((1−t)x∗+ty) < f(x∗). Isso contradiz o fato de x∗ ser m´ınimo local. Portanto, se f ´e convexa todo m´ınimo local ´e global.

Agora, seja S ⊂ Rn o conjunto dos minimizadores e ¯v ∈ R o valor ´otimo do nosso

Problema (1.1), isto ´e, f(x) = ¯v, ∀x ∈ S. Tomando x, y ∈ S e α ∈ [0, 1], pela convexidade de f obtemos

(26)

Como ¯v ´e valor ´otimo temos que

f(αx + (1 − t)y) = ¯v. Em outras palavras αx + (1 − t)y ∈ S.

Teorema 1.3.3. ([17]) Se f : Rn → R ´e estritamente convexa. Ent˜ao n˜ao pode haver

mais de um minimizador.

Demonstra¸c˜ao. Seja S ⊂ Rno conjunto dos minimizadores de f. Suponha por contradi¸c˜ao

que exista x ∈ S e ¯x ∈ S, com x 6= ¯x. Da´ı, seja α ∈ (0, 1) pela fato de f ser estritamente convexa temos que

f(αx + (1 − t)¯x) < αf(x) + (1 − α)f(¯x) = α¯v + (1 − α)¯v = ¯v.

Como S ´e convexo (pelo teorema anterior) temos que αx + (1 − α¯x) ´e uma solu¸c˜ao para nosso problema com valor menor do que ¯v. Mas isso gera uma contradi¸c˜ao. Portanto, o minimizador deve ser ´unico.

O pr´oximo resultado nos diz que toda fun¸c˜ao convexa ´e cont´ınua em qualquer subconjunto aberto do seu dom´ınio. Al´em disso, ainda podemos garantir que tal fun¸c˜ao ser´a tamb´em localmente Lipschitz-cont´ınua no interior do seu dom´ınio como pode ser visto em [17]. Teorema 1.3.4. (Continuidade de fun¸c˜oes convexas) Sejam Ω ⊂ Rn um conjunto

convexo e aberto e f : Ω −→ R fun¸c˜ao convexa em Ω. Ent˜ao f ´e localmente Lipschitz-cont´ınua em Ω. Em particular, segue que f ´e cont´ınua em Ω.

No caso em que a fun¸c˜ao estudada ´e diferenci´avel, a convexidade admite algumas caracte-riza¸c˜oes que s˜ao ut´eis para se saber se uma fun¸c˜ao ´e convexa ou n˜ao. Tais caracteriza¸c˜oes tamb´em ser˜ao essenciais no prosseguimento deste trabalho.

Teorema 1.3.5. ([17]) Seja f : Rn → R uma fun¸c˜ao diferenci´avel. Ent˜ao as seguintes propriedades s˜ao equivalentes:

(i) A fun¸c˜ao f ´e convexa; (ii) Para todo x, y ∈ Rn,

(27)

Quando f ´e duas vezes diferenci´avel, as propriedades acima tamb´em s˜ao equivalentes a (iii) A matriz hessiana de f ´e semi-definida positiva em todo x ∈ Rn,

hH(x)d, di > 0, ∀ d ∈ Rn.

Demonstra¸c˜ao. Suponha f convexa, ent˜ao para x, y ∈ Rn, α ∈ (0, 1] quaisquer, definindo d = y − x, temos que

f(x + αd) = f(αy + (1 − α)x) 6 αf(y) + (1 − α)f(x), donde

α(f(y) − f(x)) > f(x + αd) − f(x).

Dividindo ambos os membros por α > 0,e passando o limite com α → 0+, obtemos

f(y) − f(x) > limα→0+ f(x + αd) − f(x) α = hf0(x), di = hf0(x), y − xi. Logo, f(y)> f(x) + hf0(x), y − xi.

Reciprocamente, fazendo novamente d = y − x e usando b) para os pontos x e x + αd; y e x + αd temos que

f(x)> f(x + αd) − αhf0(x + αd), di e

f(y)> f(x + αd) − (1 − α)hf0(x + αd), di.

Multiplicando a primeira desigualdade por 1 − α > 0 e a segunda por α > 0 e somando ambas, obtemos (1 − α)f(x) + αf(y) > (1 − α)(f(x + αd) − αhf0(x + αd), di) + α(f(x + αd) + (1 − α)hf0(x + αd), di) = f(x + αd) = f((1 − α)x + αy), ou seja, f ´e convexa.

No caso em que f ´e duas vezes diferenci´avel ´e suficiente mostrar que (ii) ⇔ (iii). De fato, fixemos x, d ∈ Rn quaisquer, da´ı por (ii),

(28)

Usando ainda o fato de que f ´e duas vezes diferenci´avel, 0 > f(x + αd) − f(x) − αhf0(x), di = α 2 2 hf 00(x)d, di + θ(α2).

Dividindo por α2 >0 e fazendo α → 0+, obtemos (iii). Supondo agora que ocorre (iii),

sejam x, y ∈ Rn, pelo Teorema do Valor M´edio existe α ∈ (0, 1) tal que

f(y) − f(x) −hf0(x), y − xi = 1 2hf

00

(x + α(y − x))(y − x), y − xi > 0. Logo, segue (ii).

Exemplo 1.3.6. Considere a seguinte fun¸c˜ao, f(x1, x2) =2x21+3x1x2+5x22−2x1+6x2.

Note que yT 52f(x)y = (y 1 y2)   4 3 3 10     y1 y2  =4y21+6y1y2+10y22 > 0.

Ent˜ao, pelo resultado anterior, a fun¸c˜ao f ´e convexa.

Teorema 1.3.6. ([17]) (Derivada direcional de uma fun¸c˜ao convexa) Seja f : Rn → R convexa. Ent˜ao para todo x ∈ Rn, f ´e diferenci´avel em cada dire¸c˜ao d ∈ Rn. Al´em disso,

f(x + αd)> f(x) + αf0(x; d), ∀α ∈ R+.

Demonstra¸c˜ao. Fixamos x ∈ Rn e d ∈ Rn arbitr´arios. Defina,

ψ : R −→ R, ψ(α) = f(x + αd). Da´ı, precisamos mostrar a existˆencia do seguinte limite

f(x; d) = limα→0+ f(x + αd) − f(x) α = limα→0+ ψ(α) − ψ(0) α . (1.8)

Como f ´e localmente lipschitz, pelo Teorema 1.3.4., existem L > 0 e ¯α >0 tais que |f(x + αd) − f(x)| 6 Lα||d|| ∀α ∈ [0, ¯α].

Portanto,

|ψ(α) − ψ(0)|

(29)

ou seja, a fun¸c˜ao α−1(ψ(α) − ψ(0)) ´e limitada no conjunto [0, ¯α]. Iremos mostrar agora que essa mesma fun¸c˜ao tamb´em ´e n˜ao-decrescente em [0, ¯α]. De fato, sejam β > α > 0, ent˜ao existe t ∈ (0, 1] tal que α = tβ = (1 − t)0 + tβ. Da´ı, devido a convexidade de ψ, Exemplo 1.3.3., temos que

ψ(α)6 (1 − t)ψ(0) + tψ(β). Portanto, |ψ(α) − ψ(0)| α 6 (1 − t)ψ(0) + tψ(β) − ψ(0) α = t(ψ(β) − ψ(0)) tβ = ψ(β) − ψ(0) β .

Isso nos diz que a fun¸c˜ao α−1(ψ(α) − ψ(0)) ´e n˜ao-decrescente quando α → 0

+. Como

j´a vimos que ela ´e limitada, em particular inferiormente, segue que o limite (1.7) existe. Al´em disso,

α−1(ψ(α) − ψ(0)) > f0(x; d), ou seja,

f(x + αd)> f(x) + αf0(x; d).

Defini¸c˜ao 1.3.9. ([17]) Seja f : Rn −→ R uma fun¸c˜ao convexa. Dizemos que y ∈ Rn ´e

um subgradiente de f no ponto x ∈ Rn se

f(z)> f(x) + hy, z − xi ∀z ∈ Rn. (1.9)

O conjunto de todos os subgradientes de f em x se chama o subdiferencial de f em x, o denotamos por ∂f(x).

Considere agora z = x + αd, onde d ∈ Rn, α > 0, a defini¸c˜ao acima de subgradiente pode ser escrita da seguinte forma,

y∈ ∂f(x) ⇔ f(x + αd) − f(x)

α > hy, di, ∀d ∈ R

n, ∀α > 0. (1.10)

Da´ı, pelo que foi visto na demonstra¸c˜ao do Teorema 1.3.6, α−1(f(x + αd) − f(x)) ´e uma

fun¸c˜ao n˜ao-decrescente; al´em disso, ela possui um limite quando fazemos α → 0+. Logo,

(30)

Em resumo temos que a defini¸c˜ao de subgradiente pode tamb´em ser vista de uma forma mais pr´atica, que ´e a seguinte:

∂f(x) = {y ∈ Rn | f0(x; d) > hy, di, ∀d ∈ Rn}. (1.11)

Proposi¸c˜ao 1.3.2. ([4]) Seja Ω ⊂ Rn ao-vazio e convexo. Dada f : Rn −→ R, temos

que f ´e fortemente convexa com constante L > 0 se, e somente se,

hu − v, x − yi > L||x − y||2, u∈ ∂f(x), v∈ ∂f(y) (1.12)

para quaisquer x, y ∈ Ω.

Demonstra¸c˜ao. Sabendo que f ´e fortemente convexa, i.e.,

f(α(x − y) + y) − f(y)6 αf(x) − αf(y) − Lα(1 − α)||x − y||2, dividindo ambos os lados por α(1 − α) obtemos,

f(α(x − y) + y) − f(y) α(1 − α) 6 f(x) (1 − α) − f(y) (1 − α) − L||x − y|| 2. Agora, fazendo α → 0: f0(y, d) 6 f(x) − f(y) − L||x − y||2; d = x − y. Portanto,

L||x − y||2 6 −f0(y, d) + f(x) − f(y). Trocando x por y e vice-versa, conseguimos

L||x − y||2 6 −f0(x, d0) − f(x) + f(y); d0 = y − x. Somando as duas desigualdades acima temos que

L||x − y||2 6 −f0(x.d) − f0(y, d). (1.13)

Por outro lado, como  

f(z) > f(x) + hu, z − xi f(z) > f(y) + hv, z − yi

(1.14) ∀z ∈ Rn, logo tomando z = αy + (1 − α)x = x + α(y − x) na primeira desigualdade de

(1.14), obtemos

(31)

Dividindo por α e fazendo α → 0 obtemos que

f0(x, d0)> hu, y − xi. (1.15) De forma an´aloga fazendo z = αx + (1 − α)y = y + α(x − y)

f0(y, d) > hv, x − yi. (1.16) Logo, multiplicando (1.15) e (1.16) por (−1) e somando

−f0(x, d0) − f0(y, d) 6 hu − v, x − yi. (1.17) Ent˜ao combinando (1.17) com (1.13) segue que

L||x − y||2 6 hu − v, x − yi. Reciprocamente, como u ∈ ∂f(x), v ∈ ∂f(y) ent˜ao

   f(z) > f(x) + hu, z − xi f(z) > f(y) + hv, z − yi (1.18)

Fazendo z = x = αx+(1−α)y na primeira desigualdade de (1.18) e z = y = αx+(1−α)y na segunda desigualdade,

  

f(x) > f(αx + (1 − α)y) + hu, x − αx − (1 − α)yi f(y) > f(αx + (1 − α)y) + h−v, −y + αx + (1 − α)yi

(1.19)

Da´ı, multiplicando a primeira desigualdade de (1.19) por α e a segunda por (1 − α) e somando obtemos que

αf(x) + (1 − α)f(y) > f(αx + (1 − α)y) + α(1 − α)hu − v, x − yi, logo,

f(αx + (1 − α)y) 6 αf(x) + (1 − α)f(y) − Lα(1 − α)||x − y||2. Ou seja, valendo (1.12) implica que f ´e fortemente convexa.

(32)

Teorema 1.3.7. (Separa¸c˜ao) Sejam D1 ⊂ Rn e D2 ⊂ Rn conjuntos convexos n˜

ao-vazios tais que D1∩ D2 =∅. Ent˜ao existem a ∈ Rn\ {0} e c ∈ R tais que

ha, x1

i 6 c 6 ha, x2i ∀x1 ∈ D

1, ∀x2 ∈ D2.

Teorema 1.3.8. (Separa¸c˜ao Estrita) Sejam D1 ⊂ Rne D2 ⊂ Rn conjuntos convexos,

fechados e n˜ao-vazios. Suponhamos que um deles tamb´em seja limitado (logo, compacto). Ent˜ao D1∩ D2 =∅ se, e somente se,existem a ∈ Rn\ {0} e c ∈ R tais que

ha, x1i < c < ha, x2i ∀x1 ∈ D

1, ∀x2 ∈ D2.

Teorema 1.3.9. ([17]) Seja f : Rn−→ R uma fun¸c˜ao convexa. Ent˜ao para todo x ∈ Rn,

o conjunto ∂f(x) ´e convexo, compacto e n˜ao-vazio. Al´em disso, para todo d ∈ Rn, tem-se

f0(x; d) = maxy∈∂f(x)hy, di. (1.20)

Demonstra¸c˜ao. Por (1.11), temos que

∂f(x) = {y ∈ Rn | hy, di 6 f0(x, d), ∀d ∈ Rn} = ∩d∈Rn{y ∈ Rn | hy, di 6 f0(x, d)}.

Como a intersec¸c˜ao de semi-espa¸cos fechados ´e convexa e fechada, obtemos que ∂f(x) ´e convexo e fechado. Resta mostrarmos que ∂f(x) ´e limitado. At´e ent˜ao, ainda n˜ao sabemos que ∂f(x) 6= ∅, da´ı caso ∂f(x) = ∅, o subdiferencial ´e limitado. Suponhamos que exista uma sequˆencia {yk} ⊂ ∂f(x) tal que ||yk|| → ∞. Da´ı, considere para todo k, dk = y

k

||yk||,

onde podemos supor, a menos de subsequˆencia que {dk} → d, pois dk ´e limitada. Ent˜ao

por (1.11), ||yk|| = hyk, dk i 6 f0(x; dk). Portanto, lim k→sup||y k|| 6 lim k→sup f 0 (x; dk)6 f0(x; d) < ∞,

onde a segunda desigualdade segue de [17, pag 173]. Isto contradiz o fato de ||yk|| → ∞.

Portanto, segue que ∂f(x) ´e limitado.

Por fim provemos que ∂f(x) 6= ∅. Para isso, mostremos (1.20) e ao mesmo tempo verifi-quemos que ∂f(x) 6= ∅. De fato, fixemos d ∈ Rn arbitr´ario, ent˜ao pelos c´alculos acima

f0(x; d) > max

(33)

onde a existˆencia do m´aximo acima segue pelo fato de ∂f(x) ser compacto, junto com o Teorema 1.2.1.. Defina os seguintes dois conjuntos:

D1 ={(z, c) ∈ Rn× R | c > f(z)} e D2 = (z, c) ∈ Rn× R c = f(x) + αf 0 (x; d), z = x + αd, α ∈ R+ .

Note que ambos os conjuntos s˜ao convexos, onde D1 ´e o ep´ıgrafo de f sem a sua fronteira,

logo ´e convexo, pois f ´e convexa. Se D1∩ D2 6= ∅, ter´ıamos que

f(x + αd) < f(x) + αf0(x; d),

para algum α ∈ R+, mas isso gera uma contradi¸c˜ao com o Teorema 1.3.6. Portanto, temos

que D1∩ D2 =∅. Ent˜ao, pelo Teorema 1.3.7., existe (u, β) ∈ Rn× R \ {0} tal que

hu, zi + βc 6 hu, x + αdi + β(f(x) + αf0(x; d)), (1.21)

∀z ∈ Rn, ∀α ∈ R

+, ∀c > f(x). Se β = 0, ent˜ao

hu, zi 6 hu, x + αdi, ∀d ∈ Rn,

mas isso s´o pode acontecer quando u = 0. Como (u, β) 6= 0, logo β 6= 0.

Suponha β > 0, ent˜ao escolhendo z = x e α = 0 em (1.21), temos que βc 6 βf(x) para todos os c tais que c > f(x), o que gera uma contradi¸c˜ao. Portanto, obtemos que β < 0. Dividindo ambos os lados em (1.21) por β < 0, temos que

c +hu

β, z − xi > f(x) + αf

0(x; d) + αhu

β, di, (1.22) ∀z ∈ Rn, ∀α ∈ R

+, ∀c > f(z). Tomando os limites quando α → 0+ e c → f(z)+,

obtemos que

f(z)> f(x) − hu

β, z − xi, ∀z ∈ R

n,

ou seja, −u

β ∈ ∂f(x). Em outras palavras, segue que ∂f(x) 6= ∅.

Tomando ainda α = 1 e z = x em (1.22) e passando o limite com c → f(z)+, obtemos

(34)

Logo, −hu β, di > f 0 (x; d), −u β ∈ ∂f(x). Da´ı, como j´a sabemos que f0(x; d) > maxy∈∂f(x)hy, di, ent˜ao

f0(x; d) = max

y∈∂f(x)hy, di.

Segue o resultado.

Proposi¸c˜ao 1.3.3. ([17]) Uma fun¸c˜ao convexa f : Rn −→ R ´e diferenci´avel no ponto

x∈ Rn se, e somente se, o conjunto ∂f(x) cont´em um elemento s´o. Neste caso, ∂f(x) =

{f0

(x)} (onde f0(x) denota o gradiente de f em x).

Demonstra¸c˜ao. Considere f diferenci´avel no ponto x ∈ Rn. Ent˜ao, pelo Teorema 1.3.5.

f(z)> f(x) + hf0(z), z − xi, ∀z ∈ Rn,

ou seja, f0(x) ∈ ∂f(x). Seja agora y ∈ ∂f(x), ent˜ao para todo d ∈ Rn, fazendo z = x + d

na Defini¸c˜ao 1.3.8. temos f(x) +hy, di 6 f(x + d) = f(x) +hf0(x), di + θ(||d||). Portanto, hy − f0(x), di 6 θ(||d||). Tomando, dk = y − f 0(x) k||y − f0(x)||, temos que dk → 0 e ||y − f0(x)|| k 6 θ( 1 k),

mas isso implica que y − f0(x) =0. Conclu´ımos ent˜ao que ∂f(x) ={f0(x)}. Seja ∂f(x) ={y}, pelo Teorema 1.3.7.,

f0(x; d) = hy, di, ∀d ∈ Rn.

Escolhendo como d os elementos da base canˆonica do Rn, temos que y i =

∂f(x) ∂xi

(35)

A importˆancia do estudo do subdiferencial e suas propriedades na teoria de otimiza¸c˜ao pode ser vista no seguinte resultado, onde iremos nos utilizar da Defini¸c˜ao 1.3.7.. Como foi visto anteriormente temos que sempre vale a inclus˜ao τD(¯x)⊂ BD(¯x). Mas ainda, se o

conjunto D em quest˜ao for convexo temos por [17] que vale a igualdade τD(¯x) = BD(¯x).

Usando este fato, vejamos o pr´oximo resultado.

Teorema 1.3.10. ([17]) (Condi¸c˜ao de otimalidade para minimiza¸c˜ao de uma fun¸c˜ao convexa num conjunto convexo) Sejam f : Rn −→ R uma fun¸c˜ao convexa e

D⊂ Rn um conjunto convexo. Ent˜ao ¯x ∈ Rn´e um minimizador de f em D se, e somente

se,

∃y ∈ ∂f(¯x) tal que hy, x − ¯xi > 0 ∀x ∈ D, (1.23) ou equivalentemente,

0 ∈ ∂f(¯x) +ℵD(¯x). (1.24)

Em particular, ¯x ´e minimizador de f em Rn se, e somente se, 0 ∈ ∂f(¯x).

Demonstra¸c˜ao. Suponha inicialmente que hy, x − ¯xi > 0 para todo x ∈ D, ent˜ao temos que −y ∈ℵD(¯x). Pela defini¸c˜ao de subgradiente, segue que

f(x)> f(¯x) + hy, x − ¯xi > f(¯x), ∀x ∈ D, isto ´e, ¯x ´e minimizador de f em D.

Reciprocamente, suponhamos que ¯x´e um minimizador de f em D. Escolhemos qualquer d ∈ τD(¯x) = BD(¯x), d 6= 0. Logo, existem sequˆencias {tk} ⊂ R+\ {0} e {dk} ⊂ Rn tais

que{dk} → d, {tk} → 0+, x + tkdk ∈ D para todo k. Da´ı, para todo k temos que

0 6 f(¯x + tkdk) − f(¯x) = tkf0(¯x, dk) + θ(tk).

Dividindo ambos os lados por tk >0 e passando o limite com k → +∞ conclu´ımos que

f0(¯x, d) > 0, ∀d ∈ τD(¯x). (1.25)

Suponhamos que n˜ao ocorra (1.22), logo n˜ao existe y ∈ Rn tal que −y ∈ ∂f(¯x) e y ∈

ℵD(¯x). Logo,

(−∂f(¯x))∩ℵD(¯x) =∅.

Como ∂f(¯x)´e convexo, compacto e n˜ao-vazio e ℵd(¯x)´e convexo, fechado e n˜ao vazio pelo

Teorema 1.3.8., existem a ∈ Rn\ {0} e c ∈ R tais que

(36)

Como 0 ∈ℵD(¯x), temos que c > 0. Portanto, ha, yi < c < 0 para todo y ∈ ∂f(¯x). Da´ı,

pelo Teorema 1.3.7., obtemos que

f0(¯x, a) = maxy∈∂f(¯x)ha, yi < 0. (1.27)

Suponhamos que ha, di > 0 para algum d ∈ ℵD(¯x). Tomando td ∈ ℵD(¯x), t > 0 e

fazendo t → +∞, temos uma contradi¸c˜ao em (1.24), pois c ∈ R ´e fixo. Ent˜ao, ha, di 6 0 para todo d ∈ℵD(¯x). Portanto,

a∈ (ℵD(¯x))∗ = ((τD(¯x))∗)∗ = τD(¯x), (1.28)

onde as desigualdades seguem de ([17], pag 118).

Da´ı, temos que (1.27) e (1.28) contradizem (1.25). Por fim, se ¯x ´e um minimizador de f em Rn ent˜ao

f(¯x)6 f(x), ∀x ∈ Rn. Logo,

f(x)> f(¯x) + h0, x − ¯xi,

isto ´e, 0 ∈ ∂f(¯x). Reciprocamente, se 0 ∈ ∂f(¯x) segue que ¯x ´e minimizador de f em Rn.

Ainda no que diz respeito ao subdiferencial de uma fun¸c˜ao convexa, e usando os resultados abordados acima, nosso objetivo agora ser´a provar o seguinte resultado:

Proposi¸c˜ao 1.3.4. ([25]) Seja f : Rn −→ R uma fun¸c˜ao convexa. Ent˜ao vale que

∂(λf)(x) = λ∂f(x), ∀x, ∀λ > 0. (1.29) Demonstra¸c˜ao. E imediato o caso λ = 0. Agora, seja λ > 0 e α ∈ ∂(λf)(x), i.e.,´

λf(z)> λf(x) + hα, z − xi, ∀z ∈ Rn. (1.30) Nosso objetivo inicialmente ser´a escrever α = λy; y ∈ ∂f(x). Da´ı, como estamos supondo λ >0 por (1.19) temos que

f(z)> f(x) + hα

λ, z − xi, ∀z ∈ R

n,

isto implica que α

λ ∈ ∂f(x). Por outro lado, veja que α = λ α

λ, logo α ∈ λ∂f(x). Reciprocamente, dado β ∈ λ∂f(x) ent˜ao β = λy com y ∈ ∂f(x), i.e.,

(37)

Multiplicando por λ > 0 obtemos que,

λf(z)> λf(x) + hβ, z − xi, para todo z ∈ Rn. Portanto, β ∈ ∂(λf)(x).

Com o objetivo de facilitar algumas contas feitas neste trabalho mais adiante, veremos a seguinte propriedade em rela¸c˜ao ao subdiferencial de fun¸c˜oes convexas n˜ao-diferenci´aveis. ∂(λ1f1+ λ2f2)(x)⊂ λ1∂f1(x) + λ2∂f2(x), ∀x ∈ Ω, (1.31)

onde λ > 0 e fi: Rn−→ R, (i = 1, 2) ´e uma fun¸c˜ao convexa em Ω ⊂ Rncom Ω n˜ao-vazio

e convexo. Note que devido a Proposi¸c˜ao 1.3.4. basta mostrarmos que ∂(f1 + f2)(x) ⊂

∂f1(x) + ∂f2(x), ∀x ∈ Ω. De fato, suponha por contradi¸c˜ao que n˜ao vale a inclus˜ao

dada, i.e., existe y ∈ ∂f(x), com f(x) = f1(x) + f2(x) tal que y 6∈ ∂f1(x) + ∂f2(x).

Os conjuntos ∂f1(x) e ∂f2(x) s˜ao convexos, compactos e n˜ao-vazios (Teorema 1.3.6.).

Portanto, ∂f1(x) + ∂f2(x) ´e convexo, compacto e n˜ao-vazio. Como y 6∈ ∂f1(x) + ∂f2(x),

pelo Teorema 1.3.8., existem a ∈ Rn\ {0} e c ∈ R tais que

ha, y1+ y2i < c < ha, yi, ∀yi ∈ ∂fi(x), i = 1, 2.

Da´ı, hy, ai < supyi∈∂f i(x),i=1,2hy 1+ y2, ai = supy1∈∂f 1(x)hy 1, ai + sup y2∈∂f 2(x)hy 2, ai = maxy1∈∂f 1(x)hy 1, ai + smax y2∈∂f 2(x)hy 2, ai = f10(x; a) + f20(x; a) = f0(x; a).

Por´em, esta desigualdade gera uma contradi¸c˜ao pelo fato de y ∈ ∂f(x) (vide (1.8)). Ve-jamos agora um resultado de uma fun¸c˜ao convexa n˜ao-diferenci´avel, que ´e de grande im-portˆancia para o desenvolvimento deste trabalho. Tal resultado ´e fornecido pelo m´aximo de fun¸c˜oes convexas (mesmo no caso em que elas sejam diferenci´aveis).

(38)

Considere Z um conjunto compacto qualquer. Suponhamos que ψ : Rn× Z −→ R seja uma fun¸c˜ao cont´ınua tal que ψ(., z) : Rn −→ R seja convexa para todo z ∈ Z. Seja

f : Rn−→ R, f(x) = maxz∈Zψ(x, z).

Ent˜ao:

(a) A fun¸c˜ao f ´e convexa no Rn, e para todo x ∈ Rn, tem-se

f0(x; d) = maxz∈Z(x)¯ ψ

0

(x, ¯z; d), ∀d ∈ Rn, onde

Z(x) ={¯z ∈ Z | f(x) = ψ(x.¯z) = maxz∈Zψ(x, z)}.

Em particular, se Z(x) = {¯z} e ψ(., ¯z) ´e diferenci´avel no ponto x ∈ Rn, ent˜ao f ´e

dife-renci´avel em x e

grad f(x) = grad ψx(x, ¯z).

(b)Se ψ(., z) ´e diferenci´avel para todo z ∈ Z e ψx0(x, .) ´e cont´ınua em Z para todo x ∈ Rn, ent˜ao

∂f(x) = conv {grad ψx(x, ¯z) | ¯z ∈ Z(x)}, x ∈ Rn.

Demonstra¸c˜ao. Por Weierstrass, temos que Z(x) 6= ∅ e f(x) ´e finito para todo x ∈ Rn.

Da´ı, como Z ´e compacto temos que f ´e convexa, (ver [17],pag 142). Pela defini¸c˜ao de f, ∀¯z∈ Z(x)    f(x) = ψ(x, ¯z) f(x + αd) > ψ(x + αd, ¯z)

Note que a segunda equa¸c˜ao acima seria uma igualdade se ¯z∈ Z(x + αd), mas ¯z ∈ Z(x). Ent˜ao, temos que

f(x + αd) − f(x) α >

ψ(x + αd, ¯z) − ψ(x, ¯z)

α , ∀d ∈ R

n, ∀α > 0.

Fazendo α → 0+, temos que

(39)

f0(x, d) > supz∈Z(x)¯ ψ0(x, ¯z, d), ∀d ∈ Rn. (1.32)

Agora, seja d ∈ Rn qualquer e

k} → 0+. Para todo k ∈ N definimos xk = x + αkd e

¯

zk ∈ Z(xk). Como {¯zk} ⊂ Z(xk) e Z ´e compacto, podemos supor que {¯zk} → z ∈ Z. Da´ı,

ψ(xk, ¯zk) =max

z∈Z ψ(x k

, z) > ψ(xk, z), ∀z ∈ Z. Portanto, pelo fato de ψ ser continua, ψ(x, ¯z)> ψ(x, z), ∀z ∈ Z. Logo,

¯

z ∈ Z(x). (1.33)

Pelo Teorema 1.3.6. e usando a defini¸c˜ao de f e (1.27) obtemos que f0(x, d) 6 f(x + αkd) − f(x) αk = ψ(x + αkd, ¯z k) − ψ(x, ¯z) αk = ψ(x + αk, ¯z k) − ψ(x, ¯zk) αk . Fazendo k → +∞, f0(x, d) 6 ψ0(x, ¯z, d), ou seja, f0(x, d) 6 supz∈Z(x)¯ ψ0(x, ¯z, d). (1.34) Portanto de (1.26) e (1.28), segue o item a).

Agora o item b). Para todo u ∈ Rn e ¯z ∈ Z(x) temos

f(u) = maxz∈Zψ(u, z) > ψ(u, ¯z)

> ψ(x, ¯z) + hψx0(x, ¯z), u − xi

= f(x) +hψ0

x(x, ¯z), u − xi.

Logo, ψx0(x, ¯z)∈ ∂f(x), ∀¯z∈ Z(x). Como ∂f(x) ´e convexo temos que conv{ψx0(x, ¯z) / ¯z∈ Z(x)} ⊂ conv∂f(x) = ∂f(x),

(40)

´e compacto. Agora, pela continuidade de ψz0(., ¯z) temos que {ψx0(x, ¯z) / ¯z ∈ Z(x)} ´e compacto, ent˜ao por ([17], pag 92), obtemos que conv {ψx0(x, ¯z) / ¯z∈ Z(x)} ´e compacto. Suponha ent˜ao que exista y ∈ ∂f(x)\ conv {ψx0(x, ¯z) / ¯z ∈ Z(x)}. Ent˜ao pelo Teorema 1.3.8., existem α ∈ Rn\ {0} e c ∈ R tal que

ha, yi > c > ha, ψ0 x(x, ¯z)i, ∀¯z ∈ Z(x). Logo, hy, ai > maxz∈Z(x)hψx0(x, ¯z), ai = maxz∈Z(x)¯ ψ0(x, ¯z), a) = f0(x, a),

onde acima usamos o item a) e o fato de ψ(., ¯z) ser diferenci´avel. Mas isso gera uma contradi¸c˜ao pelo fato de y ∈ ∂f(x) e pelo Teorema 1.3.7.. Portanto,

∂f(x)⊂ conv{ψx0(x, ¯z) / ¯z∈ Z(x)}. Logo, segue o resultado.

Como aplica¸c˜ao imediata do teorema anterior apresentamos o seguinte exemplo:

Exemplo 1.3.7. ([17]) Sejam fi : Rn−→ R fun¸c˜oes convexas diferenci´aveis, i = 1, ..., p

e

f : Rn −→ R, f(x) := maxi=1,...,pfi(x).

Para x ∈ Rn, definimos o conjunto de ´ındices ativos em x por

I(x) :={i = 1, ..., p | f(x) = fi(x)}.

Pelo Teorema 1.3.11, temos que ∂f(x) =   y∈ Rn y = X i∈I(x) αi grad fi(x) : X i∈I(x) αi =1, αi> 0, i ∈ I(x)   . Em particular, pelo Teorema 1.3.10, ¯x ´e um minimizador de f no Rn se, e somente se,

existem ¯αi ∈ I(¯x), tais que

(41)

Cap´ıtulo 2

etodo do ponto proximal para

otimiza¸

ao escalar

Neste cap´ıtulo iremos abordar o chamado M´etodo do Ponto Proximal cl´assico. Tal m´etodo busca resolver o problema de minimiza¸c˜ao de uma fun¸c˜ao f : Rn → R convexa. Na literatura existem diversas varia¸c˜oes do m´etodo do ponto proximal, de acordo com a fun¸c˜ao distˆancia adotada. Por exemplo, em [16] al´em do caso cl´assico, que iremos abordar, onde adota-se a distˆancia euclidiana, ´e poss´ıvel encontrar quando adota-se a fun¸c˜ao de Bregman, como ´e trabalhado [7].

Nosso objetivo aqui ser´a al´em de definir o m´etodo cl´assico, mostrar que o mesmo est´a bem definido e analisar a sua convergˆencia. Em outras palavras, estamos interessados em saber sob quais hip´oteses o m´etodo do ponto proximal cl´assico converge para uma solu¸c˜ao do Problema (1.1). Para maiores informa¸c˜oes veja [16].

2.1

etodo do ponto proximal cl´

assico

Seja f : Rn → R uma fun¸c˜ao convexa. Considere a sequˆencia {xk} ⊂ Rn dada por:

x0 ∈ Rn

xk+1 := argminx∈Rn{f(x) + λk k x − xk k2}

(2.1) onde λk ∈ R; 0 < λk 6 ˜λ, para algum ˜λ > 0. Acima k . k denota a norma euclidiana.

(42)

Demonstra¸c˜ao. Por indu¸c˜ao, considere fk(x) = f(x) + λk k x − xk k2. Como estamos

supondo que f atinge o m´ınimo, temos que f ´e limitada inferiormente, logo lim

j→∞fk(y j) =

+∞, onde {yj} ⊂ Rn com k yj k−→ +∞. De fato, como k yj k6k yj− xk k + k xk k .

Ent˜ao, k yj − xk k−→ +∞, quando j −→ +∞. Como sabemos que {f(yj)} ´e limitada

inferiormente, usando a defini¸c˜ao de fktemos que lim j→∞fk(y

j) = +∞. Em outras palavras,

fk ´e coerciva. Portanto, como fk(x) ´e claramente cont´ınua atinge o m´ınimo e ´e ´unico,

pois pelo Teorema 1.3.3 , fk ´e estritamente convexa, logo xk+1 ´e ´unico.

2.2

An´

alise de convergˆ

encia

A seguir mostraremos que sob algumas hip´oteses a sequˆencia gerada por (2.1) converge para o minimizador de f. Para isso iremos precisar da seguinte defini¸c˜ao e proposi¸c˜ao. Defini¸c˜ao 2.2.1. ([16]) Uma sequˆencia {yk} ⊂ Rn ´e dita Fej´er convergente para o con-junto U ⊂ Rn, com respeito a norma euclidiana se,

k yk+1− uk6k yk− uk ∀k > 0, ∀u ∈ U. (2.2)

Proposi¸c˜ao 2.2.1. ([16]) Se {yk} ´e Fej´er convergente para U 6= ∅ ent˜ao {yk} ´e limitada.

Se um ponto de acumula¸c˜ao y de {yk},com y ∈ U ent˜ao lim

k→y k

= y. Demonstra¸c˜ao. De (2.2) temos que,

k yk+1− u

k6k y0− uk,

∀u ∈ U, isto ´e,{yk} ∈ B[u, r], para cada k ∈ N, com r =k y0− uk. Onde B[u, r] denota

a bola fechada de centro em u e raio r, isto ´e,{yk} ´e limitada.

Agora seja y ∈ U um ponto de acumula¸c˜ao de {yk}, logo ∃{ykj} tal que ykj −→ y. Por

(2.2) temos que a sequˆencia{k yk− yk} ´e decrescente e n˜ao-negativa (aqui fazemos u = y

em (2.2), j´a que por hip´otese y ∈ U), logo temos que tal sequˆencia converge com lim

k→k y k

(43)

Portanto, lim

k→y k

= y.

Teorema 2.2.1. ([16]) Seja f : Rn → R convexa e continuamente diferenci´avel. Suponha

que o conjunto U dos minimizadores de f em Rn ´e n˜ao-vazio. Ent˜ao a sequˆencia {xk}

gerada por (2.1) converge para algum ponto x∗∈ U.

Demonstra¸c˜ao. Sendo {xk} a sequˆencia gerada em (2.1), dividiremos a demonstra¸c˜ao em

trˆes etapas. Primeiramente iremos mostrar que a sequˆencia ´e Fej´er convergente para U, na segunda etapa mostraremos que lim

k→∞k x

k+1− xk k= 0 e na terceira etapa iremos mostrar

que qualquer ponto de acumula¸c˜ao da sequˆencia em (2.1) ´e solu¸c˜ao do nosso problema e a sequˆencia converge para tal ponto.

1◦Etapa : Afirma¸c˜ao: k xk+1− ¯xk2 6k xk− ¯x k2 k xk+1− xk k, ∀k > 0, ∀¯x ∈ U. Note que, k xk− ¯x k2 6k xk− xk+1 k2 +k xk+1 − ¯x k2 +2hxk− xk+1, xk+1− ¯xi. (2.3)

Como j´a sabemos, xk+1 ´e solu¸c˜ao de (2.1) logo,

0 = gradfk(xk+1) = gradf(xk+1) +2λk(xk+1− xk) (2.4) De (2.3), (2.4) e pela convexidade de f k xk− ¯xk2 k xk+1− xk k2 k xk+1− ¯x k2 = 2hxk− xk+1, xk+1− ¯xi = λ1 khgrad f(x k+1), xk+1 − ¯xi > 0,

onde a ´ultima desigualdade ´e devido ao Teorema 1.3.4 e pelo fato de ¯x ser minimizador. Com isso obtemos que,

k xk+1− ¯xk2

6 k xk− ¯xk2 k xk+1− xk k2

6 k xk− ¯xk2 .

Ent˜ao, k xk+1− ¯xk6k xk− ¯xk, ∀¯x∈ U. Portanto, {xk} ´e Fej´er convergente para U.

2◦Etapa: Da etapa 1 temos que

(44)

Pelo fato de {xk} ser Fej´er convergente temos que {k xk − ¯x k} ´e crescente e n˜ao-negativa, logo convergente, isto ´e,

k xk− ¯x k−→ 0. (2.6) Da´ı, por (2.5) lim k→(x k+1 − xk) =0. (2.7) 3◦Etapa :A existˆencia de pontos de acumula¸c˜ao de{xk} segue da etapa 1, onde mostramos que{xk} ´e Fejer convergente e da Proposi¸c˜ao 2.1.1. Agora, seja ¯x um ponto de acumula¸c˜ao

de{xk} , ent˜ao xkj −→ ¯x para alguma subsequˆencia xkj. Da´ı, por (2.4)

grad f(xkj+1) =

kj(x

kj− xkj+1).

Fazendo j −→ +∞ e usando (2.6) e (2.7) temos que grad f(¯x) =0.

Como f ∈ C1 e ´e convexa, pelo Teorema 1.3.5 temos que ¯x ∈ U. Portanto, pela Proposi¸c˜ao

2.1.1

lim

(45)

Cap´ıtulo 3

Otimiza¸

ao multiobjetivo

Neste cap´ıtulo abordaremos algumas informa¸c˜oes que ser˜ao de grande importˆancia na sequˆencia desse trabalho. Apresentaremos conceitos relacionados `a Otimiza¸c˜ao Multiob-jetivo, iniciando com defini¸c˜oes sobre ordena¸c˜ao de conjuntos.

3.1

Ordem parcial

Nesta se¸c˜ao apresentaremos uma no¸c˜ao de ordem parcial no espa¸co Rn que ser´a ´util quando definirmos o problema de Otimiza¸c˜ao Multiobjetivo. Tal no¸c˜ao de ordem tamb´em se faz necess´ario quando falamos de convexidade de uma fun¸c˜ao F : Rm −→ Rn. Os resultados e defini¸c˜oes aqui abordados ser˜ao de grande valia quando formos estudar o resultado principal de [4], abordado mais adiante no Cap´ıtulo 5.

Defini¸c˜ao 3.1.1. Um conjunto C ´e dito ordenado com rela¸c˜ao de ordem  se dados quaisquer elementos x, y e z ∈ C sempre vale x  y ou y  x e as seguintes propriedades s˜ao satisfeitas:

x x (reflexividade) x y, y  z ⇒ x  z (transitividade) x y, y  x ⇒ x = y (antisimetria).

Segue abaixo uma defini¸c˜ao importante quando estudamos otimiza¸c˜ao multiobjetivo. Defini¸c˜ao 3.1.2. Dizemos que C ´e parcialmente ordenado quando valem as propriedades acima por´em, nem sempre dois elementos x, y ∈ C s˜ao compar´aveis, isto ´e, x  y ou y x.

(46)

As opera¸c˜oes de compara¸c˜ao entre vetores pertencentes ao Rn ser˜ao definidas da seguinte forma:

x y ⇒ {xi6 yi , i = 1, 2, ..., n}

x≺ y ⇒ {xi< yi , i = 1, 2, ..., n}

x = y ⇒ {xi= yi , i = 1, 2, ..., n}.

O operador 6= ´e dado por:

x6= y ⇒{∃i | xi 6= yi},

isto ´e,

x6= y 6⇒ {xi6= yi , i = 1, 2, ..., n}.

Note ent˜ao que o espa¸co Rn ´e parcialmente ordenado com a ordem definida acima.

Exemplo 3.1.1. Considere os vetores x, y, z ∈ R3. Temos: x = (4, 6, 8), y = (3, 5, 7), z = (4, 5, 6)

y≺ x ⇒ y  x z ≺ x ⇒ z  x Por´em, os vetores z e y n˜ao podem ser comparados.

Seguindo esse racioc´ınio, neste trabalho iremos adotar os cones: Rm+ :={x ∈ Rm|xi > 0, j ∈ I},

e

Rm++:= {x ∈ Rm|xi>0, j ∈ I}, I := {1, ..., m}.

Da´ı, para y, z ∈ Rm, escrevemos z  y (ou y  z) para significar z − y ∈ Rm

+ e z  y

(ou y ≺ z) para z − y ∈ Rm++.

Defini¸c˜ao 3.1.3. (Dominˆancia) Diz-se que o ponto x1 ∈ Rn domina outro ponto x2 ∈

Rn se F(x1) F(x2) e F(x1)6= F(x2).

(47)

Sejam xA, xB, xC, xD e xE, pontos de modo que F(xA) = yA, F(xB) = yB, F(xC) =

yC, F(xD) = yD e F(xE) = yE. Note que xC ´e dominado por xA, enquanto xB, xA e

xE n˜ao s˜ao dominados por nenhuma outra solu¸c˜ao.

3.2

Problema de Otimiza¸

ao Multiobjetivo

Nessa se¸c˜ao apresentaremos algumas propriedades e nota¸c˜oes em otimiza¸c˜ao multiobje-tivo. Iniciamos com o problema de Otimiza¸c˜ao Multiobjetivo, objeto de estudo deste trabalho, definido por:

min F(x) s.a x∈ Rn,

(3.1) onde F : Rn → Rm.

Podemos dizer que a otimiza¸c˜ao multiobjetivo ´e um processo que busca otimizar simul-taneamente duas ou mais fun¸c˜oes-objetivo de v´arias vari´aveis em valores reais. Como ´e mencionado em [1], no que diz respeito as solu¸c˜oes de um problema de otimiza¸c˜ao multiobjetivo, h´a dois poss´ıveis tipos:

(i) Solu¸c˜oes que, quando comparadas `as demais apresentam pior desempenho sob todos os objetivos simultaneamente considerados.

(48)

Defini¸c˜ao 3.2.1. Um ponto ¯x∈ Rn ´e dito cr´ıtico Pareto quando

Im(JF(¯x))∩ (−R++)m =∅, (3.2)

onde Im(JF(¯x)) ´e a imagem da transforma¸c˜ao linear JF(¯x) : Rn → Rm. Ou seja, sendo

¯

x∈ Rn um ponto cr´ıtico Pareto e F = (F

1, ..., Fm)ent˜ao para todo v ∈ Rn, ∃ i ∈{1, ..., m}

tal que

hgrad Fi(¯x), vi > 0.

Uma importante observa¸c˜ao que segue da defini¸c˜ao anterior ´e a seguinte: se um ponto x∈ Rn ao ´e cr´ıtico Pareto, ent˜ao existe uma dire¸c˜ao v ∈ Rn tal que

JF(x)v∈ (−R++)m,

isto ´e, v ´e uma dire¸c˜ao de descida para a fun¸c˜ao objetivo F. Em outras palavras temos que

hgrad Fi(x), vi < 0, ∀i ∈{1, ..., m}.

Defini¸c˜ao 3.2.2. Um ponto x ∈ Rn ´e dito ´otimo Pareto se n˜ao existe um ponto y ∈ Rn

com F(y)  F(x) e F(y) 6= F(x).

De forma an´aloga, x ∈ Rn chama-se ´otimo Pareto fraco ou Pareto fraco se n˜ao existe um

ponto y ∈ Rn com F(y) ≺ F(x).

Denotaremos por argmin{F(x) : x ∈ Rn} o conjunto dos pontos ´otimo Pareto e

argminw{F(x) : x ∈ Rn} o conjunto dos pontos ´otimo Pareto fracos para o Problema

(3.1).

Note que a Defini¸c˜ao 3.3.2 nos diz que se um ponto x ∈ Rn ´e ´otimo Pareto significa dizer que x n˜ao ´e dominado por nenhum outro ponto.

(49)

onde Y∗ ´e o conjunto Pareto-´otimo representado em linha cont´ınua. Exemplo 3.2.1. Seja F : R2 → R2 dada por

F(x, y) = (x2+2, y2 +2), ent˜ao o ponto (0, 0) ´e ´otimo Pareto.

Demonstra¸c˜ao. De fato, caso contr´ario existiria (x, y) ∈ R2;

F(x, y)  F(0, 0) ; F(x, y) 6= (2, 2) Logo, x2+2 < 2 e y2+2 < 2. Isto implicaria em

x2+2 < 2 ⇒ x2 <0 e

y2+2 < 2 ⇒ y2 <0, ou seja, um absurdo.

Observe que vale a seguinte inclus˜ao:

argmin{F(x) : x ∈ Rn} ⊂ argminw{F(x) : x ∈ Rn}.

De fato, dado x ∈ argmin{F(x) : x ∈ Rn} ent˜ao n˜ao existe y ∈ Rn tal que F(y)  F(x), com F(x) 6= F(y). Em particular, n˜ao existe y ∈ Rn tal que F(y) ≺ F(x). Ou seja, x ´e um

ponto Pareto fraco.

Defini¸c˜ao 3.2.3. Seja C ⊂ Rn um conjunto n˜ao-vazio e convexo.

i) F ´e dita convexa em C (ou C-convexa) se, e somente se, para todo x, y ∈ C ocorrer o seguinte:

F((1 − t)x + ty)  (1 − t)F(x) + tF(y), t ∈ [0, 1].

ii) F´e chamada fortemente convexa com constante ν ∈ Rm++ em C se, e somente se, para cada x, y ∈ C, ocorrer o seguinte:

(50)

Observa¸c˜ao 3.2.1. Note que F ´e convexa (resp. fortemente convexa) se, e somente se, cada fun¸c˜ao coordenada de F ´e convexa (resp. fortemente convexa). Isso decorre da defini¸c˜ao de ordem parcial  introduzida anteriormente, e pela Defini¸c˜ao 3.2.3..

Da´ı, lembrando que se f : Rn −→ R ´e fortemente convexa em particular ´e tamb´em

convexa, logo temos que se F : Rn−→ Rm´e fortemente convexa ent˜ao tamb´em ´e convexa,

pois cada fun¸c˜ao coordenada o ser´a. Mas a rec´ıproca ´e falsa como foi visto no Cap´ıtulo 1. O pr´oximo resultado nos d´a uma condi¸c˜ao necess´aria de otimalidade de primeira ordem para o Problema (3.1) de um ponto x∗∈ Rn.

Lema 3.2.1. Seja F : Rn −→ Rm, uma aplica¸ao continuamente diferenci´avel e xum

ponto ´otimo Pareto para (3.1), ent˜ao

Im(JF(x∗))∩ (−R++)m=∅.

Demonstra¸c˜ao. Temos por hip´otese que x∗ ´e um ponto ´otimo Pareto para o problema (3.1). Da´ı, temos que n˜ao existe ¯x ∈ Rn tal que F

i(¯x)6 Fi(x∗), para todo i ∈{1, 2, ..., m}

e Fj(¯x) 6 Fj(x∗) para algum ´ındice j ∈{1, 2, ..., m}. Agora, suponha por contradi¸c˜ao que

d∈ Im(JF(x∗))

∩ (−R++)m, ent˜ao existe v ∈ Rn tal que hgrad Fi(x∗), vi < 0, para todo

i∈{1, 2, ..., m}. Como G ´e continuamente diferenci´avel temos que, lim t→0 Fi(x∗+ tv) − Fi(x∗) t =hgrad Fi(x ∗ ), vi < 0, ∀i ∈{1, 2, ..., m}.

Mas assim, v ´e uma dire¸c˜ao de descida, para cada fun¸c˜ao componente Fi, isto ´e, existe

t0 >0 tal que

Fi(x∗+ tv) < Fi(x∗), ∀t ∈ (0, t0], ∀i ∈{1, 2, ..., m}.

Em outras palavras,

F(x∗+ tv)≺ F(x∗), ∀t ∈ (0, t0].

Mas isso contradiz o fato de x∗ ser um ponto ´otimo Pareto de (3.1).

O Lema 3.3.1. nos diz que todo ponto ´otimo Pareto ´e um ponto cr´ıtico Pareto.

Referências

Documentos relacionados

Assim sendo, a. tendência assumida pela pós - graduação em co- municação nos anos 60 contribuiu muito menos para melhorar e.. Ora, a comunicação de massa , após a Segunda Guerra

Nessa situação temos claramente a relação de tecnovívio apresentado por Dubatti (2012) operando, visto que nessa experiência ambos os atores tra- çam um diálogo que não se dá

Atualmente, não há trabalhos científicos disponíveis sobre os efeitos da utilização da CPS na dieta de animais ruminantes, portanto, este trabalho foi conduzido com o objetivo

O valor da reputação dos pseudônimos é igual a 0,8 devido aos fal- sos positivos do mecanismo auxiliar, que acabam por fazer com que a reputação mesmo dos usuários que enviam

Para além de pretendermos analisar se um teste que avalia as FE (Frontal Assessment Battery/FAB) discrimina idosos com/sem declínio cognitivo, avaliado através do

(...) o controle da convencionalidade em sede internacional seria um mecanismo processual que a Corte Interamericana de Direitos Humanos teria para averiguar se o direito

Primeiramente é feita uma contextualização da contabilidade rural, em seguida são apresentados os ativos biológicos, logo uma abordagem sobre os custos indiretos

O estudo aborda as contribuições da modalidade futsal na formação integral do educando e tem como objetivo compreender de que forma esta contribuição se dá através desse esporte