• Nenhum resultado encontrado

Estamos interessados em resolver o seguinte problema de otimizac¸˜ao:

(p) min

x∈Mf (x)

ondeM ´e uma variedade Riemanniana conexa, completa de dimens˜ao finita e f : M → IR ´e

uma func¸˜ao continuamente diferenci´avel e quase-convexa. O m´etodo de m´axima descida gera uma seq¨uˆencia de pontos{xk} dados por:

x0 ∈ M, (4.1)

xk+1 = expxk(−tkgradf (xk)) (4.2)

ondeexp ´e a aplicac¸˜ao exponencial etk ´e um parˆametro positivo.

vazio.

Denotamos o valor ´otimo de(p) por f∗. Agora, definamos o seguinte conjunto

U :={x ∈ M : f(x) ≤ inf

k f (x k)}.

O lema seguinte ´e a chave de nosso trabalho j´a que ele ser´a usado para provar que a seq¨uˆencia,

definida pelo m´etodo de m´axima descida, ´e quasi-Fej´er convergente aU.

Lemma 4.3.1 Sejaf : M → IR uma func¸˜ao continuamente differenci´avel e quase-convexa em

uma variedade Riemanniana conexa, completa e de dimens˜ao finita com curvatura seccional n˜ao negativa, ent˜ao

d2(xk+1, x)≤ d2(xk, x) + t2k||gradf (xk)||2

para todox∈ U e todo tk> 0.

Demonstrac¸˜ao. Sejax∈ U arbitr´ario. Seja tamb´em γ1 : [0, 1]→ M a geod´esica minimal lig-

andoxkex e γ

2 : [0, 1]→ M uma geod´esica ligando xkexk+1 comγ2′(0) =−tkgradf (xk).

Do Teorema 2.2.3 temos:

d2(xk+1, x)≤ d2(xk, x) + t2k||gradf (xk)||2+ 2tkd(xk, x)hgradf (xk), γ1′(0)i.

Comof ´e quase-convexa e f (x)≤ f(xk), do Teorema 4.2.2 obtemos que

hgradf (xk), γ1′(0)i ≤ 0.

Usando este resultado na desigualdade anterior obtemos o resultado desejado.

A partir de agora M denotar´a uma variedade Riemanniana conexa, completa e de dimens˜ao

finita com curvatura seccional n˜ao negativa.

4.3.1

M´etodo com uma busca de Armijo generalizada

O m´etodo de m´axima descida com busca de Armijo gera uma seq¨uˆencia de pontos{xk} dados por (4.1)-(4.2) onde tk = arg max{t : f  expxk(−tgradf (xk))  ≤ f(xk)−αt||gradf (xk)||2, t = 2−i, i = 0, 1, ...} (4.3)

comα ∈ (0, 1).

Nesta subsec¸˜ao provamos a convergˆencia global deste m´etodo para o caso quase-convexo. Nos-

sos resultados s˜ao uma generalizac¸˜ao de Kiwiel e Murty [48] para variedades Riemannianas e

estende pr´evios resultados de convergˆencia obtidos, para o caso convexo, por Burachik et al. [9] e Cruz Neto et al. [16]. Como em [48], considere a seguinte hip´otese:

Hip´otese A2. Sejaφ : IR+→ IR+uma func¸˜ao tal que:

A2.1 Existeα ∈ (0, 1), τα > 0, tal que∀t ∈ (0, τα] : φ(t)≤ αt,

A2.2 Existeβ > 0, τβ ∈ (0, +∞], tal que ∀t ∈ (0, τβ)∩ IR: φ(t) ≥ βt2,

A2.3 Para todok, f (xk+1)≤ f(xk)− φ(t

k)||gradf (xk)||2e0 < tk ≤ τβ em (4.2),

A2.4 Existeγ > 1, τγ > 0, tal que∀k : tk ≥ τγ ou

h

existe ¯tk ∈ [tk, γtk] : f (expxk(−¯tkgradf (xk)))≥ f(xk)− φ(¯tk)||gradf (xk)||2

i

. Observac¸˜ao 4.3.1 Observemos que a hip´oteseA2 ´e satisfeita pela regra de Armijo (4.3) para φ(t) = αt, β = α, γ = 2 e τα = τβ = τγ = 1.

Observac¸˜ao 4.3.2 A hip´otese A2 tamb´em ´e satisfeita pelo m´etodo de m´axima descida com

passos fixos introduzida em [9] e generalizada para variedades Riemannianas em [16]. De fato, em [9] e [16] a regra para obtertk ´e a seguinte:

Dadosδ1 eδ2 tal que δ1Γ + δ2 < 1, onde Γ ´e a constante de Lipschitz associada agradf,

escolher tk∈  δ1, 2 Γ(1− δ2)  . Definindoφ(t) = βt2, com β = Γδ2 2(1−δ2), τγ = δ1, τβ = (2/Γ)(1− δ2), α ∈ (0, 1) arbitr´ario e

τα = α/β, garantimos a hip´otese A2.

Proposic¸˜ao 4.3.1 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e quase-convexa.

Suponha que as hip´otesesA1 e A2 s˜ao satisfeitas. Ent˜ao a seq¨uˆencia{xk} gerada pelo m´etodo

de m´axima descida com busca de Armijo generalizada ´e quase-Fej´er convergente aU. Demonstrac¸˜ao. Das hip´otesesA2.2 e A2.3 temos

Isto implica que +∞ X k=0 t2k||gradf (xk)||2 f (x 0)− f∗ β < +∞.

Do Lemma 4.3.1 e Definic¸˜ao 4.2.1 temos o resultado.

Teorema 4.3.1 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e quase-convexa.

Suponha que as hip´otesesA1 e A2 s˜ao satisfeitas. Ent˜ao a seq¨uˆencia{xk} gerada pelo m´etodo

de m´axima descida com busca de Armijo generalizada converge. Al´em disso, ela converge para um ponto estacion´ario (um pontox tal que¯ gradf (¯x) = 0).

Demonstrac¸˜ao. Da Proposic¸˜ao anterior, {xk} ´e quase-Fej´er convergente a U, assim {xk} ´e

limitado (ver Teorema 4.2.1). Ent˜ao existemx e uma subseq¨uˆencia¯ {xkj} de {xk} convergindo

parax. Da continuidade de f obtemos¯ lim

j→+∞f (x

kj) = f (¯x).

Devido a que{f(xk)} ´e uma seq¨uˆencia n˜ao crescente, ver (4.4), com uma subseq¨uˆencia con-

vergindo paraf (¯x), toda a seq¨uˆencia converge para f (¯x) e assim f (¯x)≤ f(xk), ∀k ∈ IN.

Isto implica quex¯∈ U. Agora, do Teorema 4.2.1, concluimos que {xk} converge para ¯x.

Finalmente, provaremos quegradf (¯x) = 0. Por contradic¸˜ao, suponhamos quegradf (¯x)6= 0.

Claramente, temos que gradf (xk) gradf (¯x) 6= 0 e f(xk) → f(¯x). Agora, de (4.4),

cumpre-se que

lim

k→+∞tk = 0. (4.5)

Por outro lado, usandoA2.4 e A2.1, temos, para k suficientemente grande,

f (expxk(−¯tkgradf (xk)))− f(xk)≥ −α¯tk||gradf (xk)||2. (4.6)

Al´em disso, do teorema do valor medio, para cadak, existe t∗

k∈ [0, ¯tk] tal que

−hgradf (expxk(−tk∗gradf (xk))), Pγk,0,t

kgradf (x

k)

onde Pγk,0,t∗k ´e o transporte paralelo ao longo da geod´esicaγk tal queγk(0) = x

k e γ′ k(0) =

−gradf (xk). Agora, (4.5) e A2.4 implicam que lim

k→+∞t∗k = 0. Fazendo k → +∞ na de-

sigualdade acima e tomando em conta a continuidade degradf , exp e o transporte paralelo,

temos que1≤ α, o que contradiz A2.1. Portanto,gradf (¯x) = 0.

Como conseq¨uˆencia do teorema anterior e do Teorema 4.2.3 temos o seguinte resultado.

Corol´ario 4.3.1 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e pseudoconvexa.

Ent˜ao, com as hip´otesesA1 e A2, a seq¨uˆencia{xk} converge para um ponto de m´ınimo global

do problema(p).

4.3.2

M´etodo com uma regularizac¸ ˜ao proximal

Sejak} uma seq¨uˆencia de n´umeros reais tal que

λ′ ≤ λk≤ λ′′,

onde0 < λ′ ≤ λ′′. O m´etodo de m´axima descida com uma regularizac¸˜ao proximal gera uma

seq¨uˆencia{xk} definida por (4.1)-(4.2) onde

tk = arg min{f(expxk(−tgradf (xk))) + t2λk||gradf (xk)||2 : t≥ 0}. (4.7)

Este m´etodo foi introduzido por Iusem e Svaiter em [42] para resolver problemas de otimizac¸˜ao

convexa em espac¸os Euclidianos e logo generalizado para variedades Riemannianas em Cruz Neto et al. [18]. Nesta subsec¸˜ao, estendemos os resultados de convergˆencia global destes

trabalhos para o caso quase-convexo.

Proposic¸˜ao 4.3.2 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e quase-convexa.

Suponha que a hip´oteseA1 ´e satisfeita. Ent˜ao, a seq¨uˆencia{xk}, gerada por (4.1),(4.2) e (4.7),

´e quase-Fej´er convergente ao conjuntoU. Demonstrac¸˜ao. De (5.11) e (4.7) :

Daqui, ´e f´acil verificar que

+∞

X

k=0

t2k||gradf (xk)||2 ≤ (1/λ′)(f (x0)− f∗) < +∞.

Do Lema 4.3.1 e Definic¸˜ao 4.2.1, obtemos o resultado desejado.

Teorema 4.3.2 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e quase-convexa.

Suponha que a hip´otese A1 ´e satisfeita. Ent˜ao, a seq¨uˆencia {xk}, gerada por (4.1),(4.2) e

(4.7), converge a um ponto estacion´ario.

Demonstrac¸˜ao. De (4.8) temos que{f(xk)} ´e uma seq¨uˆencia n˜ao crescente. Usando os mes-

mos argumentos da demonstrac¸˜ao do Teorema 4.3.1, podemos mostar que{xk} converge a um pontox∗ ∈ U. Finalmente, temosgradf (x) = 0, como uma aplicac¸˜ao do Teorema 4.1, iiii,

em [18], onde isto foi provado para uma func¸˜ao arbit´aria.

Similar ao Corolario 4.3.1 temos o seguinte resultado

Corol´ario 4.3.2 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e pseudoconvexa.

Ent˜ao, com a hip´oteseA1, a seq¨uˆencia{xk} converge a um ponto de m´ınimo global de (p).

Documentos relacionados