Estamos interessados em resolver o seguinte problema de otimizac¸˜ao:
(p) min
x∈Mf (x)
ondeM ´e uma variedade Riemanniana conexa, completa de dimens˜ao finita e f : M → IR ´e
uma func¸˜ao continuamente diferenci´avel e quase-convexa. O m´etodo de m´axima descida gera uma seq¨uˆencia de pontos{xk} dados por:
x0 ∈ M, (4.1)
xk+1 = expxk(−tkgradf (xk)) (4.2)
ondeexp ´e a aplicac¸˜ao exponencial etk ´e um parˆametro positivo.
vazio.
Denotamos o valor ´otimo de(p) por f∗. Agora, definamos o seguinte conjunto
U :={x ∈ M : f(x) ≤ inf
k f (x k)}.
O lema seguinte ´e a chave de nosso trabalho j´a que ele ser´a usado para provar que a seq¨uˆencia,
definida pelo m´etodo de m´axima descida, ´e quasi-Fej´er convergente aU.
Lemma 4.3.1 Sejaf : M → IR uma func¸˜ao continuamente differenci´avel e quase-convexa em
uma variedade Riemanniana conexa, completa e de dimens˜ao finita com curvatura seccional n˜ao negativa, ent˜ao
d2(xk+1, x)≤ d2(xk, x) + t2k||gradf (xk)||2
para todox∈ U e todo tk> 0.
Demonstrac¸˜ao. Sejax∈ U arbitr´ario. Seja tamb´em γ1 : [0, 1]→ M a geod´esica minimal lig-
andoxkex e γ
2 : [0, 1]→ M uma geod´esica ligando xkexk+1 comγ2′(0) =−tkgradf (xk).
Do Teorema 2.2.3 temos:
d2(xk+1, x)≤ d2(xk, x) + t2k||gradf (xk)||2+ 2tkd(xk, x)hgradf (xk), γ1′(0)i.
Comof ´e quase-convexa e f (x)≤ f(xk), do Teorema 4.2.2 obtemos que
hgradf (xk), γ1′(0)i ≤ 0.
Usando este resultado na desigualdade anterior obtemos o resultado desejado.
A partir de agora M denotar´a uma variedade Riemanniana conexa, completa e de dimens˜ao
finita com curvatura seccional n˜ao negativa.
4.3.1
M´etodo com uma busca de Armijo generalizada
O m´etodo de m´axima descida com busca de Armijo gera uma seq¨uˆencia de pontos{xk} dados por (4.1)-(4.2) onde tk = arg max{t : f expxk(−tgradf (xk)) ≤ f(xk)−αt||gradf (xk)||2, t = 2−i, i = 0, 1, ...} (4.3)
comα ∈ (0, 1).
Nesta subsec¸˜ao provamos a convergˆencia global deste m´etodo para o caso quase-convexo. Nos-
sos resultados s˜ao uma generalizac¸˜ao de Kiwiel e Murty [48] para variedades Riemannianas e
estende pr´evios resultados de convergˆencia obtidos, para o caso convexo, por Burachik et al. [9] e Cruz Neto et al. [16]. Como em [48], considere a seguinte hip´otese:
Hip´otese A2. Sejaφ : IR+→ IR+uma func¸˜ao tal que:
A2.1 Existeα ∈ (0, 1), τα > 0, tal que∀t ∈ (0, τα] : φ(t)≤ αt,
A2.2 Existeβ > 0, τβ ∈ (0, +∞], tal que ∀t ∈ (0, τβ)∩ IR: φ(t) ≥ βt2,
A2.3 Para todok, f (xk+1)≤ f(xk)− φ(t
k)||gradf (xk)||2e0 < tk ≤ τβ em (4.2),
A2.4 Existeγ > 1, τγ > 0, tal que∀k : tk ≥ τγ ou
h
existe ¯tk ∈ [tk, γtk] : f (expxk(−¯tkgradf (xk)))≥ f(xk)− φ(¯tk)||gradf (xk)||2
i
. Observac¸˜ao 4.3.1 Observemos que a hip´oteseA2 ´e satisfeita pela regra de Armijo (4.3) para φ(t) = αt, β = α, γ = 2 e τα = τβ = τγ = 1.
Observac¸˜ao 4.3.2 A hip´otese A2 tamb´em ´e satisfeita pelo m´etodo de m´axima descida com
passos fixos introduzida em [9] e generalizada para variedades Riemannianas em [16]. De fato, em [9] e [16] a regra para obtertk ´e a seguinte:
Dadosδ1 eδ2 tal que δ1Γ + δ2 < 1, onde Γ ´e a constante de Lipschitz associada agradf,
escolher tk∈ δ1, 2 Γ(1− δ2) . Definindoφ(t) = βt2, com β = Γδ2 2(1−δ2), τγ = δ1, τβ = (2/Γ)(1− δ2), α ∈ (0, 1) arbitr´ario e
τα = α/β, garantimos a hip´otese A2.
Proposic¸˜ao 4.3.1 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e quase-convexa.
Suponha que as hip´otesesA1 e A2 s˜ao satisfeitas. Ent˜ao a seq¨uˆencia{xk} gerada pelo m´etodo
de m´axima descida com busca de Armijo generalizada ´e quase-Fej´er convergente aU. Demonstrac¸˜ao. Das hip´otesesA2.2 e A2.3 temos
Isto implica que +∞ X k=0 t2k||gradf (xk)||2 ≤ f (x 0)− f∗ β < +∞.
Do Lemma 4.3.1 e Definic¸˜ao 4.2.1 temos o resultado.
Teorema 4.3.1 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e quase-convexa.
Suponha que as hip´otesesA1 e A2 s˜ao satisfeitas. Ent˜ao a seq¨uˆencia{xk} gerada pelo m´etodo
de m´axima descida com busca de Armijo generalizada converge. Al´em disso, ela converge para um ponto estacion´ario (um pontox tal que¯ gradf (¯x) = 0).
Demonstrac¸˜ao. Da Proposic¸˜ao anterior, {xk} ´e quase-Fej´er convergente a U, assim {xk} ´e
limitado (ver Teorema 4.2.1). Ent˜ao existemx e uma subseq¨uˆencia¯ {xkj} de {xk} convergindo
parax. Da continuidade de f obtemos¯ lim
j→+∞f (x
kj) = f (¯x).
Devido a que{f(xk)} ´e uma seq¨uˆencia n˜ao crescente, ver (4.4), com uma subseq¨uˆencia con-
vergindo paraf (¯x), toda a seq¨uˆencia converge para f (¯x) e assim f (¯x)≤ f(xk), ∀k ∈ IN.
Isto implica quex¯∈ U. Agora, do Teorema 4.2.1, concluimos que {xk} converge para ¯x.
Finalmente, provaremos quegradf (¯x) = 0. Por contradic¸˜ao, suponhamos quegradf (¯x)6= 0.
Claramente, temos que gradf (xk) → gradf (¯x) 6= 0 e f(xk) → f(¯x). Agora, de (4.4),
cumpre-se que
lim
k→+∞tk = 0. (4.5)
Por outro lado, usandoA2.4 e A2.1, temos, para k suficientemente grande,
f (expxk(−¯tkgradf (xk)))− f(xk)≥ −α¯tk||gradf (xk)||2. (4.6)
Al´em disso, do teorema do valor medio, para cadak, existe t∗
k∈ [0, ¯tk] tal que
−hgradf (expxk(−tk∗gradf (xk))), Pγk,0,t∗
kgradf (x
k)
onde Pγk,0,t∗k ´e o transporte paralelo ao longo da geod´esicaγk tal queγk(0) = x
k e γ′ k(0) =
−gradf (xk). Agora, (4.5) e A2.4 implicam que lim
k→+∞t∗k = 0. Fazendo k → +∞ na de-
sigualdade acima e tomando em conta a continuidade degradf , exp e o transporte paralelo,
temos que1≤ α, o que contradiz A2.1. Portanto,gradf (¯x) = 0.
Como conseq¨uˆencia do teorema anterior e do Teorema 4.2.3 temos o seguinte resultado.
Corol´ario 4.3.1 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e pseudoconvexa.
Ent˜ao, com as hip´otesesA1 e A2, a seq¨uˆencia{xk} converge para um ponto de m´ınimo global
do problema(p).
4.3.2
M´etodo com uma regularizac¸ ˜ao proximal
Seja{λk} uma seq¨uˆencia de n´umeros reais tal que
λ′ ≤ λk≤ λ′′,
onde0 < λ′ ≤ λ′′. O m´etodo de m´axima descida com uma regularizac¸˜ao proximal gera uma
seq¨uˆencia{xk} definida por (4.1)-(4.2) onde
tk = arg min{f(expxk(−tgradf (xk))) + t2λk||gradf (xk)||2 : t≥ 0}. (4.7)
Este m´etodo foi introduzido por Iusem e Svaiter em [42] para resolver problemas de otimizac¸˜ao
convexa em espac¸os Euclidianos e logo generalizado para variedades Riemannianas em Cruz Neto et al. [18]. Nesta subsec¸˜ao, estendemos os resultados de convergˆencia global destes
trabalhos para o caso quase-convexo.
Proposic¸˜ao 4.3.2 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e quase-convexa.
Suponha que a hip´oteseA1 ´e satisfeita. Ent˜ao, a seq¨uˆencia{xk}, gerada por (4.1),(4.2) e (4.7),
´e quase-Fej´er convergente ao conjuntoU. Demonstrac¸˜ao. De (5.11) e (4.7) :
Daqui, ´e f´acil verificar que
+∞
X
k=0
t2k||gradf (xk)||2 ≤ (1/λ′)(f (x0)− f∗) < +∞.
Do Lema 4.3.1 e Definic¸˜ao 4.2.1, obtemos o resultado desejado.
Teorema 4.3.2 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e quase-convexa.
Suponha que a hip´otese A1 ´e satisfeita. Ent˜ao, a seq¨uˆencia {xk}, gerada por (4.1),(4.2) e
(4.7), converge a um ponto estacion´ario.
Demonstrac¸˜ao. De (4.8) temos que{f(xk)} ´e uma seq¨uˆencia n˜ao crescente. Usando os mes-
mos argumentos da demonstrac¸˜ao do Teorema 4.3.1, podemos mostar que{xk} converge a um pontox∗ ∈ U. Finalmente, temosgradf (x∗) = 0, como uma aplicac¸˜ao do Teorema 4.1, iiii,
em [18], onde isto foi provado para uma func¸˜ao arbit´aria.
Similar ao Corolario 4.3.1 temos o seguinte resultado
Corol´ario 4.3.2 Sejaf : M → IR uma func¸˜ao continuamente diferenci´avel e pseudoconvexa.
Ent˜ao, com a hip´oteseA1, a seq¨uˆencia{xk} converge a um ponto de m´ınimo global de (p).