• Nenhum resultado encontrado

Problema de M´ınimos Quadrados sem Restri¸c˜ oes

Segundo [43] os problemas de m´ınimos quadrados n˜ao lineares s˜ao uma classe de proble- mas de otimiza¸c˜ao sem restri¸c˜oes que mais surgem nas aplica¸c˜oes. O problema de m´ınimos quadrados sem restri¸c˜oes ´e formulado da seguinte forma

min x∈Rnf (x) = 1 2kr(x)k 2 2 = 1 2 m X i=1 ri(x)2, (2.5)

onde, m > n, x = [x1 x2· · · xn]T e r : Rn → Rm ´e chamada fun¸c˜ao residual. Nesses tipos

de problemas, o objetivo ´e minimizar a norma Euclidiana da fun¸c˜ao

r : D ⊂ Rn → Rm (2.6) x =      x1 x2 .. . xn      →      r1(x) r2(x) .. . rm(x)      = r(x) ,

sendo r(x) = φ(x, t) − y uma fun¸c˜ao n˜ao linear nos parˆametros x1, x2, . . . , xn, pelo facto da

fun¸c˜ao de ajuste φ(x, t) ser n˜ao linear nesses mesmos parˆametros. Os dados experimentais s˜ao os pares ordenados (ti, yi), i = 1(1)m.

2.3.1

Existˆencia da solu¸c˜ao de m´ınimos quadrados

Ser´a o Problema (2.5) poss´ıvel? Ou seja, a fun¸c˜ao f (x) admite um m´ınimo global? Abordaremos agora esta quest˜ao. Poderemos come¸car por observar que em qualquer caso a fun¸c˜ao f ´e n˜ao negativa: f (x) = 1 2 m X i=1 [ri(x)] 2 ≥ 0. (2.7)

Assim, se existir um ponto ˘x ∈ Rn de ajuste perfeito aos dados, ou seja se: ri(x) = φ(˘x, ti) − yi = 0, i = 1, 2, . . . , m

ent˜ao f (˘x) = 0 e ´e ´obvio que ˘x ´e um minimizante global de f . Neste caso de ajuste perfeito (φ(x, ti) = yi, i = 1(1)m), o Problema (2.5) tem solu¸c˜ao.

Por outro lado, mesmo que n˜ao haja ajuste perfeito j´a foi demonstrado no cap´ıtulo anterior que se φ(x) for linear nos parˆametros ent˜ao a solu¸c˜ao dos m´ınimos quadrados existe sempre (ver Apˆendice A).

O resultado mais b´asico acerca da existˆencia de optimizadores ´e o seguinte Teorema dos valores extremos de Bolzano-Weierstrass:

Teorema 2.3 (Bolzano-Weierstrass) Seja f : D −→ R uma fun¸c˜ao cont´ınua definida num dom´ınio D ⊂ R compacto (e.g. limitado, fechado e n˜ao vazio). Ent˜ao, a fun¸c˜ao atinge em D o seu valor m´ınimo, ou seja

∃ x∗ ∈ D : f (x∗) ≤ f (x) para todo o x ∈ D.

Duas provas deste teorema podem ser encontradas em [30][pag. 33]. Este teorema restringe a sua aplica¸c˜ao a fun¸c˜oes cont´ınuas definidas em compactos. Na verdade, normalmente as fun¸c˜oes de ajuste φ(x, t) s˜ao cont´ınuas o que implica que a fun¸c˜ao f no Problema (2.5) seja cont´ınua. Contudo, nos problemas de m´ınimos quadrados sem restri¸c˜oes o conjunto de solu¸c˜oes admiss´ıveis D coincide com Rn e, portanto, n˜ao ´e um compacto1. Assim, a existˆencia de minimizante global n˜ao se pode provar usando o Teorema de Bolzano- Weierstrass.

Note-se que pela propriedade (2.7) a fun¸c˜ao f ´e limitada inferiormente pelo que existe o ´ınfimo If n˜ao negativo de f em Rn, ou seja, existe um valor real If que ´e o maior dos

minorantes de f :

If = inf

x∈Rnf (x) ≥ 0. (2.8)

No entanto, pode ou n˜ao existir um ponto x∗ tal que f (x∗) = If. Caso exista, ent˜ao a

fun¸c˜ao f atinge m´ınimo global em Rn sendo esse m´ınimo global o valor If e o minimizante

1 Por vezes, nas aplica¸oes, pode conseguir-se provar que os parˆametros x

i, i = 1(1)m n˜ao podem estar

fora de intervalos [ai, bi] ⊂ R. Por exemplo, pode n˜ao fazer sentido que os parˆametros xi sejam negativos

ou ent˜ao que sejam superiores a 1000. Nesse caso, o conjunto das solu¸c˜oes admiss´ıveis ser´a compacto mas o problema de m´ınimos quadrados tem restri¸c˜oes (box constraints). A existˆencia de restri¸c˜oes no problema est´a fora do ˆambito desta disserta¸c˜ao.

´

e o ponto x∗. Neste caso diz-se que o m´ınimo foi atingido. Por estas raz˜oes, a quest˜ao da existˆencia da solu¸c˜ao dos m´ınimos quadrados ´e muitas vezes designada por atingibilidade do m´ınimo.

Veremos agora que h´a casos em que ´e poss´ıvel provar a existˆencia de minimizantes globais mesmo que o conjunto das solu¸c˜oes admiss´ıveis n˜ao seja compacto.

Teorema 2.4 Seja f : S −→ R uma fun¸c˜ao cont´ınua definida num dom´ınio S j R. Se f tiver um qualquer conjunto de n´ıvel Nα(f ) = {x ∈ S : f (x) ≤ α} compacto (limitado,

fechado e n˜ao vazio), ent˜ao f atinge o seu m´ınimo global em S.

A prova deste teorema tamb´em pode ser encontrada em [30][pag. 33]. Assim, a prova de que f atinge m´ınimo pode consistir em provar que existe um qualquer valor real α tal que o conjunto de n´ıvel Nα(f ) = {x ∈ S : f (x) ≤ α} seja um conjunto fechado, limitado e n˜ao

vazio de Rn.

Defini¸c˜ao 2.6 (Fun¸c˜ao Coerciva) Uma fun¸c˜ao f : Rn −→ R diz-se coerciva se for

cont´ınua e se

f (x) −→ +∞ quando kxk −→ +∞, onde k·k denota qualquer norma definida em Rn.

Para aclarar o conceito de fun¸c˜ao coerciva acrescentaremos que uma fun¸c˜ao cont´ınua f : Rn −→ R ´e coerciva se para todo o M > 0, existe r > 0 tal que f(x) > M para todo o x que cumpra kxk > r. Para provar que uma fun¸c˜ao ´e coerciva n˜ao basta provar que f tende para +∞ ao longo de todos os eixos coordenados. Com efeito, uma fun¸c˜ao co- erciva ter´a de crescer ilimitadamente por qualquer caminho que se estenda at´e +∞. Logo, se conseguirmos provar que f ´e limitada superiormente num certo caminho de Rn quando

kxk → +∞ ent˜ao provamos que f n˜ao ´e coerciva.

As fun¸c˜oes coercivas atingem sempre o seu m´ınimo global. Na verdade, pode provar- se [30][pag. 34] que todos os conjuntos de n´ıvel Nα(f ) = {x ∈ S : f (x) ≤ α} s˜ao limitados

e fechados. Esta constata¸c˜ao conjugada com o Teorema 2.4 leva ao resultado seguinte. Corol´ario 2.1 Uma fun¸c˜ao coerciva f : Rn −→ R atinge o seu m´ınimo global em Rn.

Com este enquadramento, voltamos `a quest˜ao da existˆencia de solu¸c˜ao para o Problema (2.5) de m´ınimos quadrados sem restri¸c˜oes. Fixada uma fun¸c˜ao de ajuste φ(x, t) e uma tabela de dados (ti, yi), i = 1(1)m poder´ıamos tentar provar que a fun¸c˜ao ´e coerciva ou

ent˜ao aplicar o Teorema 2.4.

Investiga¸c˜oes recentes de E. Demidenko [12, 13], de D. Jukiˇc [8, 9, 10, 7] e de outros autores [14] mostram que mesmo para fun¸c˜oes de ajuste simples h´a conjuntos de dados para os quais n˜ao h´a solu¸c˜ao de m´ınimos quadrados. Conv´em frisar que a investiga¸c˜ao se tem dirigido para fun¸c˜oes de ajuste muito usadas na pr´atica (curvas exponenciais [14], curvas Gaussianas [10], curvas log´ısticas [7]), procurando condi¸c˜oes necess´arias e/ou suficientes que garantam a existˆencia de solu¸c˜ao de m´ınimos quadrados. Como j´a foi dito, tudo depende da tabela de dados experimentais e das suas propriedades.

A investiga¸c˜ao te´orica acerca da atingibilidade do m´ınimo nos problemas de m´ınimos quadrados est´a fora do ˆambito deste trabalho. Contudo, ´e importante referir que o assunto ´

e uma ´area de investiga¸c˜ao ainda f´ertil. No entanto, alertamos para a possibilidade de n˜ao existir minimizante global para estes problemas.

2.3.2

Unicidade da solu¸c˜ao de m´ınimos quadrados

Ap´os provar que a solu¸c˜ao existe levanta-se imediatamente a quest˜ao da unicidade da solu¸c˜ao. N˜ao se trata da existˆencia de m´ultiplos m´ınimos locais (que ser´a tratado adiante), trata-se da existˆencia de minimizantes globais distintos. ´E f´acil de provar que isso pode acontecer numa multiplicidade de situa¸c˜oes tais como:

ˆ No caso linear n˜ao polinomial quando o sistema normal ´e indeterminado (ver Exemplo 1.7).

ˆ Um dos parˆametros xi surge como base de uma potˆencia de expoente dois ou mais.

Por exemplo, quando procuramos o ajuste de uma tabela de dados a uma curva de Lorentz:

φ(x, t) = x1 1 +x2−t

x3 2 .

Se existir uma solu¸c˜ao de m´ınimos quadrados x∗ = [x∗1, x2∗, x∗3]> ent˜ao ter´a de existir outra solu¸c˜ao ´otima distinta x∗∗ = [x∗1, x∗2, −x∗3]>. Ou seja, podemos trocar o sinal ao parˆametro x∗3 que a fun¸c˜ao φ mantem o valor. Logo a fun¸c˜ao f do problema (2.5) tamb´em manter´a o valor.

ˆ Dois parˆametros podem ser trocados sem que o valor de φ se altere. Um caso simples ´e quando a express˜ao anal´ıtica que define φ envolve o produto de dois parˆametros, pois, por exemplo, x1x2 ´e igual a x2x1.

ˆ Um dos parˆametros surge como argumento de uma fun¸c˜ao trigonom´etrica peri´odica. ´

E claro que, por exemplo, sin(x1) ter´a o mesmo valor de sin(x1+ 2nπ) com n ∈ Z.

Outras situa¸c˜oes podem ocorrer por forma que existam m´ultiplos minimizantes globais. Note-se que sempre que isso acontece a fun¸c˜ao objectivo f n˜ao ´e estritamente convexa. Esta observa¸c˜ao conduz ao t´opico seguinte.

2.3.3

Existˆencia de m´ultiplos minimizantes locais distintos

Como vimos podem existir m´ultiplos minimizantes globais distintos. Na verdade, a fun¸c˜ao f pode n˜ao ser convexa. Sem convexidade podem ocorrer m´ultiplos minimizantes locais o que leva a classificar o Problema (2.5) de m´ınimos quadrados sem restri¸c˜oes como um problema de optimiza¸c˜ao global.

Vejamos agora que a fun¸c˜ao f pode ser convexa ou n˜ao convexa dependendo do pro- blema.

Considerando que r(x) ´e duas vezes continuamente diferenci´avel, podemos determinar a matriz das primeiras derivadas de r(x) que ´e chamada matriz Jacobiana e ´e representada por J (x). Assim temos que J (x) ∈ Rm×n, isto ´e,

J (x) =       ∂r1(x) ∂x1 ∂r1(x) ∂x2 · · · ∂r1(x) ∂xn ∂r2(x) ∂x1 ∂r2(x) ∂x2 · · · ∂r2(x) ∂xn .. . ... . .. ... ∂rm(x) ∂x1 ∂rm(x) ∂x2 · · · ∂rm(x) ∂xn       . (2.9)

O gradiente da fun¸c˜ao objetivo f (x) ´e dado por: ∇f (x) =

m

X

i=1

ri(x)∇ri(x) = J (x)Tr(x) (2.10)

e a matriz Hessiana de f (x) ´e dada por ∇2f (x) = m X i=0 [∇ri(x)∇ri(x)T + ri(x)∇2ri(x)] = m X i=0 ∇ri(x)∇ri(x)T + m X i=0 ri(x)∇2ri(x) = J (x)TJ (x) + S(x), (2.11) em que S(x) = m X i=0 ri(x)∇2ri(x). (2.12)

Na express˜ao (2.11), o termo J (x)TJ (x) representa sempre uma matriz definida positiva2

desde que J tenha caracter´ıstica n. Se o problema de m´ınimos quadrados (2.5) fosse linear todas as Hessianas ∇2r

i(x) = 0 e ent˜ao S(x) = 0 na express˜ao (2.12). Neste caso particular,

∇2f (x) ´e definida positiva e ent˜ao f ´e uma fun¸c˜ao convexa em Rn.

No caso em que f ´e n˜ao linear, pode muito bem acontecer que alguns ou todos os termos ri(x)∇2ri(x) contribuam contra a convexidade. Como j´a vimos isso pode levar a

que a fun¸c˜ao n˜ao seja convexa e ocorram m´ultiplos minimizantes locais e at´e m´ultiplos minimizantes globais.

Na literatura surgem estudos [12] que provam a existˆencia de m´ultiplos minimizan- tes locais na optimiza¸c˜ao de m´ınimos quadrados. Como os algoritmos podem parar em m´ınimos locais, corre-se o risco de supor como global um minimizante que apenas ´e local. Partir de v´arias aproxima¸c˜oes iniciais e usar v´arios m´etodos aumenta o grau de certeza de que a solu¸c˜ao encontrada possa ser mesmo um minimizante global. Este dilema ´e bem conhecido na pr´atica. Contudo, come¸cam a surgir crit´erios seguros [13] para estabelecer que um certo minimizante ´e mesmo global.

2

Dada uma qualquer matriz J ∈ Rm×n com caracter´ıstica n, por colunas, a matriz B = JTJ ´e sempre

Documentos relacionados