• Nenhum resultado encontrado

Regress˜ ao n˜ ao Linear

Na se¸c˜ao anterior referimos dois modelos n˜ao lineares de ajustes de dados pelo m´etodo dos m´ınimos quadrados, e fizemos uma abordagem sobre o modelo com fun¸c˜oes intrinse- camente lineares nos seus parˆametros, onde vimos que mediante t´ecnicas adequadas trans- formamos esses modelos de modo a termos fun¸c˜oes lineares nos parˆametros. Nesta sec¸c˜ao abordaremos o caso com fun¸c˜oes intrinsecamente n˜ao lineares. Nesse tipo de modelos n˜ao h´a nenhuma transforma¸c˜ao finita exata atrav´es da qual possamos exprimir o modelo de uma forma linear em rela¸c˜ao aos seus parˆametros, isto ´e, n˜ao ´e poss´ıvel escrever o modelo na forma de (1.20) e consequentemente n˜ao ´e poss´ıvel transformar o problema de m´ınimos quadrados na resolu¸c˜ao de um sistema de equa¸c˜oes lineares. S˜ao exemplos de modelos intrinsecamente n˜ao lineares nos parˆametros:

g(x; a0, a1) = a0(1 − e−a1x),

v(t; α, β) = e−αt+ β sin t,

h(x; a0, a1, a2) = a0sin x + cos(a1x) + e−a2x,

etc.

O modelo de regress˜ao n˜ao linear para ajuste de dados assume a forma:

y = f (X, a) (1.30) Em que y =      y0 y1 .. . ym     

designa um vetor (m+1)×1 de observa¸c˜oes, X =      x01 x02 · · · x0k x11 x12 · · · x1k .. . ... · · · ... xm1 xm2 · · · xmk      ´

e uma matriz (m+1)×k dos m+1 valores exatos das k vari´aveis independentes, a =      a0 a1 .. . an      ´e

um vetor (n + 1) × 1 dos parˆametros e f ´e uma fun¸c˜ao n˜ao linear em rela¸c˜ao aos parˆametros a0, a1, · · · , an.

A soma da m´edia dos erros quadr´aticos entre os dados e o modelo pode ser expressa por:  = m X i=0 (yi− f (xi1, xi2, . . . , xik; a0, a1, . . . , an))2. (1.31)

Considerando m > n, podemos definir a fun¸c˜ao S : Rn+1 −→ R por

S(a0, a1, a2, . . . , an) = m

X

i=0

O nosso objetivo ´e determinar os parˆametros a0, a1, · · · , an que minimizam (1.32). A

solu¸c˜ao ´otima a∗ = [a∗0, a∗1, . . . , a∗n]T ajusta os dados experimentais no sentido dos m´ınimos

quadrados. A condi¸c˜ao necess´aria para que a∗ = [a∗0, a∗1, . . . , a∗n]T seja minimizante de S ´e

termos as derivadas parciais de S em rela¸c˜ao a cada um dos parˆametros a0, a1, . . . , an iguais

a zero. Com isso formamos um sistema de equa¸c˜oes normais n˜ao linear nos parˆametros a0, a1, . . . , an. A solu¸c˜ao do sistema ´e um ponto estacion´ario da fun¸c˜ao S que pode n˜ao ser

um m´ınimo. Conv´em real¸car que n˜ao existem m´etodos diretos para o ajuste de fun¸c˜oes pelo m´etodo dos m´ınimos quadrados n˜ao lineares, sendo a solu¸c˜ao obtida por m´etodos iterativos. Nos cap´ıtulos seguintes abordaremos os m´etodos iterativos para o ajuste n˜ao linear dos m´ınimos quadrados.

A seguir mostraremos alguns exemplos desse tipo de problemas.

Exemplo 1.10 No estudo laboratorial de um fen´omeno, uma certa grandeza f´ısica y(t) va- ria no tempo. Prevendo-se que siga uma lei dada pela express˜ao anal´ıtica: ypredicted(k1, k2, t) =

k1

k1−k2 e

−k2t− e−k1t, sendo k

1 e k2 parˆametros reais desconhecidos. No laborat´orio simula-

se o fen´omeno e obtˆem-se os dados experimentais da tabela seguinte: Pontos ti(s) yobserved(ti)

t1 = 0.5 yo1 = 0.263

t2 = 1.0 yo2 = 0.455

t3 = 1.5 yo3 = 0.548

.

Pretende-se calcular os valores dos parˆametros reais k1 e k2 por minimiza¸c˜ao dos qua-

drados dos desvios: min (k1,k2)∈R = φ(k1, k2) = m X i=1 [yobserved(ti) − ypredicted(k1, k2, ti)] 2 .

Ou seja, pretende-se encontrar os valores ´otimos (k∗1, k2∗) dos parˆametros k1 e k2 por forma

a minimizar a fun¸c˜ao φ(k1, k2). Trata-se do crit´erio dos m´ınimos quadrados no caso n˜ao

linear (regress˜ao n˜ao linear).

(a) Escreva uma function MATLAB para implementar computacionalmente a fun¸c˜ao φ(k1, k2).

(b) Use o comando fminsearch da Optimization Toolbox do MATLAB para calcular os valores ´otimos k1∗ e k2∗.

(c) Fa¸ca um gr´afico MATLAB da fun¸c˜ao ypredicted(k1, k2, t), com t ∈ [0, 2] e assinale nesse

gr´afico os pontos (ti, yoi), i = 1, 2, 3 da tabela acima.

Resolu¸c˜ao:

(a) Neste caso, a fun¸c˜ao a minimizar, segundo o crit´erio dos m´ınimos quadrados ´e φ(k1, k2) =

3

X

i=1

com yp(k1, k2, t) = k1k−k1 2 e

−k2t− e−k1t.

Para implementar computacionalmente a fun¸c˜ao φ(k1, k2) no MATLAB, criamos as

seguintes fun¸c˜oes:

(1) function yp=ypredicted (k1, k2,t) E1=exp(-k1*t); E2=exp(-k2*t); k=k1/(k1-k2); yp=k*(E2-E1); (2) function S=phisum (k) t=[0.5 1.0 1.5]; yo=[0.263 0.455 0.548]; P=(yo-ypredicted(k(1), k(2), t)).^ 2; S=sum(P); (b) Com o comando >> fminsearch(’phisum’,[1 1]), obtivemos k1∗ ∼= 0.6630 e k2∗ ∼= 0.1546.

(c) Para obtermos a representa¸c˜ao gr´afica da fun¸c˜ao e os pontos (ti, yoi), i = 1, 2, 3

implementamos a seguinte function no MATLAB: function phigraf(a,b,h) t=a:h:b; ti=[0.5 1.0 1.5]; yo=[0.263 0.455 0.548] k=fminsearch(’phisum’,[2 2]); yp=ypredicted(k(1), k(2), t); plot(t,yp); hold on plot(ti,yo,’or’) figure(gcf)

Agora com o comando phigraf(0,3,0.001), obtivemos o gr´afico da Figura 1.5.

No Cap´ıtulo 3 vamos abordar m´etodos de minimiza¸c˜ao para resolver este tipo de pro- blemas.

Figura 1.5: Ilustra¸c˜ao gr´afica do Exemplo 1.10.

Exemplo 1.11 Num circuito eletr´onico a tens˜ao el´etrica de sa´ıda ´e mostrada a intervalos de 0.5 segundos, obtendo-se a tabela

ti 0 0.5 1 1.5 2 2.5 3

vi 1.0950 −0.1569 −1.0157 −1.4740 −1.3616 −0.8342 −0.0135

. Tabela 1.8:

Sabemos que a tens˜ao ser´a da forma

v(t) = e−αt+ β sin t onde α e β s˜ao valores desconhecidos.

(a) Formular o problema de minimiza¸c˜ao que permite determinar α e β por forma a obter um melhor ajuste de v(t) aos dados da tabela no sentido dos m´ınimos quadrados. (b) Encontrar o sistema de estacionariedade (sistema de equa¸c˜oes normais).

(a) Como pretendemos aplicar o m´etodo dos m´ınimos quadrados, devemos ent˜ao mini- mizar a soma dos erros quadr´aticos, isto ´e, devemos ter

min (α,β)∈R2E(α, β) = 7 X i=1 vi− e−αti− β sin(ti) 2 .

(b) Os valores de α e β que minimizam E(α, β), encontram-se entre os que anulam o gradiente da referida fun¸c˜ao.

∇E(α, β) = ∂E ∂α(α, β) ∂E ∂β(α, β)  ⇒ ∇E(α, β) =  2P7 i=1[(vi− e−αti − β sin(ti))(tie−αti)] 2P7

i=1[(vi− e−αti − β sin(ti))(− sin(ti))]

 .

O sistema de estacionariedade ´e ∇E(α, β) = 0 0 

. Fazendo x ←− α e y ←− β, passamos a ter o sistema de equa¸c˜oes:

( f (x, y) =P7 j=1[(vj − e −xtj− y sin(t j))(tje−xtj)] = 0 g(x, y) =P7 j=1[(vj− e −xtj − y sin(t j))(− sin(tj))] = 0 .

Trata-se de um sistema de equa¸c˜oes n˜ao lineares cuja resolu¸c˜ao abordaremos no Cap´ıtulo 3.

Propomos agora a resolu¸c˜ao desse sistema atrav´es do comando fsolve do MATLAB. Assim, criamos a seguinte function:

function F=dcircuit(x) ti=0:0.5:3; Vi=[1.0950 -0.1569 -1.0157 -1.4740 -1.3616 -0.8342 -0.0135]; phi=exp(-x(1)*ti)+x(2)*sin(ti); df=sum((Vi-phi).*(ti.*exp(-x(1)*ti))); dg=sum((Vi-phi).*(-sin(ti))); F=[df dg]’; end

Agora, utilizando o comando: >> [x F]=fsolve(’dcircuit’,[0 0]’), obtemos x =

0.4295 -1.9842 F =

1.0e-006 * -0.1559 0.0639

Sendo assim, temos α ∼= 0.4295 e β ∼= −1.9842. Portanto, o modelo que melhor se ajusta aos dados da Tabela 1.8 em termos de m´ınimos quadrados ´e

Algoritmos de Otimiza¸c˜ao sem

Restri¸c˜oes

2.1

Otimiza¸c˜ao n˜ao Linear sem Restri¸c˜oes

A procura de melhores condi¸c˜oes de vida tem acompanhado os seres humanos desde os prim´ordios. Por isso os homens andam sempre `a procura de solu¸c˜oes para os seus problemas, ou seja, o homem procura sempre otimizar a sua vida. O processo de procurar o melhor (otimizar) n˜ao acontece apenas com o homem mas sim com os animais e com a pr´opria natureza. Em [29, pag. 1] apresentam-se diversos exemplos de necessidade de otimiza¸c˜ao de entre os quais, as empresas que procuram maximizar a eficiˆencia na concep¸c˜ao e opera¸c˜ao da sua produ¸c˜ao e consequentemente maximizar o lucro, os raios de luz que seguem o caminho que minimiza o tempo de trajeto entre dois pontos, etc. Deste modo torna-se imperioso conhecer ferramentas que nos permite encontrar solu¸c˜oes ´otimas para os nossos problemas. Matematicamente otimizar significa encontrar uma solu¸c˜ao ou um conjunto de solu¸c˜oes que minimizam ou maximizam uma fun¸c˜ao, considerando certas restri¸c˜oes em rela¸c˜ao `as vari´aveis. Sempre que se refere a otimiza¸c˜ao vˆem a tona os seguintes conceitos:

ˆ Fun¸c˜ao Objetivo → fun¸c˜ao f : Rn→ R que pretendemos minimizar ou maximizar.

ˆ Vari´aveis de Decis˜ao → s˜ao as vari´aveis independentes da fun¸c˜ao objetivo. ˆ Restri¸c˜oes → s˜ao condi¸c˜oes impostas sobre as vari´aveis independentes. As restri¸c˜oes

podem ser de igualdade ou desigualdade.

2.1.1

Forma Geral de um Problema de Otimiza¸c˜ao n˜ao Linear

Um problema de otimiza¸c˜ao pode ser formulado do seguinte modo:

min x∈Rnf (x) sujeito a ( ci(x) = 0, i = 1, 2, . . . k ci(x) ≥ 0, i = k + 1, k + 2, . . . , m , (2.1)

onde f ´e a fun¸c˜ao objetivo, x = [x1, x2, . . . , xn]T ´e um vetor de Rn representando as n

vari´aveis independentes do problema, as equa¸c˜oes ci(x) = 0 representam as k restri¸c˜oes de

igualdade e as inequa¸c˜oes ci(x) ≥ 0 as m − k restri¸c˜oes de desigualdade.

Em muitas situa¸c˜oes somos confrontados com problemas de maximiza¸c˜ao e n˜ao proble- mas de minimiza¸c˜ao. Mas acontece que maximizar f (x) = −minimizar [−f (x)], sendo o valor de x que maximiza f (x) o mesmo que minimiza −f (x). Assim, a formula¸c˜ao apresentada em (2.1) ´e v´alida tamb´em para problemas de maximiza¸c˜ao.

2.1.2

Otimiza¸c˜ao sem Restri¸c˜oes

O Problema de Otimiza¸c˜ao sem restri¸c˜oes ´e formulado do seguinte modo: Dado f : Rn−→ R, encontre min

x∈Rnf (x), (2.2)

isto ´e, a procura de extremos de f n˜ao se restringe a nenhum subconjunto de Rn.

Segundo [33, pag. 301], raramente encontramos um problema de otimiza¸c˜ao que n˜ao apresente restri¸c˜oes. Sendo assim, questionamos porque estudar m´etodos de otimiza¸c˜ao sem restri¸c˜oes? A resposta ´e dada por [33] apresentando v´arias raz˜oes de entre as quais:

1° As restri¸c˜oes podem n˜ao ter influˆencias significativas em certos tipos de problemas; 2° Alguns dos m´etodos poderosos e robustos de resolu¸c˜ao de problemas de minimiza¸c˜ao

com restri¸c˜oes requerem a utiliza¸c˜ao de t´ecnicas de minimiza¸c˜ao sem restri¸c˜oes. 3° O estudo das t´ecnicas de minimiza¸c˜ao sem restri¸c˜oes proporcionam uma compreens˜ao

b´asica necess´aria para o estudo de m´etodos de minimiza¸c˜ao com restri¸c˜oes.

Grande parte dos problemas sem restri¸c˜oes s˜ao ajustes de m´ınimos quadrados (curve fitting) ou est˜ao associados `a resolu¸c˜ao de sistemas n˜ao lineares de equa¸c˜oes.

Documentos relacionados