• Nenhum resultado encontrado

Introdução à Optimização Dinâmica

N/A
N/A
Protected

Academic year: 2021

Share "Introdução à Optimização Dinâmica"

Copied!
277
0
0

Texto

(1)

Delfim F. M. Torres http://www.mat.ua.pt/delfim

(2)
(3)

with what you should have had.”

(4)
(5)

1 Optimiza¸c˜ao em espa¸cos de dimens˜ao finita 1

1.1 Fun¸c˜oes escalares . . . 1

1.2 Fun¸c˜oes vectoriais . . . 7

1.3 Restri¸c˜oes de igualdade e o m´etodo dos multiplicadores de Lagrange . . . 8

1.4 Restri¸c˜oes de desigualdade e o Teorema de Karush-Kuhn-Tucker . . . 15

1.5 Programa¸c˜ao Dinˆamica em tempo discreto . . . 18

1.5.1 Problema de percurso . . . 18

1.5.2 Problema de investimento . . . 25

2 C´alculo das Varia¸c˜oes 35 2.1 Formula¸c˜ao de alguns problemas variacionais . . . 35

2.2 Problema fundamental e as equa¸c˜oes necess´arias de Euler-Lagrange . . . 37

2.3 O m´etodo de Ritz . . . 43

2.4 Extens˜oes do problema fundamental . . . 49

2.4.1 Caso vectorial: n vari´aveis dependentes, n≥ 1 . . . . 49

2.4.2 Problemas com derivadas de ordem superior . . . 52

2.5 Problemas isoperim´etricos . . . 54

2.6 Condi¸c˜oes necess´arias de ordem superior . . . 61

2.7 Condi¸c˜ao suficiente de Jacobi . . . 67

3 Controlo ´Optimo 69 3.1 Formula¸c˜ao do problema e sua rela¸c˜ao com o C´alculo das Varia¸c˜oes . . . 69

3.2 Abordagem Hamiltoniana e a condi¸c˜ao necess´aria de Hestenes . . . 74

3.3 Condi¸c˜ao suficiente . . . 82 i

(6)

3.4 Programa¸c˜ao Dinˆamica em tempo cont´ınuo . . . 83

3.5 Princ´ıpio do M´aximo de Pontryagin . . . 86

3.6 Problema de Newton da Resistˆencia m´ınima . . . 92

3.7 Outros formatos para o problema de Controlo ´Optimo . . . 100

3.7.1 O problema de Bolza do controlo ´optimo . . . 100

3.7.2 Problemas isoperim´etricos do Controlo ´Optimo e optimiza¸c˜ao param´etrica103 3.7.3 O problema de tempo m´ınimo . . . 105

3.8 Leis de Conserva¸c˜ao . . . 106

3.8.1 M´etodo de Poisson . . . 107

3.8.2 M´etodo de Noether . . . 109

3.8.3 Exemplos: leis de conserva¸c˜ao em Controlo ´Optimo . . . 112

3.8.4 Exemplos: leis de conserva¸c˜ao no C´alculo das Varia¸c˜oes . . . 125

4 Um problema da Economia 135 4.1 O problema . . . 136

4.2 Determina¸c˜ao da extremal via C´alculo das Varia¸c˜oes . . . 137

4.3 Determina¸c˜ao da extremal via Controlo ´Optimo . . . 138

4.4 Determina¸c˜ao da extremal via Programa¸c˜ao Dinˆamica . . . 141

4.5 Conclus˜ao . . . 143

Apˆendices 145 A Exemplo da componente te´orica dos exames 145 B Exemplo da componente pr´atica dos exames 147 C Matem´atica elementar em Maple 155 D Computa¸c˜ao Alg´ebrica em Maple: Programa¸c˜ao Dinˆamica 251 D.1 Problema de percurso . . . 251

D.2 Problema de investimento . . . 253

(7)

F Computa¸c˜ao Alg´ebrica em Maple: Controlo ´Optimo 257

Bibliografia 261

(8)
(9)

Optimiza¸c˜

ao em espa¸cos de

dimens˜

ao finita

Existem pelo menos trˆes raz˜oes para se resolverem problemas de optimiza¸c˜ao. A primeira ´e pragm´atica: ´e natural o Homem procurar a melhor maneira de utilizar os seus recursos, sendo por isso frequentes os problemas de optimiza¸c˜ao na Economia, na Engenharia e na Gest˜ao de Processos. A segunda raz˜ao vem das propriedades do mundo que habitamos: muitas das leis da natureza s˜ao explicadas por princ´ıpios de extremalidade. Finalmente, a terceira raz˜ao ´e a curiosidade humana e o desejo de compreender. Todas estas raz˜oes encontram-se bem patentes na Hist´oria da Matem´atica e do Homem.

Neste curso estamos essencialmente interessados na minimiza¸c˜ao (ou maximiza¸c˜ao) de funcionais. A no¸c˜ao de funcional (fun¸c˜ao cujos argumentos residem num espa¸co de dimens˜ao infinita) generaliza a de fun¸c˜ao (argumentos num espa¸co de dimens˜ao finita). Come¸camos, por isso, por tratar o caso mais simples referente `a minimiza¸c˜ao de fun¸c˜oes. Como veremos, os resultados obtidos em espa¸cos Euclidianos ser˜ao ´uteis na abordagem posterior aos problemas de minimiza¸c˜ao de funcionais, que constitui o ˆamago do nosso estudo.

Assumiremos sempre, ao longo destas notas, a continuidade e diferenciabilidade necess´arias para que as formula¸c˜oes dos problemas, resultados e argumentos usados, fa¸cam sentido.

Come¸camos com o caso de fun¸c˜oes de uma ´unica vari´avel real.

1.1

Fun¸c˜

oes escalares

Defini¸c˜ao 1. A fun¸c˜ao f (x) tem um m´ınimo local em x0 se existir uma vizinhan¸ca (x0−

d, x0+ d) na qual f (x)≥ f(x0). Dizemos que x0 ´e ponto de m´ınimo global de f (x) em [a, b]

se f (x)≥ f(x0) para todo o x∈ [a, b].

(10)

Teorema 2 (Condi¸c˜ao Necess´aria – caso escalar; Teorema de Fermat). Se uma fun¸c˜ao con-tinuamente diferenci´avel f (x) tem m´ınimo local em x0, ent˜ao

f′(x0) = 0 . (1.1)

Como coment´ario hist´orico, salientamos que Fermat n˜ao conhecia o conceito de derivada. No entanto, numa sua carta de 1638 (na altura as revistas cient´ıficas, tal como as conhecemos hoje, n˜ao existiam e a correspondˆencia cient´ıfica era feita por interm´edio de cartas) Fermat explicou a ideia da “parte linear principal de uma fun¸c˜ao”, escrevendo que ela devia ser zero. O conceito de derivada foi introduzido mais tarde por Newton e Leibniz.

O Teorema 2 ´e uma condi¸c˜ao necess´aria, mas n˜ao suficiente. Por exemplo, x = 0 n˜ao ´e minimizante nem maximizante (n˜ao ´e ponto de m´ınimo nem de m´aximo) da fun¸c˜ao f (x) = x3, mas f′(0) = 0.

Exemplo 3 (Aplica¸c˜ao do Teorema de Fermat ao problema de Euclides). Euclides, nos seus “Elementos” (s´eculo IV a.C.), d´a-nos a solu¸c˜ao para um problema geom´etrico interessante. Este ´e um exemplo de um problema de optimiza¸c˜ao que n˜ao foi motivado por nenhuma aplica¸c˜ao e que n˜ao explica nenhum fen´omeno da natureza. Euclides foi apenas movido pela sua imagina¸c˜ao e curiosidade. O problema de Euclides pode ser formulado da seguinte maneira:

Inscrever o paralelogramo ADEF de ´area m´axima num triˆangulo dado ABC. Seja a = AC; x = AF = DE; H a altura do triˆangulo ABC dado; e h a altura de DBE. Com estas nota¸c˜oes, tem-se xa = Hh. A ´area do paralelogramo ´e dada por x(H− h) = Hax(a− x). O problema reduz-se ent˜ao a encontrar o m´aximo da fun¸c˜ao f (x) = x(a− x), 0 < x < a. Existe um ´unico ponto cr´ıtico: f′(˜x) = 0⇔ ˜x = a

2. Resulta claro que ˜x ´e maximizante:

f (˜x + x) = a 2+ x   a 2 − x  = a 2 4 − x 2 = f (˜x)− x2.

Conclu´ımos que F ´e o ponto m´edio do segmento AC.

O m´ınimo global em [a, b] pode ser atingido num ponto de m´ınimo local. Esta n˜ao ´e, contudo, a ´unica possibilidade: existem dois pontos, a e b, onde (1.1) pode n˜ao ser satisfeita, mas onde o m´ınimo global pode ocorrer.

Algoritmo 4 (encontrar o minimizante global de uma fun¸c˜ao real de valor real). • Input: fun¸c˜ao continuamente diferenci´avel f(x); intervalo [a, b].

(11)

1. Encontrar todos os pontos cr´ıticos, i.e., determinar todos os xk para os quais f′(xk) = 0.

2. Calcular f (a), f (b) e f (xk), para todos os xk encontrados no ponto anterior. Escolher

o(s) ponto(s) que conduzem ao menor valor da fun¸c˜ao.

O Teorema de Fermat ´e uma condi¸c˜ao necess´aria de primeira ordem. As seguintes condi¸c˜oes para extremos de fun¸c˜oes de uma vari´avel decorrem do Teorema de Taylor. Teorema 5 (Condi¸c˜ao necess´aria de ordem n). Se uma fun¸c˜ao f (·) tem m´ınimo (m´aximo) no ponto ˜x e ´e n vezes diferenci´avel neste ponto com f′(˜x) = · · · = f(n−1)(˜x) = 0, n ≥ 2, ent˜ao f(n)(˜x) = 0 se n ´e ´ımpar; e f(n)(˜x)≥ 0 (respectivamente f(n)x)≤ 0) se n ´e par.

Demonstra¸c˜ao. Seja ˜x ponto de m´ınimo local com f′(˜x) =· · · = f(n−1)x) = 0. O

desenvolvi-mento em s´erie de Taylor de f (·) numa vizinhan¸ca Vε(˜x) ={x : |x − ˜x| < ε} de ˜x permite-nos

ent˜ao escrever: 0≤ f(x) − f(˜x) = n X k=1 fk(˜x) k! (x− ˜x) k + rn(x, ˜x) = f nx) n! (x− ˜x) n + rn(x, ˜x) , (1.2) com lim x→˜x rn(x, ˜x) (x− ˜x)n = 0 . (1.3)

Temos de mostrar duas coisas: (1) que se n ´e ´ımpar ent˜ao fn(˜x) = 0; (2) que se n ´e par ent˜ao fnx)≥ 0.

Situa¸c˜ao (1). (n ´ımpar) Denotemos (x− ˜x)npor y: yn1 = x− ˜x ⇔ x = ˜x + y 1 n, y 1 n ∈] − ε, ε[. A fun¸c˜ao Ψ(y) = f (˜x + y1n | {z } x

) = f (˜x) + fnn!(˜x)y + Rn(y, ˜x), com limy→0 Rn(y,˜y x) = 0, tem

m´ınimo local para y = 0:

f (˜x)≤ f(x) ⇔ Ψ(0) ≤ Ψ(y) .

Como Ψ(·) ´e uma fun¸c˜ao diferenci´avel no ponto y = 0, Ψ′(0) = fnn!(˜x), obtemos da condi¸c˜ao necess´aria de primeira ordem (Ψ′(0) = 0) a conclus˜ao desejada: fnn!(˜x) = 0 ⇒ fnx) = 0.

Situa¸c˜ao (2). (n par) Dividindo ambos os lados da desigualdade (1.2) por (x− ˜x)n, x Vε(˜x), x6= ˜x, obtemos ((x − ˜x)n> 0 pois estamos a supor n par):

0 f (x)− f(˜x) (x− ˜x)n = f(n)x) n! + rn(x, ˜x) (x− ˜x)n.

(12)

Teorema 6 (Condi¸c˜ao suficiente de ordem n). Seja n um inteiro maior ou igual que dois, f (·) uma fun¸c˜ao com derivadas cont´ınuas num aberto I at´e `a ordem n, e seja ˜x um ponto interior a I tal que f′x) = 0. Suponhamos ainda que f(n)x) ´e a primeira das sucessivas

derivadas de f (·) que n˜ao se anula em ˜x. Ent˜ao:

1. Se n ´e ´ımpar, f (·) n˜ao tem m´aximo nem m´ınimo local em ˜x; 2. Se n ´e par:

(i) Se f(n)x) > 0, ent˜ao f (·) tem um m´ınimo local em ˜x;

(ii) Se f(n)(˜x) < 0, ent˜ao f (·) tem um m´aximo local em ˜x.

Demonstra¸c˜ao. Estamos a assumir que a fun¸c˜ao f : I−→ R, com I aberto, se anula no ponto x = ˜x at´e `a derivada de ordem n− 1, inclusive, para n ≥ 2.

Como as derivadas da fun¸c˜ao f (·) s˜ao cont´ınuas em I at´e `a ordem n, ent˜ao f(·) admite desenvolvimento em s´erie de Taylor, isto ´e, ∀x ∈ I, ∃c estritamente entre ˜x e x tal que:

f (x) = f (˜x) +f

(n)(c)

n! (x− ˜x)

n

Devido a f(n)ser cont´ınua e n˜ao nula em ˜x,∃ε > 0 tal que f(n)(x) tem o sinal de f(n)x),

para qualquer x∈ Iε(˜x)⊂ I; assim f(n)(x) tem o mesmo sinal de f(n)(c).

• Consideremos n par.

Primeiro caso. Suponhamos f(n)x) > 0. Pelo que foi referido anteriormente, e

porque n ´e par, resulta que f(n)n!(c)(x− ˜x)n> 0. Conclui-se que f (x)− f (˜x) ≥ 0, verificando-se a igualdade apenas para x = ˜x. Isto significa que f (·) tem m´ınimo local em ˜x.

Segundo caso. Suponhamos, agora, que f(n)(˜x) < 0. Pelos motivos referidos anteri-ormente, resulta que f(n)n!(c)(x− ˜x)n < 0. Ent˜ao, f (x)− f (˜x) ≤ 0, verificando-se a igualdade, tal como no 1o caso, apenas para x = ˜x. Logo f (·) tem m´aximo local em ˜x.

• Consideremos agora n ´ımpar.

Como n ´e ´ımpar, a quantidade (x− ˜x)n tem diferentes sinais consoante seja x < ˜x ou x > ˜x. Tendo em conta que ε ´e suficientemente pequeno, por continuidade, a derivada de ordem n conserva em todo o ponto do intervalo Iε(˜x) o mesmo sinal que no ponto ˜x.

Resulta da´ı que f (x)− f (˜x) assume sinais diferentes conforme x esteja `a esquerda ou `a direita de ˜x. Por exemplo, se f(n)x) > 0, ent˜ao f (x) < f (˜x) se x < ˜x e f (x) > f (˜x)

(13)

se x > ˜x (de modo semelhante para f(n)x) < 0). Por este motivo, a fun¸c˜ao f (·) n˜ao

tem, neste caso, extremo em x = ˜x.

Vamos agora considerar um exemplo que ilustra bem a utilidade do Teorema 6 na iden-tifica¸c˜ao dos pontos de extremo: existem trˆes pontos cr´ıticos, dois dos quais correspondem a extremantes locais (um deles ´e minimizante, o outro maximizante), enquanto o terceiro n˜ao ´e nem ponto de m´ınimo nem ponto de m´aximo (ponto sela).

Exemplo 7. Consideremos a fun¸c˜ao f (x) = 17x7 1

2x6 + 25x5. Existem trˆes candidatos

a m´ınimo ou m´aximo (pontos cr´ıticos) dados pela condi¸c˜ao necess´aria de primeira ordem f′(x) = 0 (Teorema 2):

f′(x) = x6− 3x5+ 2x4 f′(x) = 0⇔ x = 0 ∨ x = 1 ∨ x = 2 .

Calculando as derivadas de ordem superior, ao longo de cada ponto cr´ıtico e at´e elas n˜ao se anularem, podemos, por interm´edio do Teorema 6, estudar a natureza dos pontos cr´ıticos:

f′′(x) = 6x5− 15x4+ 8x3

f′′(1) =−1 < 0 ⇒ 1 ´e ponto de m´aximo local da fun¸c˜ao f(·) f′′(2) = 16 > 0⇒ 2 ´e ponto de m´ınimo local da fun¸c˜ao f(·)

f′′′(x) = 30x4− 60x3+ 24x2 f(4)(x) = 120x3− 180x2+ 48x

f(5)(x) = 360x2− 360x + 48

f′′(0) = f′′′(0) = f(4)(0) = 0∧ f(5)(0) = 48⇒ 0 n˜ao ´e ponto de extremo da fun¸c˜ao f(·) . Segue a an´alise do problema, feita no Sistema de Computa¸c˜ao Alg´ebrica Maple:

> restart; > f:=1/7*x^7-3/6*x^6+2/5*x^5; f := 1/7 x7− 1/2 x6+ 2/5 x5 > f1:=diff(f,x); f1 := x6− 3 x5+ 2 x4 > sol:=solve(f1=0,x); sol := 0, 0, 0, 0, 2, 1 > f2:=diff(f1,x); f2 := 6 x5− 15 x4+ 8 x3 > subs(x=1,f2);

(14)

−1

> # Conclu´ımos que para o ponto x=1 temos um m´aximo local

> subs(x=2,f2);

16

> # Conclu´ımos que para o ponto x=2 temos um m´ınimo local

> subs(x=0,f2); 0 > f3:=diff(f2,x); f3 := 30 x4− 60 x3+ 24 x2 > subs(x=0,f3); 0 > f4:=diff(f3,x); f4 := 120 x3− 180 x2+ 48 x > subs(x=0,f4); 0 > f5:=diff(f4,x); f5 := 360 x2− 360 x + 48 > subs(x=0,f5); 48

> # Conclu´ımos que para o ponto x=0 n~ao temos m´aximo nem m´ınimo local

> plot(f,x=-0.7..2.1); x 2 1,5 1 0 -0,2 0,5 -0,4 -0,6 -0,8 0 -0,5

(15)

1.2

Fun¸c˜

oes vectoriais

Consideremos agora fun¸c˜oes de n vari´aveis, n≥ 1. Escrevemos na mesma f(x), mas agora x∈ Rn: f (x) = f (x

1, . . . , xn).

Defini¸c˜ao 8. Dizemos que f (x) tem um ponto de m´ınimo global em x⋆ se a desigualdade

f (x⋆)≤ f(x⋆+ h) (1.4)

for verificada para todo o h = (h1, . . . , hn) ∈ Rn. Dizemos que x⋆ ´e minimizante local ou

ponto de m´ınimo local se existir ρ > 0 tal que (1.4) ´e satisfeita sempre que khk =

q h2

1+· · · + h2n< ρ .

A seguinte condi¸c˜ao necess´aria de optimalidade ´e uma generaliza¸c˜ao do Teorema 2 ao caso vectorial.

Teorema 9 (Condi¸c˜ao Necess´aria – caso vectorial). Se uma fun¸c˜ao continuamente difer-enci´avel f (x), x∈ Rn, tem m´ınimo local em x, ent˜ao

∂f ∂xi x=x⋆ = 0 i = 1, . . . , n . (1.5)

Demonstra¸c˜ao. Se x⋆ ´e um ponto de m´ınimo local da fun¸c˜ao f (x), ent˜ao f (x1, x⋆2, . . . , x⋆n)

´e fun¸c˜ao de uma vari´avel, x1, fun¸c˜ao esta que tem um m´ınimo local em x⋆1. Resulta, pelo

Teorema 2, que ∂f (x1,x⋆2,...,x⋆n) ∂x1 x1=x⋆1

= 0. De modo semelhante, conclu´ımos que as restantes derivadas parciais de f s˜ao zero em x⋆.

O problema de encontrar o minimizante global de uma fun¸c˜ao real de v´arias vari´aveis num dom´ınio fechado Ω ´e mais dif´ıcil do que o correspondente problema para fun¸c˜oes de uma vari´avel:

(i) o conjunto de pontos que satisfazem (1.5) pode ter cardinalidade infinita para uma fun¸c˜ao de v´arias vari´aveis (para n > 1);

(ii) a fronteira ∂Ω n˜ao ´e mais um conjunto finito (como {a, b}) e o problema de encontrar o m´ınimo em ∂Ω n˜ao ´e simples porque a estrutura de tal conjunto pode ser complicada. O algoritmo para encontrar o(s) ponto(s) de m´ınimo global de uma fun¸c˜ao f (x), x ∈ Rn, depende quer da estrutura da fun¸c˜ao quer da estrutura do dom´ınio.

Para simplificar o problema, evitando as dificuldades ligadas `a fronteira, podemos consid-erar o problema de m´ınimo num dom´ınio aberto. Fazemos precisamente isso no C´alculo das Varia¸c˜oes: o espa¸co onde procuraremos minimizantes ser´a um aberto.

(16)

1.3

Restri¸c˜

oes de igualdade e o m´

etodo dos multiplicadores

de Lagrange

Consideramos agora o problema de minimizar uma fun¸c˜ao f (x), x ∈ Rn, sujeita a

re-stri¸c˜oes

gi(x) = 0 , i = 1, . . . , m , x∈ Rn, m < n . (1.6)

Se estivermos sob as condi¸c˜oes do Teorema da Fun¸c˜ao Impl´ıcita, ent˜ao ´e poss´ıvel exprimir as equa¸c˜oes (1.6) na forma

xk= ψk(x1, . . . , xn−m) , k = n− m + 1, . . . , n (1.7)

e, deste modo, reduzir o problema de minimiza¸c˜ao com restri¸c˜oes a um problema sem re-stri¸c˜oes: substituindo (1.7) em f (x) obtemos um problema de minimiza¸c˜ao sem restri¸c˜oes com n− m inc´ognitas: f (x1, . . . , xn−m, ψn−m+1(x1, . . . , xn−m) , . . . , ψn(x1, . . . , xn−m)) −→ min.

No entanto, nem sempre ´e poss´ıvel aplicar o Teorema da Fun¸c˜ao Impl´ıcita (ver exemplos a seguir) e, mesmo quando tal ´e poss´ıvel, conv´em salientar que o Teorema da Fun¸c˜ao Impl´ıcita apenas assegura a existˆencia de solu¸c˜oes (1.7), n˜ao nos dando um meio para as obter. Na pr´atica, encontrar as express˜oes expl´ıcitas (1.7) pode n˜ao ser poss´ıvel: no caso geral as re-stri¸c˜oes (1.6) s˜ao n˜ao-lineares e o m´etodo acima n˜ao ´e pass´ıvel de ser aplicado. Outro problema ´e que mesmo quando ´e poss´ıvel obter as express˜oes (1.7), o facto de g(x) ser suave para todos os valores de x n˜ao assegura a suavidade das fun¸c˜oes ψk. Por exemplo, considere-se a seguinte

fun¸c˜ao (n = 2, m = 1): g(x1, x2) = x21+ x22− 1. Neste caso a fun¸c˜ao g(·, ·) ´e de classe C∞,

mas g(x1, x2) = 0⇔ x2 =±

p 1− x2

1 e ψ2(x1) n˜ao ´e suave para x1=±1: ψ′2(x1) =∓√x1 1−x2

1

. Podemos, no entanto, resolver o problema com restri¸c˜oes atrav´es de uma t´ecnica muito ele-gante e ´util, conhecida como m´etodo dos multiplicadores de Lagrange, que evita os problemas indicados. Este m´etodo baseia-se na introdu¸c˜ao da chamada fun¸c˜ao de Lagrange, atrav´es da qual as m restri¸c˜oes g(x) s˜ao juntas `a fun¸c˜ao f (x) atrav´es de multiplicadores λj, j = 1, . . . , m.

Os xi, i = 1, . . . , n, e os λj, j = 1, . . . , m, s˜ao depois tratados como vari´aveis independentes,

sem restri¸c˜oes. As condi¸c˜oes necess´arias resultantes formam um sistema de n + m equa¸c˜oes, nas n + m inc´ognitas xi e λj.

Proposi¸c˜ao 10. Sejam f : Rn → R e g : Rn → Rm, n > m, duas fun¸c˜oes continuamente

diferenci´aveis. Se x⋆ for minimizante local do problema

f (x)−→ min , g(x) = 0 ,

(17)

e rank [∇g(x), ∇f(x)]T = ∂g ∂x, ∂f ∂x T = ∂g1 ∂x, . . . , ∂gm ∂x , ∂f ∂x T =       ∂g1 ∂x1 · · · ∂g1 ∂xn .. . . .. ... ∂gm ∂x1 · · · ∂gm ∂xn ∂f ∂x1 · · · ∂f ∂xn       ≤ rank∇g(x) , (1.8)

ent˜ao existem constantes λj, j = 1, . . . , m, tais que fun¸c˜ao de Lagrange L,

L (x1, . . . , xn, λ1, . . . , λm) = f (x) + m X j=1 λjgj(x) = f (x) + λ· g(x) , satisfaz ∂L∂x,∂L∂λ= 0, i.e. ∇ (f(x⋆) + λ· g(x)) = 0 e g(x) = 0: ∂f (x⋆) ∂xi + m X j=1 λj ∂gj(x⋆) ∂xi = 0 , i = 1, . . . , n , (1.9) gj(x⋆) = 0 , j = 1, . . . , m . (1.10)

Observa¸c˜ao 11. Usamos o termo Inglˆes rank para a caracter´ıstica de uma matriz, por ser essa tamb´em a designa¸c˜ao do respectivo comando Maple (cf. a sec¸c˜ao de matrizes do Apˆendice C). Demonstra¸c˜ao. A demonstra¸c˜ao ´e simples: a condi¸c˜ao (1.8) significa que∇f ´e linearmente de-pendente do conjunto de vectores{∇gk, k = 1, . . . , m}, ou seja, existem constantes λ1, . . . , λm

tais que ∇f = −Pmk=1λk∇gk.

Exemplo 12 (n = 3, m = 2). Sejam f (x) = f (x1, x2, x3) = x

2 3

2 − x1x2, g1(x) = x21+ x2− 1 e

g2(x) = x1+x3−1. O exerc´ıcio consiste ent˜ao em determinar os pontos cr´ıticos (os candidatos

a m´ınimo ou m´aximo) do problema x23 2 − x1x2 −→ extr ,    x21+ x2− 1 = 0 , x1+ x3− 1 = 0 ,

onde extr significa minimizar ou maximizar. Come¸camos por notar que a hip´otese (1.8) ´e satisfeita para todo o x∈ R2:

∇g(x) = [∇g1(x),∇g2(x)]T =   2 x1 1 1 0  

(18)

que tem caracter´ıstica 2 independentemente do valor x1. A condi¸c˜ao necess´aria dada pela

Proposi¸c˜ao 10 d´a-nos um sistema de 5 equa¸c˜oes a 5 inc´ognitas x1, x2, x3, λ1 e λ2:

                     −x2+ 2λ1x1+ λ2 = 0 , −x1+ λ1 = 0 , x3+ λ2 = 0 , x2 1+ x2− 1 = 0 , x1+ x3− 1 = 0 .

Este sistema ´e facilmente resolvido em Maple: > f := (x[3]^2)/2 - x[1]*x[2]: > g[1] := x[1]^2 + x[2] - 1: > g[2] := x[1] + x[3] - 1: > L := f + lambda[1]*g[1]+lambda[2]*g[2]: > sistema := {seq(diff(L,x[i])=0,i=1..3),seq(diff(L,lambda[j])=0,j=1..2)};  −x2+ 2 λ1x1+ λ2 = 0,−x1+ λ1= 0, x3+ λ2 = 0, x12+ x2− 1 = 0, x1+ x3− 1 = 0 > pc := solve(sistema); {λ2 =−2, λ1 =−1, x2 = 0, x1 =−1, x3 = 2} , {λ2 =−1/3, λ1 = 2/3, x2 = 5/9, x1 = 2/3, x3= 1/3}

Temos ent˜ao dois pontos cr´ıticos:

x⋆1= (x1, x2, x3, λ1, λ2) = (−1, 0, 2, −1, −2) , x⋆2= (x1, x2, x3, λ1, λ2) = 2 3, 5 9, 1 3, 2 3,− 1 3  .

A condi¸c˜ao (1.8) n˜ao ´e conveniente em termos pr´aticos, salvo no caso em que n = 2 e m = 1:

f (x, y)−→ min ,

g(x, y) = 0 , (1.11)

onde f, g : R2 → R s˜ao fun¸c˜oes suaves (f, g ∈ C1). A restri¸c˜ao g(x, y) = 0 define implicita-mente uma curva γ ⊂ R2. Se impusermos a condi¸c˜ao ∇g(x, y) 6= 0, a curva γ ´e suave: est´a

bem definido o vector tangente `a curva em cada ponto. A curva γ pode ser representada parametricamente por uma fun¸c˜ao vectorial suave r(t) = (x(t), y(t)), t ∈ I ⊆ R, tal que r′(t)6= 0 ∀ t ∈ I. A condi¸c˜ao necess´aria para f ter um m´ınimo local em γ d´a-nos:

d dtf (x(t), y(t)) = 0⇔ ∂f ∂x˙x(t) + ∂f ∂y˙y(t) = 0 . (1.12)

(19)

Por outro lado, uma vez que g (x(t), y(t)) = 0 para todo o (x(t), y(t))∈ γ, temos tamb´em: d dtg (x(t), y(t)) = 0⇔ ∂g ∂x˙x(t) + ∂g ∂y˙y(t) = 0 , ∀ t ∈ I . (1.13)

A condi¸c˜ao ∇g(x, y) 6= 0 implica que em todo o ponto da curva γ pelo menos uma das derivadas ∂g∂x ou ∂g∂y ´e n˜ao nula. Admitamos, sem perda de generalidade, que ∂g∂y 6= 0. Ent˜ao a equa¸c˜ao (1.13) implica que

˙y(t) =gx˙x(t) gy

, (1.14)

onde gx = ∂g∂x e gy = ∂g∂y, e, consequentemente, (1.12) pode ser escrita como

˙x(t) gy

(fxgy− fygx) = 0 . (1.15)

Uma vez que r′(t) = ( ˙x(t), ˙y(t))6= 0, ˙x(t) e ˙y(t) n˜ao podem ser ambos nulos e, por (1.14),

˙x(t)6= 0 ( ˙x(t) = 0 ⇒ ˙y(t) = 0). A equa¸c˜ao (1.15) implica ent˜ao que ∂f ∂x ∂g ∂y− ∂f ∂y ∂g ∂x = 0⇔ ∇f × ∇g = 0 , (1.16)

onde × denota o produto externo. Relembramos que dados dois vectores v e w de R2

|v × w| = |v||w| sin(φ) ,

onde φ representa o ˆangulo entre v e w. A equa¸c˜ao (1.16) diz-nos ent˜ao que∇f ´e paralelo a ∇g (i.e., φ = 0 ⇒ sin(φ) = 0): existe uma constante −λ tal que

∇f = −λ∇g ⇔ ∇ (f + λg) = 0 .

A constante λ ´e o multiplicador de Lagrange. Acab´amos de demonstrar o seguinte resultado. Proposi¸c˜ao 13. Sejam f : R2 → R e g : R2 → R duas fun¸c˜oes continuamente diferenci´aveis.

Se (x⋆, y) for minimizante local do problema

f (x, y)−→ min , g(x, y) = 0 , e ∇g(x⋆, y⋆)6= 0, ent˜ao existe um n´umero real λ tal que

∇L(x, y, λ) = 0 ,

onde a fun¸c˜ao de Lagrange L ´e definida por L(x, y, λ) = f(x, y) + λg(x, y).

Observa¸c˜ao 14. A condi¸c˜ao (1.8) ´e a an´aloga da condi¸c˜ao ∇g(x, y) 6= 0 da Proposi¸c˜ao 13. De facto, se∇g(x, y) = 0 ent˜ao (1.8) s´o ´e satisfeita quando ∇f(x, y) = 0, ou seja, quando (x, y) ´e simultaneamente ponto cr´ıtico de f e g. Neste caso diz-se que (x, y) ´e minimizante anormal.

(20)

O m´etodo dos multiplicadores de Lagrange, tal como formulado pela Proposi¸c˜ao 13, falha se a condi¸c˜ao ∇g 6= 0 n˜ao for satisfeita. Por outras palavras, a Proposi¸c˜ao 13 falha quando o minimizante x⋆ ´e ponto cr´ıtico de g (quando ∇g(x⋆) = 0). O m´etodo dos multiplicadores

de Lagrange pode, contudo, ser adaptado para cobrir estes casos. Vamos mostrar como, considerando n = 2 e m = 1. O resultado gen´erico sai como Corol´ario do Teorema de Karush-Kuhn-Tucker que demonstramos em §1.4.

Quando (x, y) ´e minimizante local de (1.11) e ∇g(x, y) 6= 0, ent˜ao existe um λ tal que ∇ (f(x, y) + λg(x, y)) = 0. Dizemos que (x, y) ´e um minimizante normal. Se, em contraste, (x, y) ´e minimizante local de (1.11) com∇g(x, y) = 0, ent˜ao a existˆencia do multiplicador de Lagrange λ n˜ao ´e assegurada. Dizemos que (x, y) ´e um minimizante anormal .

Exemplo 15 (minimizante anormal). Consideremos o seguinte problema: x2− y2 −→ min ,

x2+ y2= 0 .

A restri¸c˜ao x2+ y2 = 0 ´e apenas satisfeita por um ponto de R2, pelo que o problema ´e trivial: quer se considere o problema de minimiza¸c˜ao quer o de maximiza¸c˜ao, a solu¸c˜ao ´e sempre dada por (x, y) = (0, 0) (´unico ponto admiss´ıvel). Estamos perante um caso de minimizante anormal: ∇g(x, y) = [2x, 2y]T que se anula para (x, y) = (0, 0).

Exemplo 16 (minimizante anormal). Consideremos o problema que se obt´em trocando os papeis de f e g no Exemplo 15:

x2+ y2 −→ min , x2− y2= 0 .

Como x2+ y2 ≥ 0 para todo o (x, y) ∈ R2, ´e ´obvio que (0, 0) ´e minimizante global. Tamb´em aqui (0, 0) ´e minimizante anormal: ∇g(x, y) = [2x, −2y]T que se anula em (0, 0).

O fen´omeno ilustrado pelos Exemplos 15 e 16 ocorre sempre que o minimizante (x, y) ´e simultaneamente ponto cr´ıtico de f (x, y) e g(x, y): sempre que∇f(x, y) = 0 e ∇g(x, y) = 0.

Para minimizantes anormais temos g(x, y) = 0 e ∇g(x, y) = 0, pelo que o Teorema da Fun¸c˜ao Impl´ıcita n˜ao pode ser invocado: n˜ao h´a garantia que a equa¸c˜ao g(x, y) = 0 pode ser resolvida unicamente para x em termos de y ou para y em termos de x. Geometricamente, isto significa que o conjunto de solu¸c˜oes de g(x, y) = 0 n˜ao define necessariamente uma curva suave numa vizinhan¸ca de (x, y). Podemos, no entanto, adaptar a Proposi¸c˜ao 13 (e a Proposi¸c˜ao 10) para incluir o caso anormal, introduzindo um multiplicador adicional λ0. Suponhamos que

a fun¸c˜ao f tem um extremante local em (x, y) quando sujeita `a restri¸c˜ao g = 0. Fa¸camos L = λ0f + λg. Se∇g(x, y) 6= 0 ent˜ao o problema ´e normal, pelo que podemos escolher λ0 = 1

(21)

anormal, i.e., g(x, y) = 0∧ ∇g(x, y) = 0. Ent˜ao a condi¸c˜ao ∇L(x, y) = 0 ⇔ λ0∇f + λ∇g =

λ0∇f, pelo que ela ´e ainda verdadeira se escolhermos λ0 = 0. Em qualquer dos cen´arios

(normal ou anormal) podemos sempre encontrar n´umeros λ0 e λ tais que∇L = 0.

Teorema 17 (m´etodo dos multiplicadores de Lagrange). Sejam f : Rn→ R e g : Rn→ Rm,

n > m, duas fun¸c˜oes continuamente diferenci´aveis. Se x⋆ for minimizante local do problema

f (x)−→ min , g(x) = 0 ,

ent˜ao existem constantes λ0 e λ = (λ1, . . . , λm), n˜ao todas nulas, tais que

∇ (λ0+ λ· g(x)) = 0 .

Observa¸c˜ao 18. O facto de os multiplicadores n˜ao poderem ser todos nulos, (λ0, λ) 6= 0, ´e

crucial: sem esta condi¸c˜ao o Teorema 17 era uma trivialidade e n˜ao ter´ıamos uma condi¸c˜ao necess´aria ´util.

Em termos pr´aticos, ´e conveniente estudar os casos normais e anormais separadamente: fazemos λ0 = 1 e determinamos os pontos cr´ıticos normais; fazemos depois λ0 = 0 e

determi-namos os pontos cr´ıticos anormais.

Exemplo 19 (minimizante anormal). Consideramos o seguinte problema: x2+ y2−→ min , (y − 1)3− x2= 0 .

Come¸camos por estudar o caso normal fazendo λ0 = 1: L = x2+ y2+ λ (y− 1)3− x2. A

condi¸c˜ao necess´aria de optimalidade conduz-nos ao seguinte sistema de trˆes equa¸c˜oes a trˆes inc´ognitas:          2x− 2λx = 0 , 2y + 3λ (y− 1)2= 0 , (y− 1)3− x2= 0 .

O sistema ´e imposs´ıvel. Da primeira equa¸c˜ao ∂L∂x = 0 resulta que x (1− λ) = 0 ⇔ x = 0 ∨ λ = 1. Se x = 0 ent˜ao vem da terceira equa¸c˜ao que y = 1; mas y = 1 n˜ao satisfaz a segunda equa¸c˜ao. Se λ = 1 a segunda equa¸c˜ao toma a forma 2y + 3 (y− 1)2 = 0, que ´e uma equa¸c˜ao imposs´ıvel em R. Conclu´ımos que n˜ao existem minimizantes normais. O minimizante, a existir, ser´a anormal. Estudemos ent˜ao o caso anormal (λ0 = 0 e λ 6= 0):

L = λ (y − 1)3− x2. Obtemos o sistema de trˆes equa¸c˜oes a trˆes inc´ognitas

         −2λx = 0 , 3λ (y− 1)2 = 0 , (y− 1)3− x2 = 0 . (1.17)

(22)

A primeira equa¸c˜ao implica x = 0; a segunda y = 1; valores este que verificam a restri¸c˜ao g(x, y) = 0 (satisfazem a terceira equa¸c˜ao do sistema). Temos ent˜ao que para λ 6= 0 o sistema (1.17) admite uma ´unica solu¸c˜ao: o ponto (x, y) = (0, 1). ´E poss´ıvel mostrar que o ponto cr´ıtico anormal (x, y) = (0, 1) ´e de facto minimizante do problema. A restri¸c˜ao g(x, y) = (y− 1)3− x2= 0 n˜ao define uma curva suave:

> with(plots):

> implicitplot((y-1)^3-x^2=0, x=-0.5..0.5, y=0..10, scaling=constrained);

1.1 1.2 1.3 1.4 1.5 1.6 y –0.4 –0.2 0 0.2 0.4 x

Graficamente ´e muito f´acil de ver que (x, y) = (0, 1) ´e o ponto da curva definida pela equa¸c˜ao (y− 1)3− x2 = 0 que d´a menor valor `a fun¸c˜ao f (x, y) = x2+ y2.

Exerc´ıcio 1. Usando o m´etodo dos multiplicadores de Lagrange (Teorema 17), determine os candidatos a extremante (candidatos a minimizante ou maximizante) para cada um dos seguintes problemas:

(a) f (x1, x2, x3) = x31+ x32+ x33 −→ extr, sobre a esfera x21+ x22+ x23 = 4 (n = 3, m = 1).

(b) f −→ extr, com f a mesma fun¸c˜ao que na al´ınea (a), mas agora n˜ao sob todos os pontos da esfera x2

1 + x22 + x23 = 4: apenas sobre aqueles pontos da esfera que pertencem

simultaneamente ao plano x1+ x2+ x3= 1 (n = 3, m = 2).

Exerc´ıcio 2. Minimizar a fun¸c˜ao f (x1, x2) = x21+ x22 quando sujeita `a restri¸c˜ao x41+ x42 = 1.

Exerc´ıcio 3. Determine os pontos cr´ıticos de f (x1, x2) onde

f (x1, x2) = (1 + a− bx1− bx2)2+ (b + x1+ ax2− bx1x2)2,

(23)

1.4

Restri¸c˜

oes de desigualdade e o Teorema de

Karush-Kuhn-Tucker

Consideramos agora o seguinte problema de Programa¸c˜ao Matem´atica em Rn:

f (x)−→ min , gi(x) = 0 , i = 1, . . . , m ,

hj(x)≤ 0 , j = 1, . . . , k ,

(1.18)

onde f : Rn → R, gi : Rn→ R, i = 1, . . . , m, e hj : Rn→ R, j = 1, . . . , k, s˜ao continuamente

diferenci´aveis. Dizemos que o ponto ˜x∈ Rn´e minimizante local do problema (1.18) se existir

ε > 0 tal que para todo o x que verifique as condi¸c˜oes |x − ˜x| < ε , gi(x) = 0 , i = 1, . . . , m ,

hj(x)≤ 0 , j = 1, . . . , k ,

se tem f (˜x)≤ f(x).

Sejam λ0 ∈ R, λ = (λ1, . . . , λm)∈ Rm, µ = (µ1, . . . , µk)∈ Rk. A fun¸c˜ao de Lagrange para

o problema (1.18) ´e definida por:

L (x, λ0, λ, µ) = λ0f (x) + λ· g(x) + µ · h(x) .

Teorema 20 (Teorema de Karush-Kuhn-Tucker). Se ˜x ´e um minimizante local de (1.18), ent˜ao existem constantes reais λ0 ≥ 0, λi, i = 1, . . . , m e µj ≥ 0, j = 1, . . . , k, tais que:

1. ∇xL (˜x, λ0, λ, µ) = 0;

2. µjhj = 0, j = 1, . . . , k (condi¸c˜oes complementares);

3. qλ2 0+

Pm i=1λ2i +

Pk

j=1µ2j = 1 (os multiplicadores n˜ao podem ser todos nulos).

Demonstra¸c˜ao. Seja γ < f (˜x) e F (x, γ) = Φ(x, γ) +|x − ˜x|2, com

Φ(x, γ) = v u u t(f (x)− γ)2 ++ m X i=1 gi(x)2+ k X j=1 (hj(x))2+,

onde usamos a nota¸c˜ao a+ = max{a, 0}. ´E f´acil de ver que Φ(x, γ)≥ 0 para todo o x ∈ Rn.

O Teorema de Weierstrass implica que F (x, γ) tem m´ınimo global num ponto xγ. Temos:

(24)

Se Φ(xγ, γ) = 0, ent˜ao xγ verifica todas as restri¸c˜oes do problema (1.18) e f (xγ)≤ γ < f(˜x).

Como ˜x ´e um minimizante local de (1.18), da desigualdade (1.19) obtemos Φ(xγ, γ) > 0

sempre que γ est´a suficientemente pr´oximo de f (˜x). Uma vez que Φ(xγ, γ) > 0, a fun¸c˜ao F

´e diferenci´avel em ordem a x no ponto xγ e segue-se do Teorema 9 que

∇xF (xγ, γ) = 0 . (1.20) Fazendo λγ0 = (f (xγ)− γ)+ Φ(xγ, γ) , λγi = gi(xγ) Φ(xγ, γ) , i = 1, . . . , m , µγj = (hj(xγ))+ Φ(xγ, γ) , j = 1, . . . , k , podemos reescrever (1.20) na seguinte forma equivalente:

λγ0∇f(xγ) + m X i=1 λγi∇gi(xγ) + k X j=1 µγj∇hj(xγ) + 2 (xγ− ˜x) = 0 . (1.21)

Resulta claro que

λγ0 ≥ 0 , µγj ≥ 0 , j = 1, . . . , k , v u u t(λγ0)2+ m X i=1 (λγi)2+ k X j=1 (µγj)2= 1 . (1.22)

As conclus˜oes pretendidas s˜ao obtidas passando ao limite quando γ → f(˜x). Sem perda de generalidade, λγ0 → λ0, λγi → λi, µγj → µj. Da desigualdade (1.19) temos xγ → ˜x. Se

hj(˜x) < 0, ent˜ao hj(˜xγ) < 0, isto ´e, µγj = 0 para γ pr´oximo de f (˜x). Passando ao limite em

(1.21) e (1.22) chegamos ao resultado pretendido. Exemplo 21. Consideremos o seguinte problema:

x21+ x22+ x23−→ min , x1+ x2+ x3 = 3 ,

2x1− x2+ x3 ≤ 5 .

A fun¸c˜ao de Lagrange ´e ent˜ao dada por: L (x1, x2, x3, λ0, λ, µ) = λ0 x21+ x22+ x23



+ λ (x1+ x2+ x3− 3) + µ (2x1− x2+ x3− 5) .

O Teorema 20 (Teorema de Karush-Kuhn-Tucker) d´a-nos as condi¸c˜oes necess´arias: o gradiente da fun¸c˜ao de Lagrange ´e nulo,

         2λ0x1+ λ + 2µ = 0 , 2λ0x2+ λ− µ = 0 , 2λ0x3+ λ + µ = 0 ;

(25)

a condi¸c˜ao complementar µ (2x1− x2+ x3− 5) = 0; n˜ao negatividade do multiplicador

corre-spondente `a desigualdade, µ≥ 0; e a n˜ao trivialidade dos multiplicadores (os multiplicadores n˜ao podem ser todos nulos), λ20+ λ2+ µ2 6= 0. O problema n˜ao admite caso anormal: λ0 = 0

implica λ = µ = 0. Logo podemos escolher λ0= 12. Se µ = 0, ent˜ao temos x1= x2 = x3 =−λ.

Da condi¸c˜ao x1+ x2 + x3 = 3 encontramos x1 = x2 = x3 = 1. Consideremos agora o caso

em que µ > 0. Ent˜ao 2x1− x2+ x3 − 5 = 0. Substituindo x1 = −λ − 2µ, x2 = −λ + µ e

x3=−λ − µ no sistema   2x1− x2+ x3 = 5 , x1+ x2+ x3 = 3 , obtemos   −2λ − 6µ = 5 , −3λ − 2µ = 3 ,

de onde tiramos que µ = −149 < 0, o que ´e uma contradi¸c˜ao. Desde modo, o ´unico ponto

cr´ıtico ´e (x1, x2, x3) = (1, 1, 1), com f (1, 1, 1) = 3.

O Maple tem um package de Optimiza¸c˜ao que permite a resolu¸c˜ao de problemas n˜ao lin-eares de Programa¸c˜ao Matem´atica em Rn, como o nosso problema (1.18), atrav´es do comando

NLPSolve. Para o nosso exemplo fazemos: > with(Optimization): > f := x1^2+x2^2+x3^2: > g := x1+x2+x3-3=0: > h := 2*x1-x2+x3 <= 5: > NLPSolve(f, {g, h}); [3., [x1 = 1., x2 = 1., x3 = 1.]]

Exerc´ıcio 4. Determinar os pontos cr´ıticos para o seguinte problema: f (x1, x2, x3) = x3+ 1 2  x21+ x22+x 2 3 10  −→ extr , x1+ x2+ x3 = r , xi ≥ 0 , i = 1, 2, 3 .

Exerc´ıcio 5. Maximizar a fun¸c˜ao f (x1, x2, x3) = x1x2x3 quando sujeita `as restri¸c˜oes 2x1+

2x2+ 4x3≤ a e xi≥ 0, i = 1, 2, 3.

Exerc´ıcio 6. Maximizar a fun¸c˜ao f (x1, x2) = 6x1 − 2x12 + 2x1x2 − 2x22 quando sujeita `as

restri¸c˜oes x1+ 2x2≤ 2, 1 + x1− x22≥ 0, x1 ≥ 0 e x2≥ 0.

Exerc´ıcio 7. Encontrar os pontos de m´ınimo e m´aximo de f (x1, x2, x3) = x31+ x32+ x33 na

(26)

1.5

Programa¸c˜

ao Dinˆ

amica em tempo discreto

A Programa¸c˜ao Dinˆamica foi desenvolvida por Richard Bellman em meados dos anos cinquenta (s´eculo XX). A palavra Programa¸c˜ao refere-se ao facto dos problemas a resolver exigirem planeamento, tomada de decis˜oes, pondera¸c˜ao; Dinˆamica pelo facto de tais decis˜oes serem tomadas em v´arias etapas, tipicamente variando com o tempo. Vamos dedicar a nossa aten¸c˜ao a dois problemas t´ıpicos da Programa¸c˜ao Dinˆamica em tempo discreto: o problema de percurso (“Stagecoach Problem”) e o problema de investimento.

De um modo muito simples, a ideia central consiste em dividir o problema em sub-problemas. Come¸ca-se por um desses sub-problemas e, sequencialmente, logo ap´os se chegar `

a sua solu¸c˜ao ´optima (`a melhor solu¸c˜ao para esse problema), passa-se ent˜ao ao sub-problema seguinte, encontrando-se tamb´em a sua solu¸c˜ao ´optima e assim sucessivamente. No final determina-se a solu¸c˜ao ´optima de um sub-problema que, com a informa¸c˜ao dos sub-problemas anteriormente resolvidos, nos conduz `a solu¸c˜ao ´optima do nosso problema inicial.

Cada sub-problema corresponde, na linguagem da Programa¸c˜ao Dinˆamica, a uma etapa. No final de cada etapa ´e tomada uma decis˜ao. Em tempo discreto, que tratamos nesta sec¸c˜ao, as tomadas de decis˜ao (os controlos) s˜ao feitos periodicamente, em cada etapa. No caso cont´ınuo (Sec¸c˜ao 3.4) as decis˜oes (os controlos) s˜ao efectuadas ao longo do tempo (os controlos s˜ao fun¸c˜oes). Dentro de cada etapa haver´a um ou mais estados (no caso cont´ınuo – ver Cap´ıtulo 3 – as vari´aveis de estado s˜ao fun¸c˜oes). Existe um estado para cada poss´ıvel situa¸c˜ao em cada etapa. Uma decis˜ao (controlo) tem como fun¸c˜ao alterar o estado corrente, para um novo estado que dar´a in´ıcio `a pr´oxima etapa. Pretendemos tomar a melhor decis˜ao (descobrir os controlos ´optimos). A escolha da melhor decis˜ao para a resolu¸c˜ao de um prob-lema de programa¸c˜ao dinˆamica baseia-se no chamado Princ´ıpio de Optimalidade ou Princ´ıpio de Bellman: “o controlo ´optimo tem a propriedade que, independentemente do estado inicial e das decis˜oes j´a tomadas, as restantes decis˜oes constituem a estrat´egia ´optima em rela¸c˜ao ao estado resultante das decis˜oes anteriormente tomadas” [36, p. 5]. Neste curso ilustramos o Princ´ıpio de Bellman quer em tempo discreto, por interm´edio do problema de percurso, do problema de investimento, e do problema de controlo ´optimo discreto, quer em tempo cont´ınuo (Sec¸c˜oes 3.4 e 4.4).

1.5.1 Problema de percurso

O problema de percurso ´e o exemplo por excelˆencia da Programa¸c˜ao Dinˆamica. O objectivo ´e encontrar o percurso ´optimo desde um ponto de origem at´e um ponto de destino, perante uma variedade de diferentes percursos poss´ıveis. Este problema ´e um dos mais utilizados quando se pretende ilustrar a t´ecnica da Programa¸c˜ao Dinˆamica. Para maior facilidade de compreens˜ao, consideramos uma situa¸c˜ao concreta muito simples. A generaliza¸c˜ao do m´etodo

(27)

da Programa¸c˜ao Dinˆamica para uma situa¸c˜ao gen´erica ´e considerada no Apˆendice D, onde implementamos, em Maple, o m´etodo da Programa¸c˜ao Dinˆamica para um problema arbitr´ario de percurso.

Problema 22. Suponhamos que uma pessoa tem que se deslocar da cidade 1 (que designare-mos por ponto 1) para a cidade 6 (que designaredesignare-mos por ponto 6), tendo como ´unico meio de transporte uma diligˆencia alugada. Apesar de ter os pontos de partida e chegada definidos, a pessoa pode escolher as cidades interm´edias por onde vai passar, de acordo com a figura 1.1. Ao percurso entre cada duas cidades est´a associado um custo de seguro de vida (obrigat´orio

Figura 1.1: Um problema de percurso

com o aluguer da diligˆencia), expresso numa determinada unidade monet´aria (u.m.), igual-mente representado no esquema 1.1. Verifica-se que quanto mais baixo for o custo do seguro de vida mais segura ´e a viagem. Qual ser´a ent˜ao o caminho mais seguro a tomar e qual a quantia do respectivo seguro de vida?

Antes de principiarmos com a resolu¸c˜ao do Problema 22 chamamos a aten¸c˜ao para uma condicionante imposta neste problema: nunca se pode passar de um ponto a outro a que esteja associado um n´umero menor (o que implica que os pontos est˜ao ordenados).

Como vamos resolver este problema atrav´es da Programa¸c˜ao Dinˆamica, come¸camos por dividi-lo em sub-problemas atrav´es da divis˜ao em etapas (isto ´e, associando a cada sub-problema uma etapa). Em Programa¸c˜ao Dinˆamica ´e usual a resolu¸c˜ao dos sub-problemas por retrocesso. Consideramos uma divis˜ao em quatro etapas, conforme representado na figura 1.2. Seja:

• i – a vari´avel de etapa, que varia entre 1 e 4;

• E(i) – o conjunto dos pontos existentes na etapa i (i ∈ {4, 3, 2, 1});

• c(i, j, k) – o custo do seguro de vida quando na etapa i, (i ∈ {4, 3, 2, 1}) se passa do ponto j (j∈ E(i)) para o ponto k (k ∈ E(i + 1));

• s(i, j) – o elemento do conjunto dos pontos (da etapa i + 1), para onde se deve ir quando na etapa i (i ∈ {3, 2, 1}) se est´a no ponto j (j ∈ E(i)), de modo a que o custo da traject´oria seja m´ınimo;

(28)

Figura 1.2: Etapas para o problema de percurso da Fig. 1.1

ETAPA ESTADO PONTOS E(i) c(i, j, k), com k∈ E(i − 1)

i j (em u.m.) 4 1 6 E(4) ={6} c(4, 6, 6) = 0 1 4 c(3, 4, 6) = 3 3 2 5 E(3) ={4, 5} c(3, 5, 6) = 4 1 c(2, 2, 4) = 7 2 2 c(2, 2, 5) = 7 2 3 E(2) ={2, 3} c(2, 3, 4) = 8 4 3 c(2, 3, 5) = 5 1 c(1, 1, 2) = 2 1 2 1 E(1) ={1} c(1, 1, 3) = 4

Tabela 1.1: Esquematiza¸c˜ao dos dados do Problema 22

• f(i, j, k) – o custo m´ınimo do seguro de vida quando a pessoa na etapa i (i ∈ {4, 3, 2, 1}) est´a no ponto j (j ∈ E(i)) e se pretende deslocar para um ponto k.

Com as nota¸c˜oes introduzidas, os dados do Problema 22 podem ser esquematizados como na Tabela 1.1.

Primeiro sub-problema (etapa 4)

Come¸camos ent˜ao por resolver o sub-problema 1 (etapa 4). Dentro da etapa 4 temos apenas um estado a considerar: a pessoa encontra-se no ponto 6 (chegou ao seu destino). Neste caso particular, uma vez que a pessoa se encontra no ponto de chegada, n˜ao h´a decis˜oes a tomar: o ponto de partida ´e o ponto de destino (ponto 6) e definimos a fun¸c˜ao de custo por

(29)

Segundo sub-problema (etapa 3)

Comecemos por formular o sub-problema: supondo que a pessoa se encontra num dos pontos da etapa 3 (ponto 4 ou 5) e que quer percorrer o caminho associado a um custo m´ınimo de seguro de vida para chegar ao ponto destino 6 (´unico ponto da etapa 4), qual o percurso a seguir em cada caso e qual o custo m´ınimo de seguro de vida associado a esse percurso? Vamos ent˜ao resolver este sub-problema. Temos E(3) = {4, 5}, isto ´e, na etapa 3 a pessoa pode encontrar-se num de dois pontos: no ponto 4 ou no ponto 5. Se a pessoa se encontra no ponto 4 existe um ´unico percurso poss´ıvel para chegar ao ponto 6, ao qual est´a associado um custo de 3 u.m. (c(3, 4, 6) = 3). Este percurso corresponde ent˜ao ao custo m´ınimo quando se parte com a diligˆencia no ponto 4 e se pretende chegar ao ponto 6. Logo: f (3, 4, 6) = c(3, 4, 6) = 3 u.m. e s(3, 4) = 6. Se a pessoa se encontra no ponto 5, de modo semelhante, existe um ´unico percurso para chegar ao ponto 6, percurso este que tem associado o custo c(3, 5, 6) = 4 u.m. O custo m´ınimo ser´a: f (3, 5, 6) = c(3, 5, 6) = 4 u.m. e o ponto para onde se dever´a ir ´e s(3, 5) = 6. Resumindo, quando a pessoa se encontra na etapa 3 o custo m´ınimo ´e dado pela fun¸c˜ao

f (3, i, 6) = c(3, i, 6) , com i∈ E(3) (1.24)

e o pr´oximo destino ´e

s(3, i) = 6,∀i ∈ E(3) . (1.25)

Na etapa 3, independentemente do ponto onde estivermos, temos apenas um caminho para chegar ao ponto 6. Caso estejamos no ponto 4, o destino seguinte ´e o ponto 6 com um custo m´ınimo de 3 u.m.; se estivermos no ponto 5, teremos que pagar 4 u.m. para chegar ao destino.

Terceiro sub-problema (etapa 2)

O problema ´e agora: quando a pessoa se encontra na etapa 2, podendo estar no ponto 2 ou 3, qual o percurso ´optimo correspondente ao custo m´ınimo que dever´a seguir, e qual o valor do custo m´ınimo? Como E(2) = {2, 3}, na etapa 2 a pessoa pode estar num de dois pontos (ponto 2 ou ponto 3). Em ambos os casos podemos seguir dois percursos diferentes de modo a chegar ao ponto 6: o percurso que passa pelo ponto 4 ou o que passa pelo ponto 5. Em qualquer dos casos, nesta etapa n = 2 o custo da viagem obt´em-se atrav´es da soma do custo do percurso entre o ponto actual i (i∈ E(2)) e o pr´oximo ponto j (j ∈ E(3)), com o custo m´ınimo de viagem da etapa n + 1 quando iniciada no j´a referido j:

c(2, i, j) + f (3, j, 6) , para i∈ E(2) e j ∈ E(3) . Como queremos o custo m´ınimo, ent˜ao

f (2, i, 6) = min

(30)

e o ponto para onde devemos ir quando estamos no ponto i, i∈ E(2), ser´a dado por

s(2, i) = k , se c(2, i, k) + f (3, k, 6) = f (2, i, 6) . (1.27) Obviamente, k ∈ E(3). Para i = 2, atendendo a que E(2) = {4, 5}, obtemos de (1.26) que

f (2, 2, 6) = min {j∈{4,5}}{c(2, 2, j) + f(3, j, 6)} = min{c(2, 2, 4) + f(3, 4, 6), c(2, 2, 5) + f(3, 5, 6)} = min{7 + 3, 7 + 4} = min{10, 11} = 10 u.m. Como 4∈ {4, 5} = E(3) e c(2, 2, 4) + f (3, 4, 6) = 10 = f (2, 2, 6) , obtemos que o k da express˜ao (1.27) para i = 2 ´e 4:

s(2, 2) = 4 .

Se ponto 3 ´e o que corresponde `a localiza¸c˜ao da pessoa (i = 3), E(3) = {4, 5}, e da express˜ao (1.26) vem f (2, 3, 6) = min {j∈{4,5}}{c(2, 3, j) + f(3, j, 6)} = min{c(2, 3, 4) + f(3, 4, 6), c(2, 3, 5) + f(3, 5, 6)} = min{8 + 3, 5 + 4} = min{11, 9} = 9 u.m.

Obtemos ent˜ao k = 5 da express˜ao (1.27): 5∈ {4, 5} = E(3), c(2, 3, 5) + f (3, 5, 6) = 9 = f (2, 3, 6) ,

isto ´e, s(2, 3) = 5. Estamos em condi¸c˜oes de dar resposta ao sub-problema considerado: se, nesta segunda etapa, a pessoa estiver no ponto 2, ent˜ao ela deve optar pelo percurso que passa pelo ponto 4 (s(2, 2) = 4) com destino ao ponto 6, pois este percurso est´a associado ao caminho de custo m´ınimo, com valor f (2, 2, 6) = 10 u.m. Se, pelo contr´ario, ela estiver na cidade 3, para obter o custo m´ınimo de f (2, 3, 6) = 9 u.m. ela deve optar por passar pelo ponto 5 (s(2, 3) = 5).

´

Ultimo sub-problema (etapa 1) e solu¸c˜ao do Problema 22

Qual o percurso que uma pessoa localizada num ponto de E(1), com destino ao ponto 6, deve escolher, de modo a que o custo do seguro de vida associado a essa rota seja m´ınimo? Qual o custo m´ınimo do seguro de vida?

(31)

ETAPA PONTO CUSTO M´INIMO

i j f (i, j, 6) (em u.m.) s(i, j)

4 6 f (4, 6, 6) = 0 4 f (3, 4, 6) = 3 s(3, 4) = 6 3 5 f (3, 5, 6) = 4 s(3, 5) = 6 2 f (2, 2, 6) = 10 s(2, 2) = 4 2 3 f (2, 3, 6) = 9 s(2, 3) = 5 1 1 f (1, 1, 6) = 12 s(1, 1) = 2

Tabela 1.2: Resultados obtidos nas 4 etapas; solu¸c˜ao do Problema 22

Se a pessoa se encontra na etapa 1, tem obrigatoriamente que estar no ponto 1, pois este ´e o ´unico ponto desta etapa: E(1) ={1}. Encontrar a resposta ao sub-problema ´e encontrar o valor das fun¸c˜oes f (1, 1, 6) e s(1, 1):

f (1, 1, 6) = min {j∈E(2)}{c(1, 1, j) + f(2, j, 6)} = min {j∈{2,3}}{c(1, 1, j) + f(2, j, 6)} = min{c(1, 1, 2) + f(2, 2, 6), c(1, 1, 3) + f(2, 3, 6)} = min{2 + 10, 4 + 9} = min{12, 13} = 12 u.m. ; para k = 2, c(1, 1, 2) + f (2, 2, 6) = 12 = f (1, 1, 6) ,

isto ´e, s(1, 1) = 2. Para mais facilmente compreendermos a resposta ao sub-problema, sinte-tizamos na Tabela 1.2 os dados obtidos nas 4 etapas.

Atrav´es da an´alise da Tabela 1.2 conclu´ımos que uma pessoa que esteja no ponto 1 e queira ir at´e ao ponto 6, pagando o m´ınimo poss´ıvel de seguro de vida deve, a partir do ponto 1, escolher o seguinte percurso: 2 (s(1, 1) = 2), 4 (s(2, 2) = 4) e, por fim, o ponto 6 (s(3, 4) = 6); pagando o m´ınimo de 12 unidades monet´arias.

Deste modo, dividindo o problema inicial em sub-problemas mais simples, acab´amos por chegar a um ´ultimo sub-problema de resolu¸c˜ao tamb´em mais simples (pois ´e resolvido em fun¸c˜ao dos anteriores), que corresponde ao nosso problema inicial. A resposta ao Problema 22 ´e, ent˜ao, a resposta ao sub-problema da etapa 1.

Conv´em salientar que, se tiv´essemos resolvido o exerc´ıcio por enumera¸c˜ao exaustiva, ter´ıamos constru´ıdo um total de quatro caminhos completos (1→ 2 → 4 → 6; 1 → 2 → 5 → 6; 1→ 3 → 4 → 6; 1 → 3 → 5 → 6), calculado o custo de cada um e s´o depois escolhido, de entre todos, o de custo m´ınimo. Atrav´es da t´ecnica da Programa¸c˜ao Dinˆamica, s´o constru´ımos dois

(32)

caminhos completos (1 → 2 → 4 → 6; 1 → 3 → 5 → 6) e obtivemos logo o de custo m´ınimo. Embora a diferen¸ca n˜ao pare¸ca significativa, num exemplo com um n´umero total de pontos t˜ao reduzido, ela torna-se important´ıssima quando o n´umero de pontos aumenta.

Se definirmos na etapa 4 a fun¸c˜ao custo m´ınimo como sendo nula, ent˜ao, para as restantes etapas, podemos defini-la recursivamente. De acordo com as express˜oes (1.23)–(1.27), pode-mos definir a fun¸c˜ao recursiva de retrocesso, que se identifica com a melhor pol´ıtica de decis˜ao (controlo ´optimo) como:

  

f (4, 6, 6) = 0 , f (i, j, 6) = min

{k∈E(i+1)}{c(i, j, k) + f(i + 1, k, 6)}, i ∈ {3, 2, 1}, j ∈ E(i) .

Esta fun¸c˜ao ´e trivialmente generalizada para um problema arbitr´ario, com n etapas, onde se pretende ir de um ponto inicial pi para um ponto final pf com “custo” ´optimo (m´ınimo ou

m´aximo): (

f (n, pf, pf) = 0 ,

f (i, j, pf) = extr{k∈E(i+1)}{c(i, j, k) + f(i + 1, k, pf)}, i ∈ {n − 1, . . . , 1}, j ∈ E(i) ,

onde extr significa min ou max, consoante se pretenda minimizar ou maximizar.

No Apˆendice D damos defini¸c˜oes em Maple para a resolu¸c˜ao de um qualquer problema de percurso. Por exemplo, para resolvermos o Problema 22 com o nosso programa Maple come¸camos por definir o problema:

> custos := [[1,2,2],[1,3,4],[2,4,7],[2,5,7],[3,4,8],[3,5,5],[4,6,3],[5,6,4]]: > etapas := [[1],[2,3],[4,5],[6]]:

> problema := [custos, min, etapas]: # segundo argumento = min ou max

O custo m´ınimo ´e ent˜ao obtido por interm´edio da fun¸c˜ao custoOptimo > custoOptimo(problema);

12

enquanto o respectivo caminho ´e dado pela fun¸c˜ao solucaoOptima > solucaoOptima(problema);

(33)

INVESTIMENTO meio 1 meio 2 meio 3 meio 4

m.u.m. JORNAL REVISTA TV R ´ADIO

0 0 0 0 0 1 1.20 2.00 1.30 1.15 2 2.70 2.80 2.90 2.50 3 4.20 4.65 4.95 4.20 4 6.00 6.60 7.00 6.00 5 7.65 8.75 8.50 8.10 6 9.30 10.80 12.30 10.50 7 11.06 12.95 15.05 12.60 8 12.80 15.20 18.00 15.20 9 14.40 17.10 20.70 23.00 10 16.00 19.00 24.00 23.50

Tabela 1.3: Lucros obtidos pelo investimento nos diferentes meios publicit´arios

1.5.2 Problema de investimento

O problema de investimento ´e um problema de distribui¸c˜ao. Este tipo de problemas envolvem a distribui¸c˜ao de recursos por actividades de modo a optimizar uma qualquer me-dida de efectividade. Existem v´arios tipos de problemas de distribui¸c˜ao, de acordo com a interpreta¸c˜ao que dermos aos recursos que vamos distribuir, `as actividades consideradas e `a medida de efectividade que queremos optimizar. No caso particular do exemplo que vamos estudar, consideramos que o recurso dispon´ıvel ´e dinheiro (que ser´a dado em milhares de unidades monet´arias – m.u.m.); as actividades consideradas ser˜ao programas de investimento espec´ıficos; e a medida de efectividade a optimizar corresponde `a maximiza¸c˜ao do lucro total, da´ı ser designado por problema de investimento.

Problema 23. Acabou de chegar ao mercado um novo produto e o fabricante est´a ansioso por determinar a quantidade que deve investir nos diversos meios publicit´arios, de modo a maximizar o seu lucro. H´a quatro tipos de meios publicit´arios sob considera¸c˜ao do fabricante: jornal, revista, televis˜ao e r´adio. A Tabela 1.3 mostra o lucro esperado quando se investe em cada meio publicit´ario. ´E ainda de salientar que, por exemplo, um novo investimento de 10000 unidades monet´arias num jornal, vai aumentar o lucro de 10000 para 16000, ou seja, proporciona um retorno de 60% no investimento. Pretende-se saber:

1. Se estiverem dispon´ıveis 10000 u.m. para publicidade, quanto dever´a ser investido em cada meio publicit´ario de modo a maximizarmos o lucro total?

(34)

modo a maximizarmos o lucro?

Vamos resolver o Problema 23 pelo m´etodo da Programa¸c˜ao Dinˆamica. Para isso par-ticionamos o problema em 4 etapas, associando a cada uma delas um sub-problema. Na primeira etapa consideramos que s´o existe um meio publicit´ario, por exemplo, o jornal, e cal-culamos quanto dever´a ser investido nesse meio, quando possu´ımos um investimento inicial de 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 ou 10 m.u.m. Na segunda etapa alargaremos o n´umero de meios publicit´arios para dois, o jornal e a revista, e calculamos quanto se dever´a investir em ambos os meios quando se tem para aplicar as mesmas quantias referidas anteriormente. Seguindo este racioc´ınio, na etapa 3 teremos trˆes meios publicit´arios (jornal, revista e tv) e na etapa 4 teremos os quatro meios publicit´arios (jornal, revista, tv e r´adio) e um sub-problema idˆentico ao problema inicial. Consideremos a seguinte nota¸c˜ao:

• i – vari´avel de etapa (varia entre 1 e 4);

• m – designa o meio publicit´ario que estamos a utilizar (m varia entre 1 e 4, correspon-dendo o meio publicit´ario 1 ao jornal; o meio publicit´ario 2 `a revista; o meio publicit´ario 3 `a tv; e o meio publicit´ario 4 ao r´adio);

• x – vari´avel que designa a quantidade de dinheiro a investir, em milhares de unidades monet´arias, m.u.m. (varia entre 0 e 10 m.u.m.);

• p(m, x) – lucro que se obt´em ao se investirem x m.u.m. no meio publicit´ario m, com m∈ {1, 2, 3, 4} e x ∈ {0, 1, · · · , 10};

• l(i, x) – lucro m´aximo em m.u.m. na etapa i, quando se investem x m.u.m. nos meios publicit´arios existentes nessa etapa, onde i∈ {1, 2, 3, 4} e x ∈ {0, 1, · · · , 10};

• q(m, x) – quantidade ´optima (em m.u.m.) a investir no meio publicit´ario m, m ∈ {1, 2, 3, 4}, quando temos dispon´ıveis para investimento nos meios publicit´arios j, j ∈ {a ∈ N : a ≤ m}, x m.u.m. (x ∈ {0, 1, · · · , 10}).

Notamos que as fun¸c˜oes p(m, x), com m∈ {1, 2, 3, 4}, s˜ao todas estritamente crescentes. Como queremos obter o lucro m´aximo, quanto maior for a quantidade investida maior ser´a tamb´em o lucro obtido. Conv´em, ent˜ao, investirmos todo o capital dispon´ıvel. Estamos a supor que quando investimos em mais do que um meio publicit´ario, o lucro que obtemos ao investir x no meio publicit´ario i ´e independente do lucro que obtemos ao investir y no meio publicit´ario j, i, j ∈ {1, 2, 3, 4}, com i 6= j e x, y ∈ {0, 1, · · · , 10} tal que 0 ≤ x + y ≤ 10.

Primeiro sub-problema (etapa 1)

O sub-problema consiste em considerar que o fabricante disp˜oe apenas de um meio pub-licit´ario dispon´ıvel (o jornal, que consider´amos o meio publicit´ario 1), e que possui entre 0 a

(35)

10 m.u.m. iniciais para aplicar totalmente no meio existente, ou seja, pode investir 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 ou 10 m.u.m. Para cada quantidade inicial de m.u.m., que quantidade deve o fabricante investir no meio publicit´ario 1, de modo a que o seu lucro seja m´aximo?

Consultando a Tabela 1.3, definimos a fun¸c˜ao p(1, x), que nos d´a o lucro proveniente de investirmos x m.u.m., x∈ {0, 1, · · · , 10}, no meio publicit´ario 1, do seguinte modo: p(1, 0) = 0, p(1, 1) = 1.20, p(1, 2) = 2.70, p(1, 3) = 4.20, p(1, 4) = 6.00, p(1, 5) = 7.65, p(1, 6) = 9.30, p(1, 7) = 11.06, p(1, 8) = 12.80, p(1, 9) = 14.40 e p(1, 10) = 16.00. Verificamos que esta fun¸c˜ao ´e crescente e sempre superior ao capital investido. Logo, de modo a obtermos o maior lucro poss´ıvel, devemos investir toda a quantidade que temos dispon´ıvel para tal. Vamos considerar 11 estados de acordo com a quantia inicial que temos para investir (de 0 a 10). A fun¸c˜ao que nos devolve o lucro m´aximo, que se obt´em ao investirmos x m.u.m. (x∈ {0, 1, · · · , 10}) no meio publicit´ario 1, ´e dada por:

l(1, x) = max

{y=0,··· ,x}{p(1, y)} , ∀x ∈ {0, 1, · · · , 10} .

A fun¸c˜ao que nos d´a a quantidade ideal a investir nos meios publicit´arios existentes na etapa 1 (isto ´e, no meio publicit´ario 1), quando temos x m.u.m. para tal, ´e definida por q(1, x) = y, com p(1, y) = l(1, x), y ∈ {0, · · · , x}. A Tabela 1.4 sintetiza os resultados desta etapa 1. Ela diz-nos que se o fabricante tiver uma quantia inteira x, entre 0 a 10 m.u.m., para investir exclusivamente no meio publicit´ario 1, ent˜ao o melhor a fazer ´e investir a totalidade da quantia: deve investir q(1, x) = x m.u.m. para obter um lucro m´aximo de l(1, x) m.u.m.

Segundo sub-problema (etapa 2)

A quest˜ao que agora se coloca ´e a seguinte. Se o fabricante tiver uma quantia inteira para investir nos meios publicit´arios 1 e 2, entre 0 e 10 m.u.m., que quantia deve investir em cada um deles, de modo a obter o maior lucro poss´ıvel?

A fun¸c˜ao p(2, x) devolve o lucro obtido quando se aplicam x m.u.m. no meio pub-licit´ario 2. ´E definida de acordo com os dados da Tabela 1.3 referentes a este meio, ou seja: p(2, 0) = 0, p(2, 1) = 2.00, p(2, 2) = 2.80, p(2, 3) = 4.65, p(2, 4) = 6.60, p(2, 5) = 8.75, p(2, 6) = 10.80, p(2, 7) = 12.95, p(2, 8) = 15.20, p(2, 9) = 17.10 e p(2, 10) = 19.00. Tal como j´a foi referido, uma vez que as fun¸c˜oes p(1, x) e p(2, x) s˜ao estritamente crescentes para todo o x∈ {0, 1, · · · , 10}, de modo a que o lucro seja m´aximo temos que investir, entre os dois meios publicit´arios, todo o capital dispon´ıvel para esse fim. Tamb´em sabemos que podemos ter uma quantia entre 0 e 10 para investir nestes dois meios publicit´arios e que, para cada valor a investir, poderemos ter uma (no caso em que temos somente 0 m.u.m.) ou mais hip´oteses de distribui¸c˜ao. Pretendemos determinar para qual destas hip´oteses o lucro ´e m´aximo, para cada um dos 11 casos de investimento. Para cada quantia a investir, x, l(2, x) ´e o maior lucro associado `as diferentes distribui¸c˜oes que se podem fazer com x m.u.m. entre os meios

(36)

x l(1, x) q(1, x)

ESTADO (m.u.m) (m.u.m) (m.u.m)

l(1, 0) = maxy=0{p(1, y)}

1 0 = max{p(1, 0)} = 0 q(1, 0) = 0

l(1, 1) = max{y=0,1}{p(1, y)}

2 1 = max{p(1, 0), p(1, 1)} q(1, 1) = 1

= max{0, 1.20} = 1.20 l(1, 2) = max{y=0,1,2}{p(1, y)}

3 2 = max{p(1, 0), p(1, 1), p(1, 2)} q(1, 2) = 2

= max{0, 1.20, 2.70} = 2.70 l(1, 3) = max{y=0,··· ,3}{p(1, y)}

4 3 = 4.20 q(1, 3) = 3

l(1, 4) = max{y=0,··· ,4}{p(1, y)}

5 4 = 6.00 q(1, 4) = 4

l(1, 5) = max{y=0,··· ,5}{p(1, y)}

6 5 = 7.65 q(1, 5) = 5

l(1, 6) = max{y=0,··· ,6}{p(1, y)}

7 6 = 9.30 q(1, 6) = 6

l(1, 7) = max{y=0,··· ,7}{p(1, y)}

8 7 = 11.06 q(1, 7) = 7

l(1, 8) = max{y=0,··· ,8}{p(1, y)}

9 8 = 12.80 q(1, 8) = 8

l(1, 9) = max{y=0,··· ,9}{p(1, y)}

10 9 = 14.40 q(1, 9) = 9

l(1, 10) = max{y=0,··· ,10}{p(1, y)}

11 10 = 16.00 q(1, 10) = 10

(37)

publicit´arios 1 e 2. Como calcular esse lucro? Para um capital inicial de x, se a distribui¸c˜ao ´

optima corresponder a investir y m.u.m. no meio publicit´ario 1 e z m.u.m. no meio pub-licit´ario 2, y, z ∈ {0, 1, · · · , 10} e x = y + z, ent˜ao o lucro do investimento ´e dado pela soma do lucro que se obt´em ao investirmos y m.u.m. no meio publicit´ario 1 e z m.u.m. no meio publicit´ario 2. A distribui¸c˜ao ´optima x = y + z (a que conduz ao lucro m´aximo) ´e obtida comparando todas as poss´ıveis distribui¸c˜oes dos x m.u.m. pelos dois meios publicit´arios. Uma vez que j´a sabemos o resultado ´optimo da etapa 1, l(1, x), e j´a que temos a fun¸c˜ao de lucro associada ao meio publicit´ario 2, p(2, x), ent˜ao o lucro m´aximo ´e obtido atrav´es da fun¸c˜ao:

l(2, x) = max

{y=0,··· ,x}{p(2, y) + l(1, x − y)} , 0 ≤ x ≤ 10 .

A quantidade ideal a investir nos dois meios publicit´arios ser´a:

q(2, x) = y , com p(2, y) + l(1, x− y) = l(2, x) , y ∈ {0, 1, · · · , x}, e

q(1, x− y) = x − y .

Os resultados podem ser consultados na Tabela 1.5. A resposta ao sub-problema ´e ent˜ao: se tivermos um valor x entre 0 a 10 m.u.m. para investir nos meios publicit´arios 1 (jornal) e 2 (revista), ent˜ao devemos investir q(2, x) = y m.u.m. no meio publicit´ario 2 e q(1, x−y) = x−y m.u.m. no meio publicit´ario 1. O lucro m´aximo ´e dado por

l(2, x) = max

{y=0,··· ,x}{p(2, y) + l(1, x − y)} ,

de acordo com a Tabela 1.5.

Terceiro sub-problema (etapa 3)

Se existirem 3 meios publicit´arios (meio publicit´ario 1 o jornal, meio publicit´ario 2 a revista, meio publicit´ario 3 a tv), como dever´a o fabricante distribuir entre eles uma quan-tia compreendida entre 0 a 10 m.u.m. de modo a que o lucro retirado desse investimento seja m´aximo? Este sub-problema resolve-se de modo semelhante ao sub-problema anterior (etapa 2). Consideramos a fun¸c˜ao p(3, x) que devolve o lucro obtido quando se investem x m.u.m. (x = 0, . . . , 10) no meio publicit´ario 3. De acordo com a Tabela 1.3 vem que p(3, 0) = 0, p(3, 1) = 1.30, p(3, 2) = 2.90, p(3, 3) = 4.95, p(3, 4) = 7.00, p(3, 5) = 8.50, p(3, 6) = 12.30, p(3, 7) = 15.05, p(3, 8) = 18.00, p(3, 9) = 20.70 e p(3, 10) = 24.00. O lucro m´aximo que se pode obter ao investir uma quantidade x ∈ {0, · · · 10} m.u.m. na etapa 3 ´e dado pela fun¸c˜ao

l(3, x) = max

(38)

x l(2, x) q(2, x) q(1, x− y) ESTADO (m.u.m) (m.u.m) (m.u.m) (m.u.m)

l(2, 0) = max{y=0}{p(2, y) + l(1, 0 − y)}

1 0 max{p(2, 0) + l(1, 0)} q(2, 0) = 0 q(1, 0) = 0 = max{0 + 0} = 0

l(2, 1) = max{y=0,1}{p(2, y) + l(1, 1 − y)} q(1, 1− 1)

2 1 = max{p(2, 0) + l(1, 1), p(2, 1) + l(1, 0)} q(2, 1) = 1 = q(1, 0) =max{1.20,2.00}=2.00 = 0 l(2, 2) = max{y=0,1,2}{p(2, y) + l(2, 1 − y)} q(1, 2− 1)

3 2 = max{2.70, 3.20, 2.80} q(2, 2) = 1 q(1, 1)

= 3.20 = 1

l(2, 3) = max{y=0,··· ,3}{p(2, y) + l(1, 1 − y)} q(1, 3− 1)

4 3 = max{4.20, 4.70, 4.00, 4.65} q(2, 3) = 1 q(1, 2)

= 4.70 = 2

l(2, 4) = max{y=0,··· ,4}{p(2, y) + l(1, 1 − y)} q(1, 4− 4)

5 4 = max{6.00, 6.20, 5.50, 5.75, 6.60} q(2, 4) = 4 q(1, 0)

= 6.60 = 0

l(2, 5) = max{y=0,··· ,5}{p(2, y) + l(1, 1 − y)} q(1, 5− 5)

6 5 = max{7.65, 8.00, 7.00, 7.35, 7.80, 8.75} q(2, 5) = 5 q(1, 0)

= 8.75 = 0

l(2, 6) = max{y=0,··· ,6}{p(2, y) + l(1, 1 − y)} q(1, 6− 6)

7 6 = max{9.30, 9.65, 8.80, 8.85, 9.30, 9.95, 10.80} q(2, 6) = 6 q(1, 0)

= 10.80 = 0

l(2, 7) = max{y=0,··· ,7}{p(2, y) + l(1, 1 − y)} q(1, 7− 7)

8 7 = max{11.06, 11.30, 10.45, 10.65, 10.80, 11.45, q(2, 7) = 7 q(1, 0) 12.00, 12.95} = 12.95 = 0 l(2, 8) = max{y=0,··· ,8}{p(2, y) + l(1, 1 − y)} q(1, 8− 8)

9 8 = max{12.80, 13.06, 12.10, 12.30, 12.60, 12.95, q(2, 8) = 8 q(1, 0) 13.50, 14.15, 15.20} = 15.20 = 0 l(2, 9) = max{y=0,··· ,9}{p(2, y) + l(1, 1 − y)} q(1, 9− 9)

10 9 = max{14.40, 14.80, 13.86, 13.95, 14.25, 14.75, q(2, 9) = 9 q(1, 0) 15.00, 15.65, 16.40, 17.10} = 17.10 = 0 l(2, 10) = max{y=0,··· ,10}{p(2, y) + l(1, 1 − y)} q(1, 10− 10)

11 10 = max{16.00, 16.40, 15.60, 15.71, 15.90, 16.40 q(2, 10) = 10 q(1, 0) 16.80, 17.15, 17.90, 18.30, 19.00} = 19.00 = 0

(39)

e as quantidades ´optimas, em m.u.m., para se investir nos diferentes meios publicit´arios s˜ao obtidas atrav´es das f´ormulas:

q(3, x) = y , com p(3, y) + l(2, x− y) = l(3, x) , y ∈ {0, · · · , x} ,

q(2, x− y) = z , com p(2, z) + l(1, x − y − z) = l(2, x − y) , z ∈ {0, · · · , x − y} , q(1, x− y − z) = x − y − z .

Estes valores, para os 11 estados da etapa 3, est˜ao representados na Tabela 1.6. De acordo com ela, quando o fabricante tem um valor entre 0 e 10 m.u.m. para investir entre os meios publicit´arios 1 (jornal), 2 (revista) e 3 (tv), ent˜ao deve investir uma totalidade de 10 m.u.m. distribu´ıdos do seguinte modo: no meio publicit´ario 3 deve investir q(3, x) m.u.m., no meio publicit´ario 2 q(2, x−y) m.u.m. e no meio publicit´ario 1 q(1, x−y −z) m.u.m., obtendo ent˜ao o lucro m´aximo de l(3, x) = max{y=0,··· ,x}{p(3, y) + l(2, x − y)}.

´

Ultimo sub-problema (etapa 4) e solu¸c˜ao do Problema 23

Nesta etapa h´a quatro tipos de meios publicit´arios (1 o jornal, 2 a revista, 3 a tv e 4 o r´adio). Dispon´ıvel um capital inteiro entre 0 e 10 m.u.m., quanto se deve investir em cada um deles de modo a obtermos o maior lucro poss´ıvel? Tendo em aten¸c˜ao a Tabela 1.3, a fun¸c˜ao p(4, x), que nos d´a o lucro obtido quando se investem x m.u.m. (x = 0, . . . , 10) no meio publicit´ario 4, fica definida por: p(4, 0) = 0, p(4, 1) = 1.15, p(4, 2) = 2.50, p(4, 3) = 4.20, p(4, 4) = 6.00, p(4, 5) = 8.10, p(4, 6) = 10.50, p(4, 7) = 12.60, p(4, 8) = 15.20, p(4, 9) = 23.00 e p(4, 10) = 23.50. A fun¸c˜ao

l(4, x) = max

{y=0,··· ,x}{p(4, y) + l(3, x − y)} ,

d´a-nos o lucro m´aximo que se pode obter ao investir x m.u.m., x = 0, . . . , 10, nos diferentes meios publicit´arios considerados. As quantidades ´optimas de investimento, em m.u.m., s˜ao obtidas do seguinte modo:

q(4, x) = y , com p(4, y) + l(3, x− y) = l(4, x) , y ∈ {0, · · · , x} ,

q(3, x− y) = w , com p(3, w) + l(2, x − y − w) = l(3, x − y) , w ∈ {0, · · · , x − y} ,

q(2, x− y − w) = z , com p(2, z) + l(1, x − y − w − z) = l(2, x − y − w) , z ∈ {0, · · · , x − y − w} , q(1, x− y − w − z) = x − y − w − z .

Tal como fizemos para as etapas anteriores, esquematizamos numa tabela (Tabela 1.7) o que acontece em cada um dos 11 poss´ıveis estados. Quando existem quatro meios publicit´arios e uma quantia para investimento entre 0 e 10 m.u.m., o lucro m´aximo ´e obtido da seguinte maneira: investindo q(4, x) m.u.m. no meio publicit´ario 4; q(3, x − y) m.u.m. no meio publicit´ario 3; q(2, x− y − w) m.u.m. no meio publicit´ario 2; e q(1, x − y − w − z) m.u.m.

(40)

x l(3, x) q(3, x) q(2,x-y) q(1,x-y-z) ESTADO (m.u.m) (m.u.m) (m.u.m) (m.u.m) (m.u.m)

l(3, 0) = max{y=0}{p(3, y) + l(2, 0 − y)}

1 0 = max{p(3, 0) + l(2, 0)} q(3, 0) = q(2, 0) q(1, 0) = max{0 + 0} = max{0} = 0 = 0 = 0 = 0 l(3, 1) = max{y=0,1}{p(3, y) + l(2, 1 − y)}

= max{p(3, 0) + l(2, 1 − 0), p(3, 1)+

2 1 +l(2, 1− 1)} = max{p(3, 0) + l(2, 1), p(3, 1)+ q(3, 1) = q(2, 1) =q(1,0) +l(2, 0)} = max{0 + 2.00, 1.30 + 0} = 0 = 1 = 0

= max{2.00, 1.30} = 2.00

l(3, 2) = max{y=0,1,2}{p(3, y) + l(2, 2 − y)}

= max{p(3, 0) + l(2, 2 − 0), p(3, 1)+ +l(2, 2− 1), p(3, 2) + l(2, 2 − 2)} 3 2 = max{p(3, 0) + l(2, 2), p(3, 1) + l(2, 1), q(3, 2) = q(2, 1) = q(1, 0) p(3, 2) + l(2, 0)} = 1 = 1 = 0 = max{3.20, 3.30, 2.90} = 3.30

l(3, 3) = max{y=0,··· ,3}{p(3, y) + l(2, 3 − y)}

4 3 = max{4.70, 4.50, 4.90, 4.95} q(3, 3) = q(2, 0) q(1,0) = 4.95 = 3 = 0 = 0 l(3, 4) = max{y=0,··· ,4}{p(3, y) + l(2, 4 − y)}

5 4 = max{6.60, 6.00, 6.10, 6.95, 7.00} q(3, 4) = q(2, 0) q(1,0) = 7.00 = 4 = 0 = 0 l(3, 5) = max{y=0,··· ,5}{p(3, y) + l(2, 5 − y)}

6 5 = max{8.75, 7.90, 7.60, 8.15, 9.00, 8.50} q(3, 5) = q(2, 1) q(1,0) = 9.00 = 4 = 1 = 0 l(3, 6) = max{y=0,··· ,6}{p(3, y) + l(2, 6 − y)}

7 6 = max{10.80, 10.05, 9.50, 9.65, q(3, 6) = q(2, 0) q(1, 0) 10.20, 10.50, 12.30} = 12.30 = 6 = 0 = 0 l(3, 7) = max{y=0,··· ,7}{p(3, y) + l(2, 7 − y)}

8 7 = max{12.95, 12.10, 11.65, 11.55, q(3, 7) = q(2, 0) q(1, 0) 11.70, 11.70, 14.30, 15.05} = 15.05 = 7 = 0 = 0 l(3, 8) = max{y=0,··· ,8}{p(3, y) + l(2, 8 − y)}

9 8 = max{15.20, 14.25, 13.70, 13.70, 13.60, q(3, 8) = q(2, 0) q(1, 0) 13.20, 15.50, 17.05, 18.00} = 18.00 = 8 = 0 = 0 l(3, 9) = max{y=0,··· ,9}{p(3, y) + l(2, 9 − y)}

10 9 = max{17.10, 16.50, 15.85, 15.75, 15.75, q(3, 9) = q(2, 0) q(1,0) 15.10, 17.00, 18.25, 20.00, 20.70} = 20.70 = 9 = 0 = 0

l(3, 10) = max{y=0,··· ,10}{p(3, y)+

+l(2, 10− y)} = max{19.00, 18.40, 18.10, q(3, 10) = q(2, 0) q(1, 0) 11 10 17.90, 17.80, 17.25, 18.90, 19.75, 21.20, = 10 = 0 = 0

22.70, 24.00} = 24.00

Referências

Documentos relacionados

O estudo teve como objetivo inicial realizar as análises nos postos de trabalho de uma indústria de artefatos em aço para identificar as posturas básicas adotadas pelos

Tem-se ainda como particularidade ao transporte aéreo é que a este se aplica, além das regras específicas como o Código Brasileiro de Aviação, outros institutos se incluindo,

Já as hipóteses consideradas foram as seguintes: a) sim, pois a disposição das partes no plenário de julgamento não representa afronta aos primados constitucionais; e, b) não,

Histogramas da distribuição dos pontos de corte e riscos relativos estimados pelo método boot Figura D.1: Histogramas da distribuição dos pontos de corte e riscos relativos

** Esta actividade formativa foi avaliada pelo InCI e permite a obtenção de créditos para a revalidação da licença do exercício das actividades de mediação imobiliária e

Ao premir, CONCLUÍDO para sair do ecrã Definir níveis do circuitos, mantém os circuitos com a configuração de bypass até serem alterados por uma entrada de estação de controlo

Após o estudo dos pressupostos da responsabilidade civil, associado a análise de todo o instrumento normativo que diz respeito a proteção do idoso, resta clara a aplicação da

Ele tem basicamente todos os órgãos para falar e cantar, como os homens, mas não possui a capacidade de autoconsciência para fazer essas coisas.. O Ser