• Nenhum resultado encontrado

aula11

N/A
N/A
Protected

Academic year: 2021

Share "aula11"

Copied!
11
0
0

Texto

(1)ELE 302 Introdução à Otimização Matemática Aula 11 – Otimização com Restrições Métodos Primais – Gradiente Reduzido Penalidades e Barreiras Sérgio Haffner Maio 2011.

(2) Métodos Primais Gradiente Reduzido Variáveis do problema divididas em dois grupos: básicas e não-básicas. Seja o problema de otimização com restrições lineares: min f ( x )  s.a. Ax = b  x≥0  Restrições de desigualdade: representadas por igualdades (introduzidas folgas). x − 5x ≤ 4 ⇒ x − 5 x − 4 + s = 0, s ≥ 0 2. 1. 2. Matriz A=[AI AJ] particionada: I = básicas (dependentes) min f ( x I , x J ) J = não-básicas (independentes)  I J I -1 s.a. A x + A x = b I , J tal que ∃ A ( )  I J  xI ≥ 0 xJ ≥ 0  I −1 I −1 xI = h ( x J ) = A b− A AJ xJ xI  . ( ). ( ). ( ). x I + ∆x I = A I. ( ). ∆x I = − A I. −1. −1. ( ). ( ). b − AI. A J ∆x J. −1. ⇒. ( ). A J ( x J + ∆x J ) = A I ∂h ( x J ) ∂x J. ( ). = − AI. −1. −1. ( ). b − AI. AJ. ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. −1. ( ). AJ xJ − AI. −1. A J ∆x J. SHaffner2011 – haffner@ieee.org. 1.

(3) Métodos Primais Gradiente Reduzido (cont) A idéia é encontrar a partição (I,J) e tratar o problema restrito min f ( x I , x J )  I J s.a. A x I + A x J = b  xI ≥ 0 xJ ≥ 0 . (I, J ). tal que ∃. ( ) AI. -1. ( ). xI = h ( x J ) = AI. −1. ( ). b − AI. ⌢  min f ( x J ) s.a. x I ≥ 0  I x = h x = A ( ) I J . ( ). −1. −1. AJ xJ. ( ). b − AI. −1. (I, J ). tal que ∃. (A ). I -1. AJ xJ ≥ 0 ( )   π x. ⌢ ⌢ ∂h ( x J ) ∇f ( x J ) = ∇f ( h ( x J ) , x J ) = ∇ J f ( x ) + ∇ I f ( x ) = ∇J f ( x) − ∇I f ( x) AI ∂x J. ( ). ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. −1. AJ. SHaffner2011 – haffner@ieee.org. como um problema irrestrito onde aparecem apenas as variáveis independentes xJ e restrições de canalização.

(4) Métodos Primais Gradiente Reduzido (ALGORITMO). ou seja, calcula-se 4. Fazer, ∀j∈J,. ρj =. − ρ j ∆x j =  0. ( ) = ∂f ( x ) − π. ⌢ ∂f x j ∂x j. ∂x j. (x) A j. e determinar partição (I,J). ∀j ∈ J. ⌢ ∇f ( x J ) = ∇ J f ( x ) − π ( x ) A J   I −1  π ( x ) = ∇ I f ( x ) A. ( ). se x j > 0 ou se x j = 0 e ρ j < 0 se x j = 0 e ρ j ≥ 0. 5. Se ∆xJ=0, parar a solução atual é ótima. I −1 ∆ x = − A ( ) A J ∆x J 6. Calcular as variações unitárias das variáveis básicas I α 2 = max {α : x J + α∆x J ≥ 0 ( é factível )} 7. Calcular α1 = max {α : x I + α∆x I ≥ 0 ( é factível )} α L = min {α1 ,α 2 }. α 3 = arg {min f ( x k + α∆x k ) , 0 ≤ α ≤ αL }. fazer xk+1=xk+α3∆xk, . 8. Se α3 <α1 então voltar para o Passo 2; Caso contrário, se α3 =α1 então alterar a base, isto é, refazer a partição (I,J). 9. Retornar para o Passo 2. ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. SHaffner2011 – haffner@ieee.org. 1. Fazer k=0, obter x0 factível (se necessário fazer Fase I) inicial. 2. Calcular gradiente da função f: ∇f(xk). 3. Calcular gradiente reduzido (em relação às var. ind. xJ ):.

(5) Métodos primais Gradiente Reduzido (Exemplo) min. x12 + x22 + x32 + x42 − 2 x1 − 3 x4. s.a.. 2 x1 + x2 + x3 + 4 x4 = 7 x1 + x2 + 2 x3 + x4 = 6 xi ≥ 0, i = 1,2,3,4. Dado um ponto factível xkT=(2,2,1,0), para o qual f(xk)=5. Pode-se selecionar qualquer par de variáveis positivas para serem básicas. O gradiente da função é dado por: ∇f ( x ) = [ 2 x1 − 2 2 x2 2 x3 2 x4 − 3] Suponha que xI={x1,x2} seja selecionado, então: ∇ I f ( x ) = [ 2 x1 − 2 2 x2 ] ∇ J f ( x ) = [ 2 x3 2 x4 − 3].  2 1 AI =  1 1. ( ) AI. −1. ⇒ ⇒.  1 −1 =  −1 2 . ( ) = [ 2 4] ⋅ −11. π ( x) = ∇I f ( x) A. I −1. ∇ I f ( x k ) = [ 2 4] ∇ J f ( x k ) = [ 2 −3]. 1 4 AJ =   2 1  −1 = [ −2 6] 2 . ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. SHaffner2011 – haffner@ieee.org. Exemplo 8: Considere o problema de otimização.

(6) Métodos primais Gradiente Reduzido (Exemplo) Exemplo 8 (cont1): O gradiente reduzido é dado por ⌢ 1 4  ∇f ( x J ) = ∇ J f ( x ) − π ( x ) A J = [ 2 −3] − [ −2 6] ⋅  = [ −8 −1]  2 1  ⇒ ∆x3 = − ρ 3 = 8 Como x3 > 0 x4 > 0 ⇒ ∆x4 = − ρ 4 = 1. ρ 3 = −8 ρ 4 = −1. ( ). ∆x I = − A I. −1.  1 −1 1 4  8  5  A J ∆x J = −  ⋅ ⋅  =    − 1 2 2 1     1  −22 . A direção de descida que respeita as restrições é ∆x k = [5 −22 8 1] e os limites da busca são dados por:  2 + α 5 ≥ 0 ⇒ ∀α   α1 = max α : 2 + α (− 22) ≥ 0 ⇒ α ≤ 2 ≈ 0,091  ≈ 0,091     22  1 + α 8 ≥ 0 ⇒ ∀α   α 2 = max α :   → ∞ 0 + 1 ≥ 0 ⇒ ∀ α α    α L = min{α1 ,α 2 } = min{0,091; ∞} = 0,091 ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. SHaffner2011 – haffner@ieee.org. Assim x3 e x4 devem ser aumentados na proporção de 8 para 1. Para esta variação as variáveis básicas se alteram da seguinte forma:.

(7) Métodos primais Gradiente Reduzido (Exemplo) Exemplo 8 (cont2): Para um passo α=0,01, tem-se: x k +1 = x k + α∆x k = [ 2 2 1 0] + 0,01[5 −22 8 1] = [ 2,05 1,78 1,08 0,01] f ( x k +1 ) ≈ 4, 41. Para uma variação qualquer na direção ∆xk, tem-se: f ( x k + α∆x k ) = ( 2 + 5α ) + ( 2 − 22α ) + (1 + 8α ) + (α ) − 2 ( 2 + 5α ) − 3 (α ) = 2. 2. 2. f ( x k + α∆x k ) = 574α 2 − 65α + 5. Cujo valor mínimo ocorre para 1148α − 65 = 0. ⇒. f ( x k + α∆x k ) ≈ 3,16. α=. 65 ≈ 0,056 1148. ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. SHaffner2011 – haffner@ieee.org. 2.

(8) Métodos primais Exercícios. SHaffner2011 – haffner@ieee.org. Exercício: Fazer mais 2 passos referentes ao Exemplo 8.. ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática.

(9) Penalidades e barreiras. Penalidades: Não necessita de uma solução inicial factível. Restrições de igualdade: m min f ( x ) 2 ⇒ min f x + µ  h x  ( ) ( )  ∑  i  = s.a. h x 0 ( )  i =1 Restrições de igualdade e desigualdade: min f ( x )  s.a. h ( x ) = 0  g (x) ≤ 0 . ⇒. min. f ( x ) + µ=. m. ∑ i =1.  hi ( x )  + µ≤ 2. ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. p. ∑ j =1. (. ).  max 0, g j ( x )   . 2. SHaffner2011 – haffner@ieee.org. Incorporam restrições na função objetivo e permitem lidar com as restrições (inclusive não-lineares) da forma mais simples, ou seja, operando como na otimização irrestrita..

(10) Penalidades e barreiras Barreira: Busca no interior da região factível.. min f ( x )  s.a. g ( x ) ≤ 0. f ( x) − µ. 1. ∑ g ( x) i =1. i. ⇒. min. f (x) − µ. m. ∑ ln −  g ( x )  i. i =1. ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. SHaffner2011 – haffner@ieee.org. min. m.

(11) David Luenberger (1984). Linear and nonlinear programming, Addison-Wesley Publishing Company, Inc. Frederick S. Hillier e Gerald J. Lieberman (2002). Introduction to Operations Research. Holden-Day, Inc., Oakland, California. Hamdy A. Taha (2008), Pesquisa operacional, Pearson Prentice Hall, 2008. Ronald L. Rardin (1998). Optimization in operations research. Prentice Hall, New Jersey. Narayan Rau (2003). Optimization principles: practical applications to the operation and markets of the electric power industry. IEEE Press: Wiley Interscience.. ELE 302 – Introduç Introdução à Otimizaç Otimização Matemá Matemática. SHaffner2011 – haffner@ieee.org. Bibliografia.

(12)

Referências

Documentos relacionados

Apesar da grande variabilidade da variável potássio caracterizada nas áreas do experimento, os modelos aplicados apresentaram um bom desempenho do coeficiente de determinação (R 2

O problema é que essa divulgação, via de regra, ocorre de forma descontextualizada, fragmentada, como foi detectado mais uma vez pela pesquisa Fundep/UFMG/Andi (2009),

14- Complete as lacunas de acordo com os exemplos das frases abaixo: I- A roupa chegou do conserto. II- O concerto de Natal estava lindo. 15- Complete as frases, utilizando uma

Abel Soares Siqueira Ademir Alves Ribeiro Elizabeth Wegner Karas Geovani Grapiglia.. José Alberto Ramos Flor

Como a Figura 8 mostra, no primeiro passo deste método, é transforma a posição inicial das partículas, essencialmente dispersas em uma posições próximas a do

O tipo de rocha detonada pela empresa é o Calcário, com a malha de espaçamento utilizada 2,5m de distância entre os furos, a profundidade dos furos foram de 12m, para 19

Este trabalho teve seu foco no desenvolvimento de métodos de otimização para a resolução do problema de seqüenciamento em uma máquina com penalidades por antecipação e atraso

Escolhendo-se uma estrutura de recurso adequado, é possível recuperar a função de penalidade com custos individuais e com custo conjunto