• Nenhum resultado encontrado

O USO DE RELAXAÇÕES LAGRANGIANA E SURROGATE NO PROBLEMA DE CARREGAMENTO DE PALETES DO PRODUTOR

N/A
N/A
Protected

Academic year: 2021

Share "O USO DE RELAXAÇÕES LAGRANGIANA E SURROGATE NO PROBLEMA DE CARREGAMENTO DE PALETES DO PRODUTOR"

Copied!
12
0
0

Texto

(1)

A pesquisa Operacional e os Recursos Renováveis 4 a 7 de novembro de 2003, Natal-RN

O USO DE RELAXAÇÕES LAGRANGIANA E SURROGATE NO PROBLEMA

DE CARREGAMENTO DE PALETES DO PRODUTOR

Lilian Kátia de Oliveira Reinaldo Morabito

Universidade Federal de São Carlos, Departamento de Engenharia de Produção Via Washington Luís, Km 235 - Caixa Postal 676

CEP 13.565-905, São Carlos, SP, Brasil {plko@iris.ufscar.br, morabito@power.ufscar.br}

RESUMO

Neste trabalho apresenta-se um método exato para resolver o problema de carregamento de paletes (PCP) do produtor. Este problema consiste em arranjar sem sobreposição o máximo número de retângulos de dimensões (l,w) ou (w,l) sobre um retângulo maior (L,W). O método aqui proposto é baseado no método de Beasley (1985) para um problema de corte e empacotamento mais geral. Tal método envolve um procedimento de busca em árvore do tipo branch and bound que, em cada nó, utiliza limitantes derivados de relaxações Lagrangiana e/ou Surrogate de uma formulação de programação linear 0-1. Um algoritmo de otimização do subgradiente é usado para otimizar estes limitantes. São aplicados ainda testes de redução do problema e uma heurística Lagrangiana na otimização do subgradiente. Testes computacionais foram realizados ilustrando o desempenho do método ao resolver exemplos da literatura.

Palavras-chave: Problema de carregamento de paletes do produtor, Relaxação Lagrangiana e

Surrogate, método Branch and Bound.

ABSTRACT

This paper presents an exact method to solve the manufacturer’s pallet loading problem (PLP). This is the problem of arranging the maximum number of rectangles of sizes (l,w) and (w,l) into a larger rectangle (L,W) without overlapping. The proposed method is based on Beasley (1985)'s method for a more general cutting and packing problem. Such method involves a tree search procedure of branch and bound type that utilizes for each node bounds derived from Lagrangean and/or Surrogate relaxations of a 0-1 linear programming formulation. A subgradient optimization algorithm is used to optimize such bounds. Problem reduction tests and a Lagrangean heuristic are also applied in the subgradient optimization. Computational experiments were performed to illustrate the performance of the method when solving examples of the literature.

Key-words: Manufacturer’s Pallet Loading Problem, Lagrangean and Surrogate Relaxation, Branch and Bound method.

1. INTRODUÇÃO

Este trabalho trata de um caso particular dos problemas de corte e empacotamento, denominado problema de carregamento de paletes do produtor (PCP do produtor), o qual é classificado como 2/B/O/C (bidimensional, seleção de itens, único objeto, itens iguais), de acordo com a tipologia de Dyckhoff (1990). Basicamente, este problema consiste em arranjar sem sobreposição o máximo número de retângulos de dimensões (l,w) ou (w,l) (faces inferiores das caixas) sobre um retângulo maior (L,W) (superfície do palete). Admitimos que as caixas estão disponíveis em grandes quantidades e devem ser arranjadas ortogonalmente, isto é, com seus lados paralelos aos lados do palete. Estes arranjos de caixas formam camadas que são então empilhadas sobre o palete. Devido à escala e extensão de certos sistemas logísticos, um pequeno aumento do número de produtos carregados sobre cada palete pode resultar em economias substanciais.

(2)

O PCP do produtor é difícil do ponto de vista da complexidade computacional, pois aparentemente simples de ser resolvido otimamente, o problema não é resolvido em tempo polinomial, embora isto ainda não tenha sido provado. Além disso, o PCP do produtor é importante nas atividades logísticas de armazenagem e transporte de produtos embalados em caixas e carregados sobre paletes e caminhões (Morabito et al. 2000). Poucos autores propuseram métodos exatos para resolver o PCP do produtor, entre eles, Dowsland (1987), Tsai et al. (1993) e Battacharya et al. (1998). Devido à dificuldade com os métodos exatos, diversas heurísticas têm sido propostas na literatura para resolver o PCP do produtor. Exemplos podem ser encontrados em Steudel (1979), Smith e De Cani (1980), Bischoff e Dowsland (1982), Dowsland (1993), Nelissen (1994, 1995), Arenales e Morabito (1995), Scheithauer e Terno (1996), Herbert e Dowsland (1996), Scheithauer e Sommerweiss (1998), Morabito e Morales (1998, 1999), G e Kang (2001), Martins (2002) e Lins et al. (2003). Limitantes superiores para o problema são estudados em Nelissen (1995), Letchford e Amaral (2001) e Morabito e Farago (2002).

Neste trabalho, o PCP do produtor é modelado como um problema inteiro 0-1 similarmente a Farago e Morabito (2000). O modelo pode ser visto como um caso particular do modelo proposto em Beasley (1985) para o problema mais geral da classe 2/B/O/M (bidimensional, seleção de itens, único objeto, vários itens diferentes). Apresentamos um método exato baseado na aplicação da técnica de relaxação Lagrangiana e/ou Surrogate, que fornece um excelente limitante para ser usado num procedimento de busca em árvore (método branch and bound). Beasley (1985) utilizou um método similar baseado em relaxação Lagrangiana e Surrogate para o problema mais geral acima citado. Um algoritmo de otimização do subgradiente é usado para otimizar o limitante obtido por relaxação Lagrangiana e/ou Surrogate. São aplicados ainda testes de redução com o objetivo de reduzir o tamanho do problema, e a heurística Lagrangiana em Farago e Morabito (2000). Os testes computacionais foram realizados utilizando exemplos conhecidos da literatura.

O trabalho está organizado como descrito a seguir. Na seção 2 é apresentada uma formulação do problema adaptada de Beasley (1985); outras formulações podem ser encontradas em Tsai et al (1993), Hadjiconstantinou e Christofides (1995) e Martins (2002). As aplicações de relaxações Lagrangiana, Surrogate e Lagrangiana Surrogate estão resumidamente descritas na seção 3. Em seguida, na seção 4 está descrito o procedimento de busca em árvore (branch and bound). Finalmente, alguns resultados computacionais e conclusões são apresentados na seção 5.

2. FORMULAÇÃO DO PROBLEMA

Um palete (L,W), de comprimento L e largura W, deve ser carregado com caixas iguais com faces inferiores de dimensões l e w. Admitimos que L, W, l e w são números inteiros, e que l≥ e w

{

LW

}

l≤min , . Por simplicidade, definimos (l1,w1)=(l,w) e (l2,w2)=(w,l), assim, (li,wi), i=1,2,

correspondem ao comprimento e largura da face de uma caixa com orientação i. O problema consiste em encontrar um arranjo de caixas em camadas horizontais, tal que a utilização da superfície do palete seja a máxima possível.

Definimos P e Q o mínimo e o máximo número de caixas por camada, respectivamente, que

podem ser colocadas sobre o palete (0 ≤ P ≤ Q). Consideramos um sistema de coordenadas cartesianas com origem no canto inferior esquerdo do palete. Sabemos que as caixas podem ser colocadas em várias posições ao longo do comprimento L e largura W do palete. Sejam

{ | 0 - , inteiro}

X = p ≤ ≤p L w e Y ={ | 0q ≤ ≤q W w- , inteiro} os conjuntos das coordenadas (p,q), respectivamente, para se colocar o canto inferior esquerdo da face (l,w) de uma caixa dentro do palete. Sem perda de generalidade (Beasley, 1985), podemos restringir os conjuntos X e Y para:

} 2 , 1 inteiro, e 0 , 0 , | { 2 1

(3)

e cada orientação i, com p∈X tal que p ≤ L-li, q∈Y tal que q ≤ W-wi, r∈X, s∈Y, e i=1,2 (Beasley, 1985):    ≤ ≤ ≤ + − ≤ − ≤ ≤ ≤ + − ≤ − = contrário caso , 0 1 1 0 e 1 1 0 se , 1 p r p l L q s q w W a i i ipqrs .

Finalmente, para todo p∈X tal que p ≤ L-li, q∈Y tal que q ≤ W-wi e i=1,2, temos a variável de decisão xipq:

1, se uma caixa é colocada na posição ( , ) do palete com orientação

0, caso contrário

ipq

p q i

x = 

 .

O PCP do produtor pode então ser formulado pelo seguinte problema linear 0-1 (Beasley, 1985, Farago e Morabito, 2000): Max

∑∑

= ∈ ≤ − ∈ ≤ − 2 1 { | } { | } i p Xp L l qYq W w ipq i i x (1) s.a.

∑∑

= ∈ ≤ − ∈ ≤ − ≤ 2 1 { | } { | } 1 i p Xp L l qYq W w ipq ipqrs

i i a x , para todo r∈X, s∈Y (2)

∑∑

= ∈ ≤ − ∈ ≤ − ≤ ≤ 2 1 { | } { | } i p Xp L l q YqW w ipq i i x Q P (3)

com xipq∈{0,1}, i=1,2, p∈X tal que p L-li; q∈Y tal que q W-wi (4) A função objetivo (1) maximiza o número de caixas colocada sobre o palete. A restrição (2) garante que cada par (r,s) seja ocupado por no máximo uma caixa e, desta maneira, evita sobreposição no arranjo de caixas. A restrição (3) garante que o número de caixas arranjadas esteja dentro do intervalo [P,Q] (em geral, temos P = 0). O problema (1)-(4) envolve O(|X||Y|) variáveis e restrições, o que o torna em geral difícil de ser resolvido otimamente nos casos práticos.

3. RELAXAÇÕES LAGRANGIANA E SURROGATE

A relaxação de um problema tem como finalidade tornar o problema mais fácil de se resolver. No entanto, a solução fornecida pela relaxação geralmente não satisfaz todas as restrições do problema original, mas seu valor resulta em um limitante para o valor da solução ótima do problema original. A seguir são apresentadas relaxações Lagrangiana, Surrogate e Lagrangiana Surrogate para o modelo do PCP do produtor apresentado na seção 2.

3.1. Relaxação Lagrangiana

A técnica de relaxação Lagrangiana é muito utilizada e existem várias razões que justificam o seu uso. Muitos problemas de otimização combinatória são problemas “fáceis”, complicados pela adição de algumas restrições “difíceis”. No entanto, se estas restrições forem retiradas e introduzidas na função objetivo com uma certa penalidade (os conhecidos multiplicadores de Lagrange), é possível obter-se um problema fácil de se resolver e, assim, podemos dar uma atenção maior para a escolha de valores numéricos dos multiplicadores de Lagrange, pois estes são muito importantes para a qualidade dos limitantes. Além disso, experiências com relaxação Lagrangiana indicam que esta fornece bons limitantes e de razoável custo computacional (Beasley, 1993).

Utilizando a técnica de relaxação Lagrangiana em (1)-(4), ou seja, introduzindo os multiplicadores de Lagrange grs (≥ 0) para todo r∈X e todo s∈Y da expressão (2), obtemos o seguinte problema Lagrangiano (note que temos |X||Y| multiplicadores):

Max

∑∑

∑∑

= ∈ ≤ − ∈ ≤ − ∈ ∈ + 2 1 { | } { | } i p Xp L li qYqW wi ipq ipq r Xs Y rs g x V (5) s.a.

∑∑

= ∈ ≤ − ∈ ≤ − ≤ ≤ 2 1 { | } { | } i p Xp L li q Yq W wi ipq Q x P (6)

(4)

com xipq∈{0,1}, i=1,2, p∈X tal que p L-li; q∈Y tal que q W-wi (7)

onde ipq 1 rs ipqrs

r X s Y

V g a

∈ ∈

= −

∑∑

.

Sejam {Xipq} representando os valores das variáveis {xipq} na solução do problema Lagrangiano (5)-(7), com valor dado por

∑ ∑

∑∑

= ∈ ≤ − ∈ ≤ − ∈ ∈ + = 2 1{ | }{ | } i p X p L l q Yq W w r Xs Y rs ipq ipq UB i i g X V Z ,

que corresponde a um limitante superior para o valor ótimo do problema original (1)-(4), para quaisquer {grs} não negativos.

Observe que, dados {grs}, o problema (5)-(7) pode ser facilmente resolvido, uma vez que se decompõe em dois problemas independentes (um para cada tipo i de orientação de caixa), e que cada subproblema pode ser facilmente resolvido por inspeção. Seja n o número de variáveis xipq com valores Vipq estritamente positivos:

• Se n ≥ Q, então escolha as Q variáveis com maiores valores Vipq, e fixe-as em 1. • Se P ≤ n < Q, então escolha as n variáveis com maiores valores Vipq, e fixe-as em 1. • Se n < P, então escolha as P variáveis com maiores valores Vipq, e fixe-as em 1.

As demais variáveis são fixadas em 0. Note que o problema Lagrangiano (5)-(7) possui a propriedade de integralidade, uma vez que, dados {grs}, sua solução não se altera ao trocarmos a restrição de integralidade xipq∈ {0,1} por sua relaxação linear 0 ≤ xipq ≤ 1. Isto implica que o melhor limitante superior produzido pelo problema Lagrangiano (5)-(7) para o problema (1)-(4) não é melhor do que o limitante superior obtido pela relaxação de programação linear do problema (1)-(4).

Para resolver o problema dual Lagrangiano: min 0

rs

g{problema Lagrangiano (5)-(7)}, é

utilizado o método de otimização do subgradiente (Camerini et al. (1975), Crowder (1976), Beasley (1985, 1993) e Farago e Morabito (2000)).

3.2. Relaxação Surrogate

A relaxação Surrogate foi introduzida na programação matemática por Glover (1965, 1968).

Esta relaxação consiste, basicamente, em considerar um conjunto de restrições do problema original e, usando um vetor de multiplicadores, transformar estas restrições em apenas uma restrição e então, esta nova restrição é chamada de surrogate.

Desde a sua introdução, esta relaxação tem sido proposta por vários autores para uso na solução de problemas não convexos, principalmente problemas de programação inteira. Um tratamento teórico abrangente da dualidade surrogate em programação matemática é dado por Greenberg e Pierskalla (1970). Glover (1975) resumiu estes resultados e apresentou um tratamento unificado da teoria da dualidade surrogate. Um estudo da relação entre o dual Lagrangiano e o dual

Surrogate, para o caso de problemas inteiros, foi feito por Karvan e Rardin (1979). Procedimentos de

busca para multiplicadores surrogate foram desenvolvidos por Banerjee (1971), Glover (1965, 1968, 1975), Dyer (1980) e Sarin et al. (1987).

Assim, introduzindo os multiplicadores surrogate µrs≥0, 0µrs ≠ para todo r∈X e todo s∈Y, temos a seguinte relaxação Surrogate:

Max 2 { | } { | } 1 p X p L li q Y q W wi ipq i

x

∈ ≤ − ∈ ≤ − =

∑∑

(8) s. a. 2 { | } { | } 1 p X p L li q Y q W wi ipq ipq rs i r X s Y V x µ ∈ ≤ − ∈ ≤ − = ∈ ∈ ≤

∑∑

∑∑

(9) 2 { | } { | } 1 i i ipq p X p L l q Y q W w i

P

≤ − ≤ −

x

Q

=

∑∑

(10)

(5)

onde ipq rs ipqrs

r X s Y

V µ a

∈ ∈

=

∑∑

.

Com a aplicação da relaxação Surrogate, temos que o modelo (8)-(11) resulta em um problema 0-1 com coeficientes reais, sendo que este problema é fácil de se resolver (dados {µrs}). Seja n o número de variáveis xipq com valores Vipq estritamente positivos:

• Se n ≥ Q, então escolha as Q variáveis com menores valores Vipq, não ultrapassando o valor de

rs r X s Y

µ ∈ ∈

∑∑

, e fixe-as em 1.

• Se P ≤ n < Q, então escolha as n variáveis com menores valores Vipq, não ultrapassando o valor de

rs r X s Y

µ ∈ ∈

∑∑

, e fixe-as em 1.

• Se n < P, então escolha as P variáveis com menores valores Vipq, não ultrapassando o valor de

rs r X s Y

µ ∈ ∈

∑∑

, e fixe-as em 1.

As demais variáveis são todas fixadas em 0. O problema Surrogate (8)-(11) não possui a propriedade de integralidade, ao contrário do problema Lagrangiano (5)-(7), uma vez que, dados {µrs}, sua solução pode se alterar ao trocarmos a restrição de integralidade xipq∈{0,1} por sua relaxação linear 0 ≤ xipq ≤ 1. Isto implica que o melhor limitante superior produzido pelo problema Surrogate (8)-(11) para o problema (1)-(4) é melhor ou igual ao melhor limitante superior produzido pelo problema Lagrangiano (5)-(7).

O problema dual Surrogate é dado por min 0

rs

µ > {problema (8)-(11)}. Para resolver este

problema pode ser utilizado o método de otimização do subgradiente, porém, não há garantia teórica de convergência (Galvão et al., 2000). Métodos com garantia de convergência estão discutidos em Sarin et al. (1987).

3.3. Relaxação Lagrangiana Surrogate

A relaxação Lagrangiana Surrogate é uma combinação das relaxações Lagrangiana e

Surrogate com o objetivo de se conseguir melhores tempos computacionais na aplicação de

otimização do subgradiente. Para um dado problema, inicialmente é derivada uma relaxação Surrogate de um conjunto adequado de restrições. Uma relaxação Lagrangiana da restrição surrogate é então obtida. O uso da relaxação Lagrangiana Surrogate pode ser encontrado, por exemplo, em Lorena e Senne (1996), que resolveram um problema de localização não capacitado, e Narciso e Lorena (1999) que resolveram o problema de alocação generalizado.

Beasley (1985) sugeriu utilizar as duas restrições surrogate (12) e (13) apresentadas abaixo, obtidas pela soma de todos os comprimentos possíveis r∈X, e todas as larguras possíveis s∈Y, da restrição (2), ou seja, usando µ= , para todo r∈X e s∈Y: 1

(

2

)

1 { / i { / i ipqrs ipq i p X p L l q Y q W w r X a x X = ∈ ≤ − ∈ ≤ − ∈ ≤

∑ ∑ ∑

, para todo s∈Y (12)

(

2

)

1 { / i { / i ipqrs ipq i p X p L l q Y q W w s Y a x Y = ∈ ≤ − ∈ ≤ − ∈ ≤

∑ ∑ ∑

, para todo r∈X (13)

Substituindo no problema (1)-(4) a restrição (2) pelas restrições (12) e (13) e introduzindo os multiplicadores de Lagrange gs( 0)≥ para todo s∈Y em (15) e ( 0)hr ≥ para todo r∈X em (16), obtemos o seguinte programa Lagrangiano do limitante superior (com relaxação Surrogate). Note agora que temos apenas

|X|+|Y|

multiplicadores, ao invés de

|X||Y|

multiplicadores, como no problema (5)-(7).

Max 2 { | } { | } 1 | | | | i i ipq ipq s r p X p L l q Y q W w i s Y r X V x g X h Y ∈ ≤ − ∈ ≤ − = ∈ ∈ + +

∑∑

(14) s. a. 2 { | } { | } 1 p X p L li q Y q W wi ipq i P ≤ − ≤ − x Q = ≤

∑∑

≤ (15)

(6)

onde ipq 1 ( s r) ipqrs r X s Y V g h a ∈ ∈   = − +

∑ ∑

.

Sejam {Xipq} representando os valores das variáveis {xipq} na solução do programa Lagrangiano (14)-(16), com valor dado por:

2 1 { | }{ | } | | | | i i UB ipq ipq s r i p X p L l q Y q W w s Y r X Z V X g X h Y = ∈ ≤ − ∈ ≤ − ∈ ∈ =

∑ ∑

+

+

que corresponde a um limitante superior para o valor ótimo do problema original (1)-(4), para quaisquer {gs} e {hr} não negativos. Note, entretanto, que este limitante não é melhor do que o limitante produzido pelo programa (5)-(7), uma vez que deriva de um problema Lagrangiano construído a partir de restrições surrogate (com µ= ). Por outro lado, é mais fácil de ser computado, 1 dado que envolve um menor número de multiplicadores de Lagrange.

Assim como no problema (5)-(7), dados {gs} e {hr}, o problema (14)-(16) também pode ser facilmente resolvido por inspeção, uma vez que se decompõe em dois problemas independentes (um para cada tipo i=1,2 de orientação de caixa). O mesmo procedimento anteriormente descrito para resolver o programa (5)-(7) também pode ser aqui aplicado.

O problema dual Lagrangiano (com relaxação Surrogate) é dado por min 0, 0

s r

gh≥ {problema

Lagrangiano (14)-(16)}. Para resolver este problema podemos utilizar o método de otimização do subgradiente (Camerini et al. (1975), Crowder (1976), Beasley (1985, 1993), Farago e Morabito (2000)).

4. BUSCA EM ÁRVORE

O método de busca em árvore apresentado a seguir está descrito para o problema envolvendo apenas relaxação Lagrangiana. Para as outras relaxações o procedimento é análogo.

No final do procedimento de otimização do subgradiente, o menor limitante superior (Zmin) e o máximo limitante inferior (ZLB) correspondente a uma solução factível, podem não coincidir e, para resolver este problema, aplicamos o método branch and bound (Nemhauser e Wolsey, 1988). O problema é resolvido utilizando uma árvore binária com busca em profundidade e, em cada nó da árvore, é computado um limitante superior de relaxação Lagrangiana.

A seguir é apresentada a estrutura de cada nó da árvore e, em seguida, apresentamos o algoritmo do procedimento de busca em árvore.

Em cada nó da árvore é aplicado o procedimento de otimização do subgradiente e, se em qualquer iteração do procedimento, obtivermos Zmin= ZLB, então o problema é resolvido otimamente sendo ZLB o valor ótimo da solução (ZLB é o limitante inferior na solução do problema correspondente a uma solução factível). O conjunto inicial de multiplicadores de cada nó é o conjunto associado com o melhor limitante superior encontrado no nó predecessor da árvore.

Convém lembrar que, durante cada iteração do método de otimização do subgradiente, foi aplicada a heurística Lagrangiana (Farago e Morabito, 2000) para gerar soluções factíveis para o problema original (1)-(4), a partir da solução obtida para o problema Lagrangiano (modelo (5)-(7)). Também foi aplicada a técnica de redução do problema (Farago e Morabito, 2000) para tentar fixar, sem perda de generalidade, alguma variável em 0 ou 1, e, desta maneira, reduzir o tamanho do problema (1)-(4).

Os critérios para sondagem do método branch and bound são: otimilidade, infactibilidade e valor de dominância.

No caso de encontrarmos uma solução factível com Zmin>ZLB ou se a solução for infactível, devemos fazer a divisão (branch) do nó e teremos então dois novos subproblemas a serem resolvidos, ou seja, teremos um novo nó a esquerda e outro a direita. Neste caso, selecionamos uma variável e esta será fixada com valor igual a 1 no nó da esquerda e, conseqüentemente, igual a 0 no nó da direita. O nó da esquerda é considerado primeiro do que o da direita. Assim, ao fazermos a sondagem de um nó, sempre consideramos primeiro o nó da esquerda a ser explorado.

(7)

A seguir é apresentado resumidamente o algoritmo do procedimento de busca em árvore (Nemhauser e Wolsey, 1988). Consideremos:

L : lista de problemas inteiros ( )P que devem ser investigados ou nós abertos. i i

S : conjunto das soluções factíveis do problema P pertencente a L i LB

Z : limitante inferior para o valor objetivo de P (relaxação). UB

Z : limitante superior para o valor objetivo de P (solução factível). Z: valor da função objetivo do problema P.

Passo 1: Inicialização: forme uma lista L={P} (sendo P o problema (1)-(4)) com os problemas ainda

não resolvidos, S S= 0, 0

UB

Z = ∞ e ZLB = −∞ .

Passo 2: Teste de parada: se L=∅ então a solução x0 que assegura

LB

Z = é a solução ótima.Z

Passo 3: Seleção do problema e relaxação: selecione e elimine um problema Pi de L. Resolva a relaxação do problema selecionado (RPi). Seja i

R

Z o valor ótimo da relaxação e seja i R x a

solução ótima se existir.

Passo 4: Sondagem: a) se i R LB ZZ , vá para o passo 2; b) se i i R x ∉ , vá para o passo 5; S c) se i i R

x ∈ e S Z>ZLB, faça ZLB = . Elimine de L todos os problemas com Z i UB LB ZZ .

Se i

R

Z=Z , vá para o passo 2, caso contrário vá para o passo 5.

Passo 5: Divisão (branch): Seja { }Sij , j=1,2 a divisão de Si. Assim teremos dois novos subproblemas e devemos selecionar uma variável e esta será fixada com valor igual a 1 no nó da esquerda e, conseqüentemente, igual a 0 no nó da direta. Esses novos subproblemas (P , j=1,2 são incluídos na ij) lista L onde ij i

UB R

Z =Z . Em seguida, vá para o passo 2.

5. RESULTADOS COMPUTACIONAIS E CONCLUSÕES

Nesta seção apresentamos alguns resultados computacionais do método exato utilizando apenas relaxação Lagrangiana. Os resultados com relaxação Surrogate e Lagrangiana Surrogate estão ainda em fase de compilação. As implementações foram codificadas em linguagem Pascal (compilador Delphi 5) e os testes foram realizados em um microcomputador Pentium III 650 MHz

No primeiro grupo de exemplos (Grupo 1), selecionamos 10 exemplos, como mostrado na Tabela 1. Tais exemplos (L1-L10) foram encontrados em Letchford e Amaral (2001) e foram escolhidos por serem considerados desfavoráveis para o presente método, uma vez que todos têm valor da solução relaxada de (1)-(4) (Zmin) diferente do valor da solução ótima (veja Tabela 4). De acordo com Letchford e Amaral (2001) e Morabito e Farago (2002), estes limitantes são bem apertados e quase sempre coincidem com o valor da solução ótima. No Grupo 2 (Tabela 2) consideramos 10 exemplos (L11-L20) que foram retirados de Farago e Morabito (2000). Estes exemplos têm sido utilizados em diversos artigos como Dowsland (1993), Nelissen (1994), Scheithauer e Terno (1996) e Morabito e Morales (1998). São exemplos clássicos da literatura, pertencentes ao conjunto Cover I (a menos do exemplo L13), os quais são resolvidos por alguns métodos heurísticos. Todos esses exemplos (exceto L13) têm solução ótima não-guilhotinada de 1a

ordem (Morabito e Morales, 1998). Consideramos ainda um terceiro grupo (Grupo 3) com 15 exemplos da literatura (Tabela 3). Incluímos estes exemplos, pois são considerados difíceis e aplicamos os testes computacionais com o objetivo de verificar o comportamento de tais exemplos em relação ao método exato. Estes exemplos são pertencentes ao conjunto Cover II e são considerados difíceis de se resolver com a maioria das heurísticas encontradas na literatura, pois todos os exemplos não têm solução ótima não-guilhotinada de 1a ordem (Morabito e Morales, 1998; Lins et al., 2003).

As Tabelas 1, 2 e 3 apresentam os exemplos da literatura para o Grupo 1, Grupo 2 e Grupo 3, respectivamente. A coluna ‘2|X||Y|’ das Tabelas 1, 2 e 3 representam o número (aproximado) de variáveis 0-1 envolvidas no modelo (5)-(7).

(8)

Tabela 1. Grupo 1 de exemplos para teste. GRUPO 1

Exemplo Dimensões do palete (cm) Dimensões da caixa (cm) |X| |Y| 2(|X||Y|)

L1 (32,22) (5,4) 23 13 598 L2 (32,27) (5,4) 23 18 828 L3 (40,26) (7,4) 28 14 784 L4 (40,33) (7,4) 28 21 1176 L5 (53,26) (7,4) 41 14 1148 L6 (37,30) (8,3) 28 21 1176 L7 (81,39) (9,7) 51 13 1326 L8 (100,64) (17,10) 32 14 896 L9 (100,82) (22,8) 32 23 1472 L10 (100,83) (22,8) 32 23 1472

Tabela 2. Grupo 2 de exemplos para teste. GRUPO 2

Exemplo Dimensões do

palete (cm)

Dimensões da

caixa (cm) |X| |Y| 2(|X||Y|)

L11 (22,16) (5,3) 16 10 320 L12 (86,82) (15,11) 24 22 1056 L13 (43,26) (7,3) 35 18 1260 L14 (87,47) (7,6) 67 27 3618 L15 (42,39) (9,4) 27 24 1296 L16 (124,81) (21,10) 41 18 1476 L17 (40,25) (7,3) 32 17 1088 L18 (52,33) (9,4) 37 18 1332 L19 (57,44) (12,5) 31 19 1178 L20 (56,52) (12,5) 30 26 1560

Tabela 3. Grupo 3 de exemplos para teste. GRUPO 3

Exemplo Dimensões do palete (cm) Dimensões da caixa (cm) |X| |Y| 2(|X||Y|)

L21 (49,28) (8,3) 40 19 1520 L22 (57,34) (7,4) 45 22 1980 L23 (63,44) (8,5) 45 26 2340 L24 (61,35) (10,3) 50 24 2400 L25 (67,37) (11,3) 55 25 2750 L26 (61,38) (10,3) 50 27 2700 L27 (61,38) (6,5) 47 24 2256 L28 (67,40) (11,3) 55 28 3080 L29 (74,49) (11,4) 56 31 3472 L30 (93,46) (13,4) 72 25 3600 L31 (106,59) (13,5) 78 31 4836 L32 (141,71) (13,8) 92 26 4784 L33 (74,46) (7,5) 58 30 3480 L34 (86,52) (9,5) 66 32 4224 L35 (108,65) (10,7) 75 32 4800

O procedimento de otimização do subgradiente foi iniciado sempre com o parâmetro f=2 (parâmetro utilizado no cálculo do tamanho do passo para a atualização dos multiplicadores de Lagrange). Se a solução ótima é encontrada ou se f <0.005, o procedimento é terminado. Quatro

(9)

variações foram exploradas para reduzir o valor de f ao longo das iterações: i) partindo de f = e 2 dividindo-o sucessivamente a cada |X||Y| iterações se Zmin não diminuir nas últimas |X||Y| iterações até Zmin < , então dividir f a cada 30 iterações se ZQ min não diminuir nas últimas 30 iterações; ii) divisão de f a cada 30 iterações; iii) divisão de f a cada 10 iterações; iv) divisão de f a cada 5 iterações. O que apresentou melhor resultado quanto ao tempo computacional foi considerar a divisão de f a cada 10 iterações. Assim, por motivo de economia de espaço, apresentamos os resultados considerando apenas a divisão de f a cada 10 iterações nas tabelas a seguir.

Nas Tabelas 4, 5, e 6 são apresentados os resultados dos testes computacionais dos exemplos dos Grupos 1, 2 e 3 com o limitante superior (Zmin) e o limitante inferior (ZLB) no nó inicial da árvore. Também são apresentados o valor da solução ótima e o número de nós envolvidos na árvore de busca e, em seguida, o tempo total (em minutos) gasto para se executar cada exemplo. No Grupo 1 (Tabela 4), note que para todos os exemplos, o limitante superior (Zmin) no nó inicial da árvore não alcança o valor da solução ótima, como já se sabia (Letchford e Amaral, 2001), mas fica sempre a uma caixa do ótimo.

Tabela 4. Resultados computacionais dos exemplos do Grupo 1.

Nó inicial da árvore Busca em árvore

Exemplo

Zmin ZLB Z* N° de nós Tempo (min)

L1 35 32 34 53 0,91 L2 43 40 42 103 2,91 L3 37 30 36 73 1,43 L4 47 40 46 177 6,74 L5 49 42 48 253 10,02 L6 46 40 45 297 10,02 L7 50 45 49 319 17,18 L8 37 30 36 83 2,01 L9 46 40 45 367 17,43 L10 46 40 45 367 17,45 Média 209,20 8,61

Tabela 5. Resultados computacionais dos exemplos do Grupo 2.

Nó inicial da árvore Busca em árvore

Exemplo

Zmin ZLB Z* N° de nós Tempo (min)

L11 23 21 23 07 0,04 L12 42 35 42 39 1,71 L13 53 48 53 131 5,48 L14 97 84 97 533 2,53 L15 45 40 45 77 2,95 L16 47 40 47 99 9,14 L17 47 40 47 97 2,92 L18 47 40 47 107 4,19 L19 41 33 41 67 1,62 L20 48 44 48 97 5,75 Média 125,40 3,63

Pelas Tabelas 4 e 5 podemos dizer que o método exato foi capaz de resolver os exemplos em um tempo computacional aceitável. Em relação ao número de nós envolvidos na árvore de busca, observamos com as diferentes explorações do parâmetro f, que quanto menor o número de iterações no procedimento do subgradiente, maior o número de nós envolvidos na árvore de busca, ou seja, um

trade-off entre os tempos computacionais envolvidos na otimização do subgradiente e na busca em

árvore. Observa-se ainda que os resultados apresentados na Tabela 4 diferem dos apresentados em Oliveira e Morabito (2002), pois foi encontrado um erro no código anterior do programa.

(10)

Tabela 6. Resultados computacionais dos exemplos do Grupo 3.

Nó inicial da árvore Busca em árvore

Exemplo

Zmin ZLB Z* Solução obtida N° de nós

Tempo (min) L21 57 54 57 57 97 4,62 L22 69 64 69 69 631 53,51 L23 69 60 69 68 1441 180,00 L24 71 66 71 71 229 20,46 L25 75 72 75 75 145 15,81 L26 77 72 77 77 897 104,62 L27 77 72 77 77 283 26,91 L28 81 78 81 81 301 44,04 L29 82 72 82 82 521 98,19 L30 82 77 82 82 617 119,98 L31 96 88 96 95 581 180,00 L32 96 85 96 95 383 180,00 L33 97 90 97 94 273 180,00 L34 99 90 99 98 509 180,00 L35 100 90 100 98 175 180,00 Média 81,87 81,27 472,20 104,54

Na Tabela 6 observe que, para os exemplos L23, L31 a L35, não foi possível encontrar a solução ótima em um tempo computacional de 3 horas. Assim, estão reportadas na tabela as soluções obtidas e o número de nós utilizado na árvore de busca para os respectivos exemplos no tempo máximo permitido. Lins et al. (2003) realizaram testes computacionais com este grupo de exemplos e propuseram um procedimento recursivo que resolve a maioria dos exemplos em menos de 1 hora de tempo computacional. Em outros exemplos, como os L31, L32 e L35, o tempo computacional foi bem maior.

Uma perspectiva importante para o presente trabalho é como melhorar o método exato para reduzir seus tempos computacionais. Nos próximos passos, deve-se investir na heurística Lagrangiana utilizada no procedimento de otimização do subgradiente. Isto porque a heurística Lagrangiana é de grande importância na busca de soluções melhores e um refinamento da mesma pode possibilitar reduções importantes nos tempos computacionais. Também, pretende-se propor modificações no procedimento branch and bound, por exemplo, na estratégia de escolha da variável a ser fixada na divisão dos nós, com o objetivo de melhorar seu desempenho computacional. Além disso, como dito anteriormente, os resultados com relaxação Surrogate e Lagrangiana Surrogate estão ainda em fase de compilação e, assim, deverão ser testados e comparados com a presente relaxação nos exemplos da literatura e exemplos reais.

REFERÊNCIAS

Arenales, M. e Morabito, R. (1995), An And/Or-Graph Approach to the Solution of Two-Dimensional Non-Guillotine Cutting Problems, European Journal of Operational Research 84, pp.599-617. Beasley, J. (1985), An Exact Two-Dimensional Non Guillotine Cutting Tree Search Procedure,

Operations Research 33, pp.49-64.

Beasley, J. E. (1993), Lagrangean Relaxation. In: Modern Heuristic Techniques for Combinatorial

Problem, Edited by Reeves, C. R. Blackwell Scientific Publications, Oxford, Great Britain.

Banerjee, K. (1971), Generalized Lagrange Multipliers in Dynamic Programming, Research Report No. OCR 71-12, Operations Research Center, University of California, Berkeley, California. Bhattacharya, S.; Roy, R. e Bhattacharya, S. (1998), An Exact Depth-First Algorithm for the Pallet

Loading Problem, European Journal of Operational Research 110, pp. 610-625.

Bischoff, E. e Dowsland, W. (1982), An Application of the Micro to Product Design and Distribution,

(11)

Camerini, P. M.; Fratta, L. e Maffioli, F. (1975), On Improving Relaxation Methods by Gradient Techniques, Mathematical Programming Study 3, pp. 26-34.

Hadjiconstantinou, E. e Christofides, N. (1995), An Exact Algorithm for General, Orthogonal, Two-Dimensional Knapsach Problems, European Journal of Operational Research 83, pp. 39-56. Crowder, H. (1976), Computational Improvements for Subgradient Optimization, Symposio

Matematica, Rome, vol. 17, pp. 357-372.

Dowsland, K. (1987), An Exact Algorithm for the Pallet Loading Problem, European Journal of

Operational Research 31, pp. 78-84.

Dowsland, K. (1993), Some Experiments With Simulated Annealing Techniques for Packing Problems, European Journal of Operational Research, v. 68, p. 389-399.

Dyckhoff, H. (1990), A Typology of Cutting and Packing Problems, European Journal of Operational

Research 44, pp. 145-159.

Dyer, M. E. (1980), Calculating Surrogate Constraints, Mathematical Programming, v. 19, p. 255-278.

Farago, R. e Morabito, R. (2000), Um Método Heurístico Baseado em Relaxação Lagrangiana para o Problema do Carregamento de Paletes do Produtor, Pesquisa Operacional 20(2), pp. 197-212. G, Y. e Kang, M. (2001), A Fast Algorithm for Two-Dimensional Pallet Loading Problems of Large

Size, European Journal of Operational Research, v. 134, p. 193-200.

Galvão, R. D.; Espejo, L. G. A. e Boffey, B. (2000), A Comparison of Lagrangean and Surrogate Relaxations for the Maximal Covering Location Problem, European Journal of Operational

Research, v. 124, p. 377-389.

Glover, F. (1965), A Multiphase Dual Algorithm for the Zero-One Integer Programming Problem,

Operations Research, v. 13, p. 879-919.

Glover, F. (1968), Surrogate Constraints, Operations Research, v. 16, n. 4, p. 741-749.

Glover, F. (1975), Surrogate Constraints Duality in Mathematical Programming, Operations Research, v. 23, p. 434-451.

Greenberg, H. J. e Pierskalla, W. P. (1970), Surrogate Mathematical Programming, Operations

Research, v. 18, p. 924-939.

Herbert, A. e Dowsland, K. (1996), A Family of Genetic Algorithms for the Pallet Loading Problem,

Annals of Operations Research, v. 63, p. 415-436.

Karvan, M. H. e Rardin, R. L. (1979), Some Relationship between Lagrangian and Surrogate Duality in Integer Programming, Mathematical Programming, v. 17, p. 320-334.

Letchford, A. N. e Amaral, A. (2001), Analysis of Upper Bounds for the Pallet Loading Problem,

European Journal Of Operational Research 3 (132), pp. 582-593.

Lins, L.; Lins, S. e Morabito, R. (2003), An L-approach for packing (l,w)-rectangles into rectangular and L-shaped pieces, a aparecer no Journal of the Operational Research Society.

Lorena, L. A N. e Senne, E. L. F. (1996), A Lagrangean/Surrogate Heuristic for Uncapacitaded Facility Location Problems. In: Anais dos Resumos Estendidos VIII CLAIO e VXVIII SBPO, Rio de Janeiro, p. 854-859.

Martins, G. H. A. (2002), Packing in Two and Three Dimensions, Tese de Doutorado, Naval Postgraduate School, Monterey, California.

Morabito, R. e Farago, R. (2002), A Tight Lagrangean Relaxation Bound for the Manufacturer's Pallet Loading Problem, Studia Informatica Universalis, v. 2, n. 1, p. 57-76.

Morabito, R. e Morales, S.R. (1998), A Simple and Effective Recursive Procedure for the Manufacturer’s Pallet Loading Problem, Journal of the Operational Research Society 49, pp.819-828.

Morabito, R. e Morales, S.R. (1999), Errata: A Simple and Effective Recursive Procedure for the Manufacturer's Pallet Loading Problem, Journal of the Operational Research Society v. 50, 876, 1999.

Morabito, R., Morales, S.R. e Widmer, J.A. (2000), Loading Optimization of Palletized Products on Trucks, Transportation Research 36, pp. 285-296.

Narciso, M. G. e Lorena, L. A. N. (1999), Lagrangean/Surrogate Relaxation for Generalized Assignment Problems, European Journal of Operational Research, v. 114, n. 1, p. 165-177.

(12)

Nelissen, J. (1994), Solving the Pallet Loading Problem More Efficiently, Working Paper, Graduiertenkolleg Informatik und Technik, Aachen.

Nelissen, J. (1995), How to Use Constraints to Compute an Upper Bound for the Pallet Loading Problem, European Journal of Operational Research 84, pp. 662-680.

Nemhauser, G. L. e Wolsey, L. A. (1988), Integer and Combinatorial Optimization, Wiley-Interscience

Publication.

Oliveira, L. K. Morabito, R. (2002), Um Método Exato Baseado em Relaxação Lagrangiana para o Problema de Carregamento de Paletes do Produtor, Anais em CD-ROM: XXXIV Simpósio

Brasileiro de Pesquisa Operacional, Rio de Janeiro, RJ, outubro de 2002.

Sarin, S.; Karvan, M. H. e Rardin, R. L. (1987), A New Surrogate Dual Multiplier Search Procedure,

Naval Research Procedure, v. 34, p. 431-450.

Scheithauer, G. e Terno, J. (1996), The G4-Heuristic for the Pallet Loading Problem, Journal of the

Operational Research Society 47, pp. 511-522.

Scheithauer, G. e Sommerweiss, G. (1988), 4-block Heuristic for the Rectangle Packing Problem.

European Journal of Operational Research, v. 108, n. 3, p. 509-526.

Smith, A. e De Cani, P. (1980), An Algorithm to Optimize the Layout of Boxes in Pallets, Journal of

the Operational Research Society 31, pp. 573-578.

Steudel, H. (1979), Generating Pallet Loading Patterns: a Special Case of the Two-Dimensional Cutting Stock Problem, Management Science 10, pp. 997-1004.

Tsai, R. D.; Malstrom, E. M. e Kuo, W. (1993), Three Dimensional Palletization of Mixed Box Sizes,

Referências

Documentos relacionados

Both the distribution of toxin concentrations and toxin quota were defined by epilimnetic temperature (T_Epi), surface temperature (T_Surf), buoyancy frequency (BuoyFreq) and

The strict partition problem is relaxed into a bi-objective set covering problem with k-cliques which allows over-covered and uncovered nodes.. The information extracted

Desde logo, a nossa compreensão e interpretação da importância funcional e ritual das lamentações públicas das carpideiras e dos carpideiros egípcios é sublinhada pelo

Dessa maneira, os resultados desta tese são uma síntese que propõe o uso de índices não convencionais de conforto térmico, utilizando o Índice de Temperatura de Globo Negro e

Atualmente os currículos em ensino de ciências sinalizam que os conteúdos difundidos em sala de aula devem proporcionar ao educando o desenvolvimento de competências e habilidades

Ainda com relação ao futuro de pesquisas na área do Apoio Multicritério à de Decisão, o método TODIM se apresenta como um método multicritério para o qual se pode esperar uma

Os candidatos reclassificados deverão cumprir os mesmos procedimentos estabelecidos nos subitens 5.1.1, 5.1.1.1, e 5.1.2 deste Edital, no período de 15 e 16 de junho de 2021,

Tendo em conta que os valores do teor de água que são encontrados no bacalhau que é comercializado se encontra num intervalo entre 40% e 58%, recorrendo aos ensaios anteriores e