• Nenhum resultado encontrado

Uma abordagem neurocomputacional na otimização de um sistema linear com restrições

N/A
N/A
Protected

Academic year: 2021

Share "Uma abordagem neurocomputacional na otimização de um sistema linear com restrições"

Copied!
10
0
0

Texto

(1)

Uma abordagem neurocomputacional na otimização de um sistema linear com restrições

 .  *

Resumo Nesta pesquisa discutimos o problema de alocação de recursos selecionando elementos reais com a presença de dados aleatórios. Formalizamos o problema num modelo de rede neural como um problema inverso utilizando uma estrutura analítica funcional e usamos o método da função de penalidade como nosso método de otimização. Uma arquitetura de rede neural e o algoritmo associado, na forma de equações diferenciais ordinárias não lineares, foram desenvolvidos. Baseados na estrutura acima, observamos que a seleção dos elementos no treinamento conduz a dois objetivos, a seguir: primeiro, melhorar a capacidade de generalização e, segundo, reduzir a variância dos erros com vistas a obter os melhores resultados no ajuste dos valores. O resultado final utiliza a informação correlacionada a priori em características aleatórias, e a função original agrupa um eficiente esquema que pode ser utilizado em conjunto com os esquemas de aprendizagem incremental para posteriores trabalhos com a finalidade de obter ótimas generalizações.

Palavras-chave redes neurais, pesquisa operacional, método da função penalidade.

Title A Neoro-Computing Approach in the Optimization of a Linear System with Restrictions Abstract In this research we discuss the problem resources locating with the selection of actual elements in the presence of random data. We presented the problem in a pattern of neur al net with an inverted problem, through the use of functional analytical structure, and we used the penalty function method as our optimization method. A neural net architecture and the algorithm associated to it, as non-linear differential ordinary equations, have been developed. Based on this structure, we realized that the selection of elements during training leads to two goals: first, the improvement of generalization capacity; and secondly the reducing of error variation when trying to get the best results in the adjustment of value. The final result uses the a priori co-related information in random characteristics, and the original function includes an efficient draft that might.

Keywords neural nets, operational research, penalty function method.

Data de recebimento: 02/09/2002.

Data de aceitação: 06/05/2005.

* Professor doutor da Faculdade de Engenharia e Arquitetura da UPF, CP 611, Campus Universitár io, CEP 99010-250, P asso Fundo - RS.

E-mail: vergara@up f.tche.br.

Muitos problemas de otimização combinatória requerem explorar o estado de espaço para conduzir os cálculos a um sistema com N graus de liberdade. As ferramentas tradicionais incluem uma longa coleção de técnicas matemáticas (pré- processamento, determinação dos valores das variáveis e processo de solução parcial ou global) com a finalidade de encontrar soluções razoáveis para problemas de otimização. Em muitos casos é difícil dizer que espécie de ferramenta ajusta-se

melhor a um determinado tipo de problema. Os métodos de redes neurais artificiais tornam possível a combinação desses passos, porque são aptos a otimizar valores automaticamente. Eles são utilizados na prática, porque são modelos com processamento numérico não paramétrico arranjados em diferentes camadas.

Um problema geral de otimização, com res- trições, é declarado como (por exemplo, o pro- blema de minimização com restrições): encontrar um estado x* ε ℜn tal que,

Minimizar sujeito a:

f x

r i m

h x j m

a i x b i i n.

i j i

i

( )

, , , ... , . ( ) , , , ... , .

( ) ( ),

=

= =

≤ ≤

0 1 2

1 1 2

1

(2)

em que x = (x1, x2, ... xn) ε ℜn e f(x) é a função objetivo. As funções ri(x) e hi(x) são as restrições de desigualdade e igualdade, respectivamente. Os valores a(i) e b(i) formam o espaço de pesquisa para cima e para baixo de xi.

Esta pesquisa propõe um modelo de rede neural para minimizar custos de adequação de recursos que compõem um sistema de distribui- ção, para uma demanda projetada ao longo do horizonte de planejamento. Geralmente, essas abordagens consistem em três passos. Primeiro, as restrições de um problema de otimização são convertidas em outro problema equivalente de otimização sem restrições, isto é, as restrições zero- um são substituídas por restrições de igualdade quadráticas côncavas com o objetivo de forçar as variáveis de decisão a ser zero ou um. Segundo, a partir do problema de otimização sem restrições, um conjunto de equações diferenciais é derivado.

Terceiro, segundo o sistema dinâmico é imple- mentada uma camada neural iterativa (CICHOCKI

& UNBEHAUEN, 1993).

O modelo neural proposto visa a determi- nação de uma política ótima de adequação dos recursos, considerando o estado atual de carrega- mento e a demanda prevista para o sistema no horizonte de planejamento adotado, utilizando as variáveis contidas no escopo do problema com o deslocamento mínimo possível para viabilizar a solução proposta, de forma que se minimize o custo total, calculado sobre todas as rotas. Isto é, o modelo visa a determinar um conjunto de pe- sos para as ligações da rede neural de forma que os valores que estão agrupados na solução pos- sam convergir para um valor estável.

.   

  

Existem m centros de serviços e n consumidores.

Cada consumidor tem rj quantidades do reque- rimento de serviço, j = 1, 2, ..., n, e este somente pode ser satisfeito por um centro de serviço. Cada centro de serviço tem bi quantidades de capaci- dade de serviço, -i = 1, 2, ..., m, e estas quantidades não podem ser excedidas. Existe um custo cij entre cada centro de serviço e cada consumidor.

Se o consumidor j é atendido por um centro de serviço i, i = 1, 2, ...., m; j = 1, 2, ..., n. A questão é a seguinte: quantos consumidores devem ser alocados aos centros de serviços de forma que o custo total seja mínimo.

Esse problema pode ser formulado como um problema de programação inteira zero-um.

[1]

Sujeito às seguintes restrições:

[2]

[3]

[4]

em que

xij é variável de decisão zero-um, que as- sume o valor de 1 se o consumidor j é ser- vido pelo i-ésimo centro de serviço e zero em outro caso, i = 1, 2, ...., m; j = 1, 2, ..., n.

• Cada consumidor somente pode ser servi- do por um centro de serviço (restrição 2).

• O total de carga de cada centro de serviço não deve exceder sua capacidade (restri- ção 3).

Na prática, é difícil encontrar uma função pe- nalidade que seja efetiva e eficiente para substi- tuir as restrições que faltam. Na pesquisa de uma solução, o esforço requerido da função de penali- dade para um problema dado pode obviar no processamento de dados um ganho em uma even- tual solução de qualidade, como foi observado por Siedlecki e Sklansky (1989). Muitas dificulda- des aparecem porque a solução ótima freqüen- temente encontra-se na fronteira da região factível.

Min c xij ij

j n

i m

=

=

1 1

xij j n.

i m

= =

= 1 1 2 1

, , , ...

r xj ij b ii m

j m

≤ =

= , 1 2, , ... . 1

xij=0 ou 1, i− =1, 2, ..., m; j=1, 2,... n.

(3)

Muitas soluções similares do genótipo da solução ótima não são confiáveis. Portanto, essa restrição às soluções prováveis torna difícil encontrar um esquema que leve dos resultados parciais a um ponto ótimo.

A implementação de modelos de redes neurais pode ajudar a resolver problemas de otimização em um curto período de tempo. Essa abordagem neurocomputacional pode ser considerada como uma metodologia inspirada que pode ser utili- zada para resolver grandes problemas práticos (HOLZBAUR, 1998; ZAK et al., 1995). Na seção seguin- te discutimos a possibilidade de usar essa abor- dagem neural para esses tipos de problemas.

.    



As Redes Neurais Artificiais (RNAs) são compos- tas de elementos que realizam muitas funções análogas às funções elementares do neurônio bio- lógico (Figura 1).

As redes neurais podem modificar seu com- portamento em resposta a seu ambiente. Este fato, mais que qualquer outro, é responsável pelo in- teresse que vem recebendo. Diz-se então que ela pode aprender (learn). Existe uma grande varie- dade de algoritmos de treinamento (aprendi- zado), todos com seus pontos fortes e fracos (FREEMAN & SKAPURA, 1991; JAIN et al., 1996).

Uma vez treinada a rede neural, uma resposta pode ser insensível a pequenas variações em sua entrada. Essa habilidade é essencial para o reco- nhecimento de padrões no mundo real, por cau- sa da freqüente ocorrência de ruídos ou distorções nos padrões. É importante notar que os resultados das RNAs são obtidos a partir de sua estrutura, e não pelo uso de inteligência hu- mana embutida em alguma forma de programa de computador.

As redes neurais utilizam algoritmos de apren- dizagem para minimizar o erro quadrático mé- dio entre os valores atuais e os desejados da rede.

A otimização é alcançada utilizando a técnica do gradiente descendente. Esses modelos nem sempre encontram o mínimo global, mas podem parar quando encontram um mínimo local.

A abordagem de modelos de redes neurais arti- ficiais pode ser utilizada na categoria de resolução de problemas de distribuição de recursos cujo objetivo é minimizar o custo total de transporte.

As redes neurais artificiais são uma extensão não- linear de métodos convencionais lineares de inter- polação/extrapolação. Em contraste, ela não explora parcial ou totalmente as diferentes confi- gurações de uma solução como outros métodos de pesquisa ou algoritmos. Esse fato pode ser observado na interpretação estatística dos resul- tados. O elemento-chave nesta abordagem é a Aproximação Média do Campo em estudo (AMC),

Figura 1. Um neurônio e um modelo de rede neural.

(4)

que pode ser observado como a variação de um esquema. Os três passos básicos envolvidos

Codificação do problema Linearização dinâmica da AMC

Solução das equações AMC

utilizam funções de captura instantânea como exemplos. O último passo requer um tratamento adicional, porque contém restrições com desi- gualdades.

No caso desta pesquisa, atribuição de recursos, o modelo de rede neural é representado em uma matriz de n centros por m consumidores. Os con- sumidores estão ligados a cada centro desde que não exista interferência. As restrições de interfe- rência são representadas em uma matriz C, na qual os elementos cij representam o custo que existe no deslocamento de centro i a um consumidor j.

Na estrutura da rede neural, os elementos es- tão unidos por meio de uma malha completa de ligações com pesos que condicionam a rede. Esse tipo de rede é conhecido como a rede Hopfield (MAA & SHANBLATT, 1992).

Para eliminar as restrições do problema de programação inteira em outro problema equi- valente de programação não-linear, devemos substituir as restrições zero-um por restrições de igualdade quadráticas côncavas não lineares. As- sim, o problema é representado da seguinte forma:

[5]

Sujeito às seguintes restrições:

[6]

[7]

[8]

O modelo descrito (5-8) é equivalente ao pro- blema original [1-4] de programação inteira zero-um.

Utilizando o método da função penalidade, as restrições do problema podem ser simplesmente convertidas em outro utilizando a seguinte formu- lação (CICHOCKI & UNBEHAUE, 1993):

[9]

[10]

em que o fator K ε ℜ é o parâmetro de penalida- de. O objetivo geral da função é aproximar um problema de otimização com restrições em outro problema de otimização sem restrições. A apro- ximação é obtida adicionando à função objetivo uma parcela que estabelece uma penalidade pela violação das restrições (LOOI, 1992). Essa parcela está associada ao parâmetro K, que determina a severidade dele para aproximar o problema irrestrito ao problema original (restrito). Por outro lado, com essa transformação, F(x) serve como uma função de ajuste no método de redes neurais. Em muitos casos, de qualquer forma, a seleção do valor de penalidade é uma variável dependente, mas não é uma regra geral na sele- ção do parâmetro na função de penalidade. Uma forma comum na determinação do valor de pena- lidade é o uso do processo de “tentativa e erro”.

Ele deve ser aplicado até que o melhor valor seja encontrado.

A vantagem de utilizar algoritmos para oti- mizar modelos baseados em redes neurais é que esse método fornece uma informação útil acerca da função objetivo f(xi) e das funções com restri- ção G(x). Conseqüentemente, podemos obter vantagem quando determinamos um valor de pe- nalidade tal, que, se os valores f(xi) e G(x) são grandes, então, K é pequeno. Obviamente, para

Min c xij ij

j n

i m

=

=

1 1

xij j n.

i m

= =

= 1 1 2 1

, , , ...

r xj ij b ii m

j m

≤ =

= , 1 2, , ... . 1

xij=(1- x ) = 0, iij =1, 2, ..., m; j=1, 2, ... n.

F x f x x x

f x x

( ) ( ), se g ( ) , h ( ) = 1 ( ) + KG( )

j i

=

G x g xj h xi

i k

j m

( )= ( )+ ( )

=

=

1 1

(5)

uma escala de valores pequenos de K, o valor de F(x) resulta em uma superfície do espaço de pesquisa que escapa da melhor solução. De qual- quer forma, se ambos os valores são pequenos, então, para um valor de K grande, também aju- daria a afastar-se do ponto ótimo global dentro do espaço de pesquisa possível.

Utilizamos a expressão quadrática da função de penalidade com o objetivo de obter a função de energia do modelo; assim, temos,

[11]

em que o parâmetro de desequilíbrio K é o fator de penalidade e min2{} é o quadrado de min{}.

O passo seguinte consiste em encontrar um procedimento eficiente que minimize a expressão (11), de forma que um ponto mínimo local (ou global) seja obtido. O passo anterior pode ser realizado pela regra de atualização discreta utili- zando modelos de redes neurais. Essa abordagem é transparente devido a sua natureza binária. O problema pode ser mapeado por um sistema de equações diferenciais ordinárias não lineares (CICHOKI & UNBEHAUE, 1993; FORTI & TESI, 1995;

HOPFIELD & TANK, 1985), em que os valores solu- ções são aproximados por um procedimento estocástico com soluções iterativas. A forma pela qual o critério de otimização é transferido inter- fere pouco na qualidade dos resultados obtidos pelo sistema de equações.

Nesse sentido, o modelo de rede neural pode ser obtido pela derivação da função objetivo do sistema dinâmico com o objetivo de minimizar a função de energia E(x, K) de penalidade.

em que

É a taxa de aprendizado.

É a função de ativação dos neurônios de saída. [13]

Função de ativação dos neurônios de entrada.

[14]

A rede consiste em duas camadas processando unidades. A primeira camada calcula os residuais ri(x) e os erros ψ (ri(x)), enquanto as variáveis de interesse xj são calculadas na segunda camada, que combina e integra os erros de ψ (ri) no tempo de processamento.

Assim, a função obtida está composta de um conjunto de equações diferenciais com a seguinte estrutura:

[15]

em que µ é o parâmetro da taxa de aprendizado e p = 1, 2, ..., m e - q = 1, 2, ..., n. Em cada nó, um neurônio binário é atribuído. O primeiro termo da esquerda da expressão (15) minimiza as cone- xões entre os nós, enquanto os outros termos penalizam as configurações não balanceadas.

A estrutura da rede neural pode ser observada na Figura 2. Essa espécie de rede neural é deno- minada penalidade RN. O termo penalidade alcan- ça seu valor mais alto quando é maior ou igual que K/32, e, neste caso, a trajetória do sistema dinâmico move-se de um ponto de uma solução possível para outro.

[16]

E x K c x K

ij ij xij

i m

j n

j n

i m

( , )= +

=

=

=

=

∑ ∑ ∑

2 1

1 1 1

1

2

+





+

( )

= = = =

∑ ∑ ∑ ∑

K b r x K

x x

i m

i j ij

j n

ij j

n

i m

2 0 ij

2 1

2

1 1

2 1 1

min , 2

d dtx

x E x x K a r

j j

j

j j ij i

i m

=

= − +

=

=

µ ( ) µ ϕ ( ) ψ( ) ,

1

j 1, 2, ..., n [12]

µj>0

ϕj j j

x x f x

( )= ∂ ( )

ψi i

r P ri

( ) '( )

=

se r 0 0 para outro valor

i

d

dtxpq cpq K xiq Krq bp r xj pj

j n

i m

= − + + −





=

=

µ( ( 1) min 0,

1 1

+Kxpq(1xpq)(1 2 xpq))

K xij x

j n

i m

2 2 1 ij

1 1

2

=

=

( )

(6)

O modelo é implementado de forma que, quando as entradas do neurônio são utilizadas, as saídas permanecem estáveis, e vice-versa, ga- rantindo assim que a rede comporte-se como uma rede paralela. O sistema de equações lineares pro- posto interage numericamente até ser atingida a condição de finalização que garante um custo de transporte mínimo e na qual não existe violação de restrições.

.    

Esse método, inicialmente, é utilizado para estimar uma solução considerada como ótima. A meto- dologia desenvolve um algoritmo na pesquisa de uma solução em estados definidos em espaços (ár- vores). O objetivo é minimizar uma função f(x) em que x é uma restrição de uma região confiável definida por restrições explícitas matemáticas.

A idéia da metodologia é dividir o espaço de soluções de tal forma, que exista uma chance de rejeitar um conjunto de soluções não-ótimas sem serem avaliadas. Suponha que desejemos resol- ver o seguinte problema:

Minimize f(x), sujeito a x ε X,

em que x é um conjunto finito de soluções possí- veis. O problema original é dividido em um ou mais subproblemas e na i-ésima iteração é que se atinge a minimização de f(x) em x ε Xi. Logo, dividimos Xi em subproblemas e continuamos desta forma até que um subproblema seja fácil de resolver.

Na metodologia supomos que, para qualquer subproblema no qual f(x) é minimizado sobre um x ε X´, em que X´ ⊂ X, podemos calcular uma divisão para baixo de tal forma, que

A pesquisa começa quando um nó x é fixado como ponto de partida no espaço de pesquisa. O algoritmo por meio de parâmetros lógicos e res- trições do problema determina, perfeitamente, qual será o nó seguinte a visitar. Por exemplo, um filho de x em uma trajetória em profundidade ou o irmão de x em uma pesquisa em largura.

Nesse procedimento a informação é analisa- da e avaliada e serve para determinar qual será o nó seguinte mais promissor de todos os nós vivos, isto é, aquele que vai conduzir ao próximo nó em expansão (BALAS & CARRERA, 1996; BARNHART

et al., 1998).

.  

Considere que uma companhia produtora de frangos dispõe de estoque em três armazéns (A, B e C).

Em vista dos contratos de fornecimento já assinados com oitos empresas exportadoras, a companhia precisa transferir determinadas quantidades.

As demandas acordadas com cada distribui- dor e os custos de transportar cada lote do pro- duto podem ser observadas no Tabela 1.

Figura 2. Modelo de rede neural detalhado.

φ( )x' min ( )ε ' f x

x X

(7)

Tendo em vista essas informações, o objetivo da companhia é determinar quanto deveria despa- char a cada distribuidor, de forma que sejam sa- tisfeitos seus contratos ao máximo.

O método de Branch and Bound é utilizado para obter a primeira solução possível do pro- blema com o menor custo possível (Tabela 2).

A função de penalidade (11) e o conjunto de restrições que compõe o sistema são utilizados com a finalidade de obter o mínimo da função objetivo. Na avaliação, o valor da constante de penalidade (K) é 10 (ver Tabelas 3 e 4).

A função que representa a rede neural de pe- nalidade (15) é composta por um conjunto de equações diferenciais ordinárias e é utilizada para obter o mínimo da função objetivo. As equações diferenciais do sistema são resolvidas numerica- mente pelo método de Runge-Kutta-Fehlberg de ordem sexta. Os resultados ajustados a valores mínimos e máximos para a solução variável são mostrados na Tabela 5.

Os parâmetros de aprendizagem da rede neural de penalidade incluem a taxa de aprendi- zagem, que é usada para especificar a magnitude de mudança dos pesos; o fator de penalidade, que especifica a proporção de peso que é somada [∆xij(t)], na última mudança, ao peso novo [xij(t+1)]; e os pesos iniciais, que são usados para inicializar os pesos entre as conexões da rede no pior treinamento.

Em treino e teste, no caso do método da fun- ção de penalidade, a quantidade de vetores de entrada foi simulada por uma matriz de núme- ros aleatórios. Todos os processos numéricos fo- ram interrompidos entre 300 e 1.000 iterações, segundo a metodologia utilizada. O sistema de equações diferenciais converge numa solução glo- bal. Em todos os casos dos experimentos foi utili- zada uma taxa de aprendizado de 2. O valor do fator de penalidade considerado é 10.

A convergência do modelo neural descrito é avaliada por sua capacidade de produzir previsões 1 2 3 4 5 6 7 8 ← Distribuidor(1) o

ã ç u d o r

P [bi]↓ 3,6 6,7 4,9 9,1 1,8 5,4 4,8 3,8 ←Demanda[rj] 3

1 A 1,3 2,6 4,6 5,7 0,8 3,2 3,1 11,8 4

1 B 6,4 8,3 1,5 3,2 4,2 8,4 4,3 2,5 7

1 C 3,3 2,9 5,3 2,1 1,6 1,2 2,5 8,3 Tabela 1

Informações básicas para o problema de atribuição de recursos.

x1 x2 x3 x4 x5 x6 x7 x8 ∑xi.rj

A 1 1 0 0 1 0 0 0 12,10

B 0 0 1 0 0 0 1 1 13,50

C 0 0 0 1 0 1 0 0 14,50

∑xi 1 1 1 1 1 1 1 1 16,30 Tabela 2

Resultados obtidos que minimizam a função objetivo.

(8)

x1 x2 x3 x4 x5 x6 x7 x8 ∑xi.rj

A 0,35 0,91 0,41 0,25 0,07 0,38 0,26 0,15 15,6370 B 0,45 0,24 0,30 0,47 0,41 0,09 0,38 0,66 14,5310 C 0,63 0,24 0,20 0,54 0,40 0,88 0,18 ,028 17,1700

∑xi 1,43 1,39 0,91 1,26 0,88 1,35 0,82 1,09 40,7770 Tabela 3

Resultados iniciais obtidos com o fator de penalidade em 300 iterações.

x1 x2 x3 x4 x5 x6 x7 x8 ∑xi.rj

A 0,33 0,41 0,19 0,32 0,04 0,71 0,03 0,19 12,5000 B 0,41 0 0,88 0,56 0,23 0,36 0,09 0,26 14,6620 C 0,14 0,64 0,2 0,62 0,11 0,02 0,83 0,25 16,6540

∑xi 0,88 1,05 1,27 1,50 0,38 1,09 0,95 0,70 38,8700 Tabela 4

Resultados iniciais obtidos com o fator de penalidade em 1.000 iterações.

x1 x2 x3 x4 x5 x6 x7 x8 ∑xi.rj

A 1 1 0 0 1 0 0 0 12,10

B 0 0 1 0 0 0 0 1 8,70

C 0 0 0 1 0 1 1 0 19,30

∑xi 1 1 1 1 1 1 1 1 14,50 Tabela 5

Resultados de equilíbrios obtidos com a função de penalidade neural.

(µ = 2, K = 10, tamanho de passo = 0,001, iterações = 300)

(9)

acuradas durante o processo de ajuste dos pesos entre as conexões das camadas da rede neural.

Vinte casos foram analisados com diferentes taxas de aprendizado e fatores de penalidade. O modelo de rede deduzido foi treinado e testado. Na impos- sibilidade de apresentar todos esses estudos, o melhor experimento representativo para cada sistema foi escolhido para demonstrar a habilida- de de convergência do modelo neural.

Na avaliação da rede neural, o valor da função objetivo compara a precisão do modelo com os resultados do modelo de referência (Branch and Bound), no qual a predição representa, simples- mente, os valores de todos os padrões de entrada da amostra. Um ajuste é perfeito ou o experimen- to é representativo quando o valor obtido para a função objetivo é menor que o valor do modelo de referência, e um ajuste pobre ocorre quando ele é maior. As amostras geradas aleatoriamente não são representativas do modelo quando as predições da rede neural não são boas e, em conse- qüência, os valores da função objetivo são não significativos. Todas as simulações foram reali- zadas em Matlab 5.2®.

5. CONCLUSÕES

Nesta pesquisa foi apresentado o processo de transformar um problema de programação linear inteira em outro similar, utilizando o método da função de penalidade. Uma rede neural foi dedu- zida a partir desta nova formulação. Utilizando um conjunto de equações diferenciais ordinárias como elementos não-lineares no sistema dinâmi- co, o resultado melhorou consideravelmente pelo aprendizado da rede. A avaliação realizada com o modelo de rede neural sobre diferentes bases de aprendizado demonstra claramente a importância do uso destes modelos não-paramétricos. O re- sultado é a pesquisa de valores locais e globais na otimização de um sistema, apesar de que muitas vezes as restrições podem estar definidas em for- ma incompleta.

Os estudos realizados demonstram que mo- delos de redes neurais podem ser utilizados com vantagem no processo de alocação de recursos.

Também na pesquisa amplia-se a definição de

novas perspectivas que estão em fase de estudos, como a possibilidade de utilização de modelos de redes neurais em programação inteira. De qual- quer forma, os resultados nesta pesquisa devem ser considerados como preliminares, embora am- plamente promissores. O passo seguinte consistirá em experimentar com modelos de um sistema da vida real para ganhar experiência.

Referências bibliográficas

BALAS, E. & CARRERA, M. C. “A dynamic subgradient- based branc h-and-bound, p rocedur e for set covering ”.

Operations R esearch, Vol. 44, 1996, pp. 875-90.

BARNHART, C; JOHNSON, G. L.; SAVELSBERGH, M. W.

P. & VANCE, P. H. “Branch and price column g enera- tion for solv ing high integer programs”. Operat ions Research, Vol. 46, 1998, pp. 316-29.

CICHOCKI, A. & UNBEHAUEN, R. Neural network for optimization and sig nal proc essing. Chichester, Wile y &

Sons, 1993.

FORTI, M. & TESI, A. “New conditions for global stability of neural network with application to linear and quadratic prog ramming problem”. IEEE Trans, Circuits Syst., Vol. 42, 1995, pp. 354-66.

FREEMAN, J. A. & SKAPURA, D. M. Neural networks – Algorithms, applications and programming techniques.

Addison Wesley, 1991.

GARFINKEL, R. & NEMHAUSER, G. L. Integer program- ming. Nova York: John Wiley and Sons, 1972.

HOLFIELD, J. J. & TANK, D. W. “Neural c omputat ion of decisio n in optimizing problems”. Biological Cybernetics, Vol. 52, 1985, pp. 141-52.

HOLZBAUR, C. “A specialized, incremental solved form algorithm for systems of linear inequalities”, Technical Reports TR-94-97, Austrian Research Institute for Artificial Intelligence. Viena: Universidade de Viena, 1998.

JAIN, A. K.; JIANCHANG MAO & MOHIUDDIN, K. M.

“Artificial neural networks: A tutorial”. Comp uter, março de 1996, p. 31.

LOOI, C. K. “Neural network methods in combinatorial optimizations”. In: Journal of Comput er and Operations Research, Vol. 19, nº 3/4, 1992.

MAA, C.Y. & SHANBLATT, M. “Linear and quadratic programming neural network anal ysis”. IEEE Trans, Neural Networks, Vol. 3, julho de 1992, pp. 580-94.

RAVINDRAN, A.; PHILLIPS, D. T. & SOLBERG, J.

Operations research, principles and prac tice. Nova York:

John Wiley & Sons, 1987.

SIEDLECKI, W. & SKLANSKY, J. “Constrained g enetic optimization via dynamic reward-penalty balancing and its use in pattern recognition”. Proc eeding s of the Third International Conference on Genetic Algorithms, 1989, pp. 141-50.

(10)

TANK, D. W. & HOPFIELD, J. J. “Simple neural o ptimiza- tion networks: An A/D c onverter, signal d ecisio n cir cuit, and a linear programming circuit”. IEEE Trans, Circuits Syst., Vol. 33, 1986, pp. 533-41.

ZAK, S.H.; UPATISING, V. & HUI, S. “Solv ing linear programming problems with neural networks: A compar ative study”. IEEE Trans, Neural Networ ks, Vol.

6, janeiro de 1995, pp. 94-104.

Referências

Documentos relacionados

A partir deste momento é dada indicação para a seleção da população em estudo e é ativado o envio da medicação pelo promotor, ficando o FH da Unidade de

Local de realização da avaliação: Centro de Aperfeiçoamento dos Profissionais da Educação - EAPE , endereço : SGAS 907 - Brasília/DF. Estamos à disposição

Lernaea cyprinacea of Steindachnerina insculpta from Taquari River, municipality of Taquarituba, São Paulo State, Brazil.. Note the hemorrhagic area around the insertion point of

O 6º ano do Mestrado Integrado em Medicina (MIM) é um estágio profissionalizante (EP) que inclui os estágios parcelares de Medicina Interna, Cirurgia Geral,

insights into the effects of small obstacles on riverine habitat and fish community structure of two Iberian streams with different levels of impact from the

A tabela a seguir resume as frequências em que os pacientes apresentaram pelo menos uma reação adversa não solicitada, foi registrada dentro de 28 dias após a vacinação de

A pesquisa pode ser caracterizada como exploratória e experimental em uma primeira etapa (estudo piloto), na qual foram geradas hipóteses e um conjunto de observáveis, variáveis

O TBC surge como uma das muitas alternativas pensadas para as populações locais, se constituindo como uma atividade econômica solidária que concatena a comunidade com os