• Nenhum resultado encontrado

Otimização de operação de rede por um modelo híbrido (hidrodinâmico-genético).

N/A
N/A
Protected

Academic year: 2021

Share "Otimização de operação de rede por um modelo híbrido (hidrodinâmico-genético)."

Copied!
115
0
0

Texto

(1)18. 1 INTRODUÇÃO. A Otimização é um processo de busca para a solução de problema que utiliza várias técnicas para chegar à solução mais eficaz. Com o início da Segunda Guerra Mundial, tornou-se essencial o planejamento de modo eficiente do uso de recursos escassos. A United States Air Force instituiu em 1947 o programa SCOOP ( Scientific Computation of Optimum Programs) envolvendo pesquisadores de várias áreas. Deste grupo de trabalho, participou George B. Dantzig, que se deparou com problemas de alocação de aeronaves para transporte de suprimentos e formulou o problema geral de programação linear em 1947. Em 1949, Dantzig propôs o “método simplex” como estratégia de resolução do problema de programação linear. A partir daí, muitos pesquisadores se envolveram com o assunto, passando a contribuir no desenvolvimento de resultados teóricos, métodos eficientes de codificação do algoritmo, novos algoritmos, aplicações, etc. O algoritmo do método simplex permaneceu até 1978 como única alternativa para. implementação. computacional. eficiente. para. resolver. problemas. de. programação linear. Khachian (1979) apud Porto et al (1997) publicou o algoritmo de elipsóides como alternativa ao simplex. Posteriormente, surge com Karmarkar (1984) apud Porto et al (1997), um algoritmo baseado em pontos interiores anunciando grandes vantagens computacionais para problemas de grande porte em relação ao simplex. Apesar disto, o simplex é utilizado até os dias de hoje pela maioria dos pacotes comerciais existentes. Com o passar do tempo, várias técnicas foram desenvolvidas para escolher a alternativa ótima, sendo as mais conhecidas: a programação linear, a programação não-linear, a programação dinâmica, a simulação e a utilização de algoritmo genético. As três primeiras não têm aplicação muito grande em casos reais de engenharia, mas são suficientes para garantir a viabilidade. A simulação é a técnica mais utilizada na prática e proporciona meios para o tratamento detalhado do comportamento dos sistemas, apesar de não ser otimizante. Os algoritmos genéticos adaptam conceitos da genética e da evolução para gerar um processo de otimização em engenharia..

(2) 19. Deve-se ao “ Harvard Water Resources Group ” a ação pioneira de introduzir este tipo de abordagem em planejamento e gestão de recursos hídricos. Os pesquisadores do programa criaram as bases da análise de sistemas de recursos hídricos, que consiste em dividir em 5 etapas qualquer problema de planejamento e operação de sistemas de recursos hídricos. As etapas são: a) definir os objetivos; b) formular as medidas quantitativas dos objetivos; c) gerar as alternativas de solução; d) quantificar as alternativas; e) selecionar a alternativa ótima. A otimização do controle operacional de redes hidráulicas é usualmente obtida através de programação linear com várias limitações, pois as equações que descrevem o escoamento não são lineares. As dificuldades para se otimizar redes hidráulicas não consistem apenas em transformar equações não-lineares em lineares, pois vários problemas adicionais devem ser considerados, tais como funções descontínuas que descrevem as condições de contorno relacionadas ao liga/desliga das bombas e também a ocorrência de condições limites na operação dos equipamentos (válvulas e bombas). Na área de recursos hídricos, o desequilíbrio entre oferta e demanda impõe ao engenheiro soluções cada vez mais elaboradas. À medida que o país cresce, os problemas relacionados com a água, como o abastecimento das cidades, transferência de água entre bacias hidrográficas e principalmente a escassez e a dificuldade de obtenção de recursos de capital para a construção de novas obras, exige que os sistemas existentes sejam cada vez mais eficientes. O controle operacional de redes hidráulicas para atender as demandas da população ao longo do dia é um problema que vem sendo pesquisado há várias décadas e até hoje as soluções utilizadas nem sempre são otimizadas, resultando em riscos de falhas no fornecimento de água. A proposição para esta pesquisa é desenvolver um modelo híbrido, que após calcular as cargas e as vazões para o regime permanente e para o regime extensivo, utiliza um algoritmo genético para otimizar o controle operacional de redes hidráulicas. O controle operacional de redes hidráulicas envolve várias variáveis que deverão ser controladas e otimizadas para se obter a maior eficiência na operação, tais como:.

(3) 20. a) Nível d’água nos reservatórios O controle da variação do nível d‟água nos reservatórios é necessário, pois se o nível da água ultrapassar um valor máximo pré-determinado ocorrerá o transbordamento, ocasionando desperdício de água e se o nível ficar abaixo de um valor mínimo pré-determinado poderá ocorrer entrada de ar no sistema prejudicando a operação subseqüente.. b) Níveis de pressão ao longo da rede. Os níveis de pressão devem ser controlados nas redes hidráulicas primeiramente por questões de normativas exigindo que as pressões extremas ao longo da rede não sejam superiores e/ou inferiores a valores pré-determinados em normas técnicas. Além disto, pressões muito baixas comprometem o fornecimento e pressões muito altas podem provocar danos nas tubulações e interferem nas ligações domiciliares e respectivo sistema de distribuição.. c) Número de manobras nas válvulas. O consumo de água pela população ao longo do dia varia bastante, com horários de menor consumo e horários de maior consumo, ressaltando o horário de pico. Para se controlar a vazão de água durante as 24 horas do dia, de modo que se atenda às necessidades da população e utilizando-se a capacidade de transporte e reserva, usam-se as válvulas de controle. É necessário que se especifiquem as válvulas de controle reduzindo-se o número de manobras e controlando-se os riscos decorrentes dos transitórios hidráulicos..

(4) 21. d) Vazão de produção (ETA). A vazão na ETA igual à média do consumo de água diário deve ser mantida constante para se otimizar a qualidade.. e) Instalação de bombas. A instalação de bombeamentos (boosters com ou sem variador de rotação) é necessária para se manter o abastecimento e o controle das pressões, requerendo a definição de um esquema operacional pré-programado e auto-ajustável através de controladores lógicos.. f) Manobras para evitar transitórios hidráulicos.. O transitório hidráulico decorre das manobras na rede e deve ser controlado e, por tal, as manobras devem ser especificadas para garantir que a tubulação não sofra riscos de ruptura ou colapso..

(5) 22. 2 REVISÃO DE LITERATURA. 2.1 Técnicas de otimização. Em geral, o modelo de otimização é constituído por uma função objetivo, que descreve o critério a ser adotado para o sistema, podendo ser de minimização ou maximização e comporta as “n” variáveis de decisão do problema. Além dela, existem também as várias funções de restrição, que descrevem o processo a ser analisado podendo ser restrições de igualdade ou de desigualdade e determinam a região viável (factível) das variáveis de decisão. Caso as restrições não existam, o problema de otimização é irrestrito. Além das variáveis já definidas, existem os parâmetros do modelo. O conjunto de valores das variáveis de decisão que satisfaz as funções de restrição e os parâmetros é a solução viável. A região viável é o conjunto formado por todas as soluções viáveis. Dentre as soluções viáveis, aquela que também satisfaz a função objetivo é a solução ótima. Existe também a otimização multiobjetivo, que utiliza mais de um critério (função objetivo). A função objetivo gera um resultado a partir de um conjunto de dados (parâmetros) de entrada. A função objetivo pode ser uma função matemática, um experimento, um jogo, etc. O objetivo é modificar o resultado de uma maneira desejável, buscando-se os valores apropriados para os parâmetros de entrada. Freqüentemente, a função objetivo é muito complicada de se definir. O usuário deve decidir quais parâmetros do problema são os mais importantes. O usuário deve ter em mente que determinar a função objetivo apropriada e decidir quais parâmetros usar são dois procedimentos intimamente relacionados. Existem várias classificações para o problema de otimização, dependendo da natureza da função objetivo e do conjunto de restrições (se existirem). O problema pode ser classificado em: a) linear x não-linear ; b) determinístico x não determinístico ; c) estático x dinâmico ; d) contínuo x discreto. Um problema de programação linear consiste de uma função objetivo, que é uma função linear das variáveis de decisão e todas as restrições lineares. Problemas de programação não-linear são representados por expressões não-lineares, que podem ser parte ou todas as restrições e/ou uma função objetivo não-linear..

(6) 23. Problemas determinísticos contêm parâmetros ou coeficientes que possuem valores perfeitamente determinados e conhecidos, enquanto problemas não determinísticos contêm parâmetros com incerteza, que são considerados variáveis aleatórias. Nos problemas estáticos, não aparecem as variáveis tempo e espaço, enquanto que os problemas dinâmicos envolvem o tempo e/ou o espaço. Nos problemas contínuos as variáveis podem assumir qualquer valor dentro de um intervalo contínuo de definição, enquanto que nos problemas discretos, as variáveis pertencem a um conjunto de valores não contínuo. Na classe dos problemas discretos, estão os problemas conhecidos como problemas de programação inteira, onde as variáveis assumem somente valores inteiros. Existe uma subclasse dos problemas de programação inteira, onde as variáveis são inteiras e só assumem os valores 0 e 1, que são conhecidos como problemas de programação inteira 0-1.. 2.1.1 Programação linear (PL). A programação linear se volta para a minimização ou maximização de uma função linear com muitas variáveis sujeitas a restrições que são lineares e de igualdade. Apresentam-se a seguir dois métodos de PL.. 2.1.1.1 Método gráfico. O Método Gráfico é aplicado a problemas com duas variáveis, x1 e x2. As restrições devem ser lançadas em um gráfico bi-dimensional onde determinam regiões do plano x1, x2 cujos pontos são chamados viáveis. A interseção destes pontos determina a região viável, onde estará a solução ótima para o problema. A solução ótima será um dos vértices do polígono que forma a região viável. Para se descobrir a solução ótima, utiliza-se o gradiente da função objetivo. O gradiente é um vetor definido pelas derivadas parciais de primeira ordem das variáveis de uma função (x1, x2, ..., xn), caso esta as possua, e tem a propriedade de apontar para a direção e sentido de maior crescimento da função objetivo. Quando o problema é de minimização, deve-se caminhar no sentido contrário do gradiente..

(7) 24. 2.1.1.2 Método simplex. O Método Simplex consiste em um algoritmo projetado por George B. Dantzig, que basicamente toma a região delimitada pelas restrições (região viável) e analisa o crescimento ou a diminuição da função objetivo dentro dela. Para isto, o problema deve ser colocado dentro da forma padrão. Na vida real, os problemas quase sempre têm mais equações ou inequações que variáveis. No caso do Simplex, as inequações são transformadas em equações com o acréscimo de outras variáveis, que têm valor zero. Assim, define-se a forma padrão de um problema de PL. As variáveis zeradas do problema são chamadas de não-básicas e as demais de básicas. Com o problema na forma básica, monta-se o Tableau Simplex. Fazendo-se sucessivos pivotamentos de Gauss e promovendo-se a entrada e a saída das variáveis no grupo das não-básicas, chega-se à solução ótima.. 2.1.2 Programação não-linear. Problemas de programação não-linear são representados por expressões nãolineares, que podem ser parte ou todas as restrições e/ou uma função objetivo nãolinear.. 2.1.2.1 Otimização analítica. Estes métodos procuram determinar soluções ótimas resolvendo sistemas de equações com o apoio de derivadas. A otimização pode ser reduzida à procura das raízes destes sistemas. A Otimização Analítica não trabalha bem com parâmetros discretos e freqüentemente acha uma solução ótima local, além do mais, os problemas existentes no mundo real são muito complexos e pouco prováveis de serem resolvidos por estes métodos. Apresentam-se, a seguir, dois métodos..

(8) 25. 2.1.2.1.1 Método do cálculo diferencial. O cálculo pode ser utilizado para achar o ótimo de várias funções objetivo. No caso de haver um só parâmetro na função, o ponto ótimo é achado igualando-se a zero a derivada primeira de uma função objetivo que se queira otimizar e resolvendo a equação resultante para achar o valor do parâmetro. Se a derivada segunda da função objetivo for maior que zero, o ponto ótimo é um mínimo e se a derivada segunda for menor que zero, o ponto ótimo é um máximo. Quando há dois ou mais parâmetros na função objetivo, para se achar os pontos ótimos, iguala-se o gradiente da função a zero. Depois, as equações resultantes são resolvidas para se acharem os valores dos parâmetros. Finalmente, o Laplaciano da função é calculado. As raízes serão mínimas quando a matriz Hessiana for maior que zero.. 2.1.2.1.2 Multiplicadores de Lagrange. No século XVIII, Lagrange apresentou uma técnica para incorporar as restrições de igualdade na função objetivo. Este método encontra os extremos de uma função f(x,y,...) com restrições gm(x,y,...)=0, achando os extremos de uma nova M. função F(x,y,...,1,2,...) = f(x,y,...) +. . λmgm(x,y,...). Então, quando os gradientes. m 1. são tomados em termos dos novos parâmetros m, os limites são automaticamente satisfeitos.. 2.1.2.2 Método de busca direta Os métodos de busca direta a “n” variáveis são constituídos pelos métodos iterativos. A idéia básica no método iterativo é, a partir de um valor inicial X0, caminhar sucessivamente através de iterações até o máximo (mínimo) da função f(x), que se quer otimizar. Nestes métodos, é importante dispor de um critério que indique se um novo ponto escolhido é melhor que o anterior. O valor da função objetivo f(xk) pode ser utilizado como critério que, no caso de minimização, implica f(xk+1)<f(xk), onde k é a iteração considerada. Na.

(9) 26. maximização, f(xk+1)>f(xk).Todos os métodos podem ser colocados no seguinte algoritmo:. Passo 1 - Teste de Convergência: caso o valor da função computada no passo K+1 não seja significativamente diferente do valor da função no passo anterior, o algoritmo para e xk é o vetor solução.. Passo 2 - Cálculo da direção da busca: de acordo com um determinado método de cálculo, calcule a direção xk. Isto equivale a determinar os vetores unitários das direções de xk, dados ek, onde e é a direção.. Passo 3 - Cálculo do comprimento do passo: determine qual ponto considerar ao longo da linha com direção dada pelo passo 2. Trata-se de determinar um incremento escalar xk tal que f(xk + xk *ek)<f(xk), no caso de cálculo mínimo, e f(xk + xk *ek)>f(xk), no caso de máximo. Passo 4 - Atualização do mínimo: faça xk+1= xk + xk *ek e volte ao passo 1.. Existem várias técnicas que usam o Método de Busca Direta. Estas técnicas não garantem que a solução ótima global seja encontrada. A seguir apresentam-se duas técnicas.. 2.1.2.2.1 Método da máxima descida. O Método da Máxima Descida começa em um ponto arbitrário do espaço de soluções e minimiza ou maximiza ao longo da direção do gradiente, conforme o problema. Esta abordagem é bastante popular e foi originada com Cauchy em 1847. O método faz uso de um escalar não negativo que minimiza ou maximiza a função na direção do gradiente e se reduz gradativamente à medida que o ponto ótimo se aproxima. Por definição, o novo gradiente formado em cada iteração é ortogonal ao gradiente anterior. Se o vale ou a crista são estreitos, então o algoritmo salta de um lado para o outro por várias iterações antes de alcançar o ótimo..

(10) 27. 2.1.2.2.2 Programação quadrática. A Programação Quadrática é utilizada quando a função objetivo é quadrática (os parâmetros são representados ao quadrado) e as restrições são lineares. Esta técnica é baseada nos Multiplicadores de Lagrange e requer derivadas ou aproximações de derivadas. Existe também a programação quadrática recursiva que resolve o problema de programação quadrática a cada iteração para encontrar a direção para o próximo passo.. 2.1.3 Programação dinâmica (PD). Em muitas situações, o problema de otimização em recursos hídricos é dado por uma seqüência de decisões que evoluem no tempo e no espaço. Exemplo típicos de evolução no tempo são o escalonamento de obras de um sistema de grande porte ou a operação de sistemas de reservatórios. O traçado de uma adutora que dispõe de um conjunto de possibilidades de ligar a captação até o centro consumidor é um exemplo de sistema que evolui no espaço. Em problemas de PD, o estado atual do sistema incorpora todas as informações prévias decorrentes das decisões tomadas no passado. Isto permite determinar a política ótima futura, independente do que já ocorreu. Esta propriedade é chamada de Propriedade Markoviana. Qualquer problema que não atenda esta propriedade, não pode ser resolvido por PD. Uma PD é composta por: função objetivo, função de transformação (mudança) de estado, equações de restrição e função recursiva. A função objetivo que descreve o critério a ser adotado para o sistema podendo ser de minimização ou maximização e comporta as “n” variáveis de decisão do problema. A função de transformação (mudança) de estado define a mudança de estado entre dois estágios. As equações de restrição descrevem o processo a ser analisado e determinam a região viável das variáveis de decisão. A função recursiva relaciona o ótimo de um estágio a outro. A PD tem a seguinte linha de raciocínio: a) divide-se o problema geral em estágios; b) determina-se o ótimo em cada estágio; c) relaciona-se o ótimo de um.

(11) 28. estágio a outro através de uma função recursiva; d) percorrem-se todos os estágios para obter o ótimo global. Na PD, o ótimo global pode ser obtido nos dois sentidos: partindo-se do estágio final até o estágio inicial (PD regressiva) ou vice-versa (PD progressiva). Na PD, as funções objetivo e as restrições podem ser lineares, não-lineares e até mesmo descontínuas. Uma das vantagens da PD é que o trabalho computacional cresce de forma aproximadamente linear com o número de estágios, enquanto que em outras técnicas o crescimento é, geralmente, geométrico. Outra vantagem da PD é poder ser utilizada em um grande número de problemas de programação discreta. A desvantagem da PD é quando surgem situações nas quais o número de possibilidades que devem ser analisadas a cada estágio é muito grande. Neste caso, a busca do ótimo é bastante dificultada. A solução exige bastante memória e tempo de processamento do computador. Sistemas muito complexos exigem técnicas especiais para reduzir a dimensionalidade do problema.. 2.1.4 Algoritmos genéticos (AG). Os algoritmos genéticos fazem parte dos algoritmos evolucionários e permitem que uma população composta de vários indivíduos evolua, sob regras de seleção específicas, para um estado que geralmente maximiza o ajuste da função objetivo (função de custo). O método foi desenvolvido por John Holland (1975) apud Haupt; Haupt (1998) durante os anos 60 e 70 e foi popularizado por um dos seus estudantes, David Goldberg, que resolveu um problema complexo envolvendo controle de transmissão de gasolina por dutos em sua dissertação de 1989. Os algoritmos genéticos têm algumas vantagens como poder fazer otimizações utilizando parâmetros contínuos ou discretos, não requerer informações de derivadas, pesquisar simultaneamente a partir de um grande número de amostras do espaço de soluções, poder lidar com um grande número de parâmetros, ser bem adequado para programação paralela, fornecer uma lista de parâmetros ótimos, ao invés de uma única solução, permitir a codificação dos parâmetros de modo que a otimização seja feita com os parâmetros codificados, otimizar parâmetros em espaços.

(12) 29. de soluções extremamente complexos, podendo evitar um mínimo local e trabalhar com dados gerados numericamente, dados experimentais ou funções analíticas. Deve-se destacar que os algoritmos genéticos não são a melhor maneira para se resolver todo tipo de problema. Por exemplo, em problemas que contenham uma função analítica convexa bem comportada com poucas variáveis, os métodos tradicionais de otimização, como os métodos baseados no cálculo diferencial, são mais eficientes que os algoritmos genéticos. Entretanto, muitos problemas reais não caem nesta categoria. Em adição, alguns métodos podem encontrar a solução de maneira mais rápida que os algoritmos genéticos em problemas que não sejam globalmente complexos, ao menos no caso de se utilizar programação serial. Os algoritmos genéticos trabalham com uma população de possíveis soluções, junto com operadores genéticos (seleção, crossover e mutação) para produzir resultados mais adequados sucessivamente. Cada solução é representada por uma série de números (cromossomo). Cada cromossomo contém sub-séries ou genes, que são valores ou componentes que formam ou avaliam a função objetivo do problema. Os algoritmos genéticos começam por definir um cromossomo ou uma série de parâmetros a serem otimizados. A rotina dos AGs começa gerando uma população inicial aleatoriamente e calcula a adequação de cada indivíduo da população em relação à característica que se quer otimizar. Então a rotina seleciona os indivíduos mais aptos (geralmente os 50% com melhor adequação ou custo) desta população inicial. A partir daí, o algoritmo seleciona os indivíduos para cruzamento, podendo escolher entre várias técnicas, tais como: seleção proporcional, seleção aleatória, seleção aleatória ponderada e seleção por sorteio e cria descendentes através da aplicação de recombinação (crossover) e/ou mutação para os indivíduos selecionados. A partir daí, a rotina calcula a adequação destes descendentes e elimina os menos aptos para inserir os mais aptos na nova geração, formada pelos pais e pelos descendentes mais aptos selecionados. Se a população convergir, a rotina termina. Caso contrário, ela repete os passos descritos anteriormente. A maioria dos problemas de otimização requer constantes ou limites para os parâmetros (funções de restrição). Os AGs não são capazes de manejar restrições ou constantes, por isto, faz-se uso de uma função de penalidade. A função de penalidade evita que indivíduos que geram soluções não factíveis sejam selecionados, assim os.

(13) 30. AGs se concentrarão nas soluções factíveis ou nas proximidades delas. Cabe ao usuário definir a função de penalidade de acordo com o problema que ele tiver em mãos.. 2.1.4.1 Representação dos parâmetros. Uma das maneiras de representar os parâmetros do problema é utilizar o código binário. O algoritmo genético binário trabalha com um número de parâmetros finito, mas normalmente muito grande. Esta característica torna o AG ideal para otimizar uma solução que está ligada a parâmetros que só podem assumir um número finito de valores. O AG trabalha com codificação binária, mas a função objetivo requer parâmetros contínuos, por isto, sempre que a função objetivo é avaliada, o cromossomo deve ser primeiro decodificado. Outra forma de representar os AGs é o código de Gray. Este código redefine os números binários de modo que dois números consecutivos (adjacentes) têm uma distância de Hamming de apenas um. A distância de Hamming é definida como o número de bits que diferem dois cromossomos. O código de Gray é usado para evitar variações muito grandes nos valores das variáveis entre as gerações e facilitar a convergência para uma boa solução, entretanto, este código pode deixar o AG de 10 a 20 % mais lento, dependendo da situação. Outra maneira de representar os parâmetros do problema é representar os parâmetros utilizando números reais que fiquem entre os limites estabelecidos. Neste tipo de representação os parâmetros são contínuos e por isto podem assumir qualquer valor. Apesar disto, os computadores digitais representam os números com um número finito de bits e utilizam a sua precisão interna para definir a precisão dos parâmetros contínuos. Portanto, o AG fica com a precisão limitada ao erro de arredondamento do computador. Este tipo de representação tem a vantagem de requerer menos memória do computador para armazenar dados..

(14) 31. 2.1.4.2 População inicial. O algoritmo genético começa com um grande número de cromossomos, os quais formam a população inicial. Esta população é representada por uma matriz preenchida com números entre zero e um, gerados aleatoriamente e arredondados para o inteiro mais próximo (0 ou 1), onde cada linha representa um cromossomo e cada coluna do cromossomo representa um bit. Após isto, os parâmetros são passados para a função objetivo para avaliação. Uma população grande fornece uma boa amostra do espaço de pesquisa para o AG, mas pode prejudicar bastante a eficiência dele. Normalmente, apenas uma parcela da população inicial participa da parte iterativa do AG. No caso de se representarem os parâmetros com números reais, a população inicial é representada por uma matriz, onde cada linha é composta por uma série de parâmetros contínuos. Os elementos da matriz são números entre 0 e 1 gerados aleatoriamente multiplicados pela diferença entre o maior valor e o menor valor permitidos no intervalo do parâmetro, sendo este resultado somado ao menor valor permitido no intervalo do parâmetro. Quando a população inicial é muito grande para passar pelo processo iterativo do AG, uma parte da população é descartada. Primeiro, o AG calcula a adequação de cada indivíduo e os coloca em ordem decrescente (do mais adequado para o menos adequado), então, os menos adequados são descartados (normalmente 50%) e apenas os melhores farão parte da população para participar das iterações na rotina do AG. Na hora da iteração, apenas uma parte destes melhores indivíduos (50%) é selecionada para fazer parte do grupo de reprodução, a outra metade destes melhores indivíduos é descartada. Este processo se repete a cada iteração. Como exemplo, suponhamos que uma população inicial de 80 indivíduos é considerada muito grande por algum critério, portanto, apenas os 40 melhores indivíduos são mantidos na população para participar do processo iterativo. Neste processo, apenas os 20 melhores farão parte do grupo de reprodução, enquanto que os 20 piores serão descartados. Os 20 melhores irão produzir 20 descendentes e a população voltará a ter 40 indivíduos. Novamente, apenas os 20 melhores farão parte do grupo de reprodução da próxima iteração e assim por diante..

(15) 32. Uma outra forma de selecionar os cromossomos para reprodução consiste em definir algum princípio de sobrevivência. Todos os cromossomos que não alcançarem este princípio de sobrevivência são descartados. Caso todos os cromossomos sejam descartados, uma nova população inicial é criada para achar cromossomos que passem no teste. Esta técnica tem como característica, a vantagem de não necessitar que a população seja classificada, como no caso anterior.. 2.1.4.3 Seleção. Na seleção, dois indivíduos são selecionados do grupo de reprodução para produzir dois novos descendentes. A seleção dos indivíduos continua até que haja descendentes suficientes para a população voltar ao seu tamanho original. A seleção dos indivíduos pode ser escolhida entre várias técnicas, tais como:. a) Seleção proporcional. Nesta seleção, o algoritmo classifica os cromossomos de acordo com sua adequação em ordem decrescente e escolhe os pares de cromossomos para reprodução de dois em dois do início para o final. Assim, o algoritmo escolhe o melhor e o segundo melhor, o terceiro melhor e o quarto melhor e assim por diante. Esta técnica não modela a natureza de forma adequada e não mantém a diversidade populacional.. b) Seleção aleatória. Esta técnica utiliza um gerador de número aleatório uniforme para selecionar os cromossomos. Os cromossomos são classificados de acordo com sua adequação e dois números aleatórios são gerados para escolher dois indivíduos para reprodução. Nesta técnica, o algoritmo gera uma quantidade de números aleatórios entre 0 e 1 igual ao número de indivíduos do grupo de reprodução. A partir daí, estes números gerados são multiplicados pelo número de indivíduos do grupo de reprodução e os resultados são arredondados para o teto dos números inteiros mais próximos.

(16) 33. correspondentes.. Estes. resultados. finais. fornecem. números. inteiros. que. correspondem aos cromossomos selecionados para reprodução, que são pegos de dois em dois na ordem em que foram gerados.. c) Seleção aleatória ponderada. Esta técnica designa probabilidades para os indivíduos do grupo de reprodução de acordo com as suas funções objetivo. O cromossomo com o maior valor da função objetivo tem a maior probabilidade de ser selecionado para reprodução e vice-versa. Um número aleatório define qual cromossomo é selecionado. Esta técnica é mais conhecida como seleção por mecanismo de roleta. Uma maneira de se usar esta técnica é calcular a probabilidade através da posição do cromossomo no grupo de reprodução. Cada cromossomo do grupo de reprodução recebe um número inteiro “n”, a partir de 1, para designar sua posição no grupo, começando do mais apto. Para se calcular a probabilidade “Pn” do cromossomo, pega-se o número de cromossomos que compõem o grupo de reprodução “Nrep” acrescido de um e subtrai-se o número (“n”) da posição do cromossomo no grupo. Este valor é dividido pelo somatório dos números das posições de todos os cromossomos do grupo de reprodução, conforme eq.(1). Utilizam-se as probabilidades acumuladas de cada cromossomo para selecioná-los. A partir daí, gera-se uma quantidade de números aleatórios entre 0 e 1 igual ao número de indivíduos do grupo de reprodução. Começando-se do início para o final, o primeiro cromossomo com uma probabilidade acumulada maior que o primeiro número gerado é escolhido para reprodução e assim por diante até que todos os números gerados sejam testados. Neste processo, um mesmo cromossomo pode ser escolhido mais de uma vez. Se por acaso, um cromossomo faz par com ele mesmo, pode-se ignorar este fato ou pegar um outro cromossomo aleatoriamente. A aleatoriedade desta técnica está mais de acordo com a natureza..

(17) 34. Pn . N rep n 1 N rep. (1). n n 1. Outra maneira de se usar esta técnica é calcular a probabilidade através da adequação do cromossomo no grupo de reprodução. Uma adequação normalizada “An” é calculado para cada cromossomo, subtraindo o maior valor da adequação do cromossomo descartado “ANrep” do valor de adequação “An” de cada cromossomo do grupo de reprodução. A probabilidade “Pn” para cada cromossomo é calculada pelo módulo da divisão da adequação normalizada pelo somatório de todas as adequações normalizadas “Ap” dos cromossomos do grupo de reprodução. Utilizam-se as probabilidades acumuladas de cada cromossomo para selecioná-los. A partir daí, gera-se uma quantidade de números aleatórios entre 0 e 1 igual ao número de indivíduos do grupo de reprodução. Começando-se do início para o final, o primeiro cromossomo com uma probabilidade acumulada maior que o primeiro número gerado é escolhido para reprodução e assim por diante, até que todos os números gerados sejam testados.. Pn . An N rep.  Ap. (2). p 1. Figura 1 – Seleção aleatória ponderada.

(18) 35. d) Seleção por sorteio. Esta técnica imita de perto a competição na natureza. Nesta técnica, o algoritmo pega um sub-conjunto de cromossomos do grupo de reprodução e o indivíduo com a melhor adequação neste sub-conjunto se torna um pai. O número de sorteios é igual ao número de cromossomos existentes no grupo de reprodução. Os sub-conjuntos têm geralmente dois cromossomos. Os sorteios selecionam o subconjunto de cromossomos do grupo de reprodução aleatoriamente. Na seleção por sorteio a população não precisa ser classificada como nas outras técnicas.. Cada sistema de seleção resulta em diferentes conjuntos de pais, portanto, os descendentes também são diferentes. Dependendo do problema, um sistema trabalha melhor que o outro e cabe ao usuário decidir qual usar.. 2.1.4.4 Recombinação. A recombinação (crossover) é a criação de um ou mais descendentes a partir dos cromossomos (pais) selecionados no processo de seleção. A recombinação é a primeira maneira do AG explorar o espaço de soluções. A constituição genética da população é limitada pelos membros em curso da população e ajuda o AG a convergir. A forma mais comum de recombinação utiliza dois pais para produzir dois descendentes. Normalmente, a porcentagem de recombinação na população de 50 a 95% por iteração. Os método mais simples para se fazer as recombinações é escolher um ou mais pontos nos cromossomos pais e fazer o intercâmbio entre as partes de cada cromossomo. Uma maneira de se fazer a recombinação é escolher um ponto aleatoriamente entre o primeiro e o último bit dos cromossomos dos pais. Em primeiro lugar, o primeiro e o segundo pai passam seus códigos binários à esquerda do ponto escolhido para o primeiro e o segundo descendentes respectivamente. Depois, o primeiro pai passa seu código binário à direita do ponto escolhido para o segundo descendente e o segundo pai passa seu código para o primeiro descendente. Assim, os descendentes contêm porções dos códigos binários dos dois pais. Como cada par.

(19) 36. de pais do grupo de reprodução produz dois descendentes, a população de cromossomos volta ao seu tamanho original. Pai1 00100110011101 Pai2 01010110000100 Descendente1 00100110000100 Descendente2 01010110011101 Pode-se fazer também a recombinação escolhendo-se aleatoriamente dois pontos nos cromossomos pais. Os pais trocam os bits entre estes dois pontos de intercâmbio. Como alternativa, pode-se escolher aleatoriamente uma das três partes do cromossomo para fazer as trocas de bits.. Pai1 00101011000110 Pai2 01111100001100 Descendente1 00111100000110 Descendente2 01101011001100 Outro esquema de recombinação envolve três pais e dois pontos de intercâmbio. Com este esquema, forma-se um total de 18 descendentes, embora não seja necessário gerar todos. O usuário pode escolher quantos descendentes serão gerados. Uma outra maneira de se fazer a recombinação é percorrer todos os pontos dos cromossomos pais e escolher aleatoriamente qual pai irá contribuir com seu parâmetro para cada posição dos cromossomos descendentes. Para isto, uma máscara aleatória é gerada. Esta máscara é um vetor aleatório de zeros e uns e tem o mesmo comprimento dos pais. Quando o bit na máscara é 0, o bit correspondente no primeiro pai passa para o primeiro descendente e o bit correspondente no segundo pai passa para o segundo descendente. Quando o bit na máscara é 1, o bit correspondente no primeiro pai passa para o segundo descendente e o bit correspondente no segundo pai passa para o primeiro descendente. Este tipo de recombinação é conhecido como recombinação uniforme..

(20) 37. Pai1 00101011000110 Pai2 01111100001100 Máscara 00110110001110 Descendente1 00111101001100 Descendente2 01101010000110 O problema com as recombinações baseadas na escolha de pontos é que nenhuma informação nova é introduzida. Os parâmetros gerados aleatoriamente na população inicial são passados para a próxima geração em combinações diferentes. Esta estratégia funciona bem para representações binárias, mas no caso da representação com números reais, as informações são apenas trocadas entre os pontos escolhidos. Para superar este problema, faz-se uso da recombinação misturada. A recombinação misturada encontra maneiras de combinar os valores dos parâmetros dos dois pais para formar um novo parâmetro nos descendentes. Uma maneira de se fazer isto é escolher aleatoriamente um parâmetro  qualquer em cada par de cromossomos pais para ser o ponto de intercâmbio. Depois, os parâmetros escolhidos são combinados para formar novos parâmetros que estarão presentes nos descendentes. Por fim, completa-se a recombinação com o resto do cromossomo.Esta combinação pode ser feita de várias maneiras, como por exemplo:. Pai1=[Ppai1 Ppai2 ... Ppai ... Ppaifinal] Pai2=[Pmãe1 Pmãe2 ... Pmãe ... Pmãefinal] Pnovo1= Ppai+ (Pmãe - Ppai) Pnovo2= Pmãe - (Pmãe - Ppai). onde: Pnovo1= novo parâmetro para o descendente um; Pnovo2= novo parâmetro para o descendente dois; Ppai= parâmetro proveniente do pai; Pmãe= parâmetro proveniente da mãe; = número entre zero e um gerado aleatoriamente..

(21) 38. Descendente1=[Ppai1 Ppai2 ... Pnovo1 ... Pmãefinal] Descendente2=[Pmãe1 Pmãe2 ... Pnovo2 ... Ppaifinal] O valor de  pode ser o mesmo para todos os parâmetros ou pode-se gerar um valor de  diferente para cada parâmetro. Quando o primeiro parâmetro do cromossomo é selecionado para ponto de intercâmbio, somente os parâmetros à sua direita fazem intercâmbio. Quando o último parâmetro do cromossomo é selecionado para ponto de intercâmbio, somente os parâmetros à sua esquerda fazem intercâmbio. O número de parâmetros a serem selecionados para a mistura de informações fica a cargo do usuário, podendo até conter todos os parâmetros dos cromossomos pais.. 2.1.4.5 Mutação. As mutações alteram uma pequena porcentagem dos bits dos cromossomos. As mutações são a segunda maneira do AG explorar o espaço de soluções. As mutações introduzem características não presentes na população original e evita que o AG faça a convergência muito rápida. A mutação em um ponto muda de 1 para 0 ou vice-versa. Os pontos de mutação são selecionados aleatoriamente entre os bits da população. Normalmente, de 1 a 5% dos bits sofrem mutação a cada iteração. As mutações não ocorrem na última iteração. Para se evitar que os melhores indivíduos sofram mutações, pode-se usar uma técnica chamada Elitismo. Esta técnica consiste em nunca substituir os melhores indivíduos da população, mas o elitismo pode gerar uma rápida convergência. O elitismo não faz a população escapar de um ótimo local. A maioria das mutações aumenta a adequação do cromossomo. Uma diminuição ocasional do custo aumenta a diversidade e fortalece a população. As mutações ajudam a explorar o espaço de soluções, porque elas saem da rota de convergência para outros territórios. Para a representação com números reais, multiplica-se a taxa de mutação pelo número de parâmetros total da população para definir quantos parâmetros sofrerão mutação. Depois, números aleatórios são gerados para escolher a linha e a coluna dos parâmetros que sofrerão mutação. Os parâmetros escolhidos são apagados e.

(22) 39. substituídos por um novo número aleatório gerado entre os limites de variação do parâmetro.. 2.1.4.6 A geração seguinte. Depois que as recombinações e as mutações acontecem, as adequações dos descendentes e dos cromossomos que sofreram mutação são calculadas. A seguir, o AG classifica a população segundo as adequações dos indivíduos e seleciona os que farão parte do grupo de reprodução. Depois que estes indivíduos passam pela seleção, recombinação, mutação e classificação das suas adequações, a geração seguinte é formada e assim por diante até a convergência.. 2.1.4.7 Convergência. O número de gerações que evoluem depende se uma solução aceitável foi alcançada ou se um número estabelecido de iterações foi excedido. Após um período de tempo, todos os cromossomos e suas adequações seriam iguais se não fosse pelas mutações. São elas que mantêm a diversidade genética da população. Quando a diversidade genética não varia ou varia muito pouco, o AG deve parar. A maioria dos AGs presta atenção às estatísticas da população através da análise da adequação média da população, desvio padrão e melhor adequação. Qualquer uma destas ou uma combinação delas pode servir como teste de convergência.. 2.2 Análise de bibliografia relevante sobre técnicas de otimização. A análise do regime permanente em redes hidráulicas é um problema de grande importância na engenharia. As equações hidráulicas básicas que descrevem o fenômeno não são lineares e podem ser resolvidas iterativamente. Estas equações básicas, que governam o escoamento do fluido em uma rede hidráulica são a equação da conservação de massa e a equação da energia..

(23) 40. Vários algoritmos foram desenvolvidos para resolver estas equações e apesar de poderem ser usados no projeto global de uma rede hidráulica, eles são geralmente formulados para fornecer as vazões e pressões para características de redes específicas e assim não fornecem informações de projeto diretamente. Como resultado, vários autores têm empregado várias técnicas de otimização no desenvolvimento de algoritmos de projeto geral. Em geral o objetivo da maioria das técnicas de otimização é a minimização dos custos. A despeito do grande número de algoritmos que tem sido desenvolvidos, nenhum deles foi totalmente aceito ou tem sido largamente aplicado em execuções de projetos de redes hidráulicas. Isto é devido, em parte, à grande complexidade das técnicas requeridas para otimizar as soluções. Epp; Fowler (1970) desenvolveram um programa de computador para a solução de redes de água em escoamento permanente. O programa introduziu um algoritmo para a minimização da largura de banda da matriz dos coeficientes através da numeração automática dos anéis e utilizou outros algoritmos para definir os anéis das malhas de forma a reduzir o número de equações a serem resolvidas e estimar as vazões iniciais. Epp; Fowler (1970) utilizaram o método de Newton-Raphson aplicado aos anéis da malha para a resolução do sistema de equações não-lineares. O programa foi utilizado para uma grande variedade de redes de água e alcançou uma boa convergência em todas, inclusive em redes nas quais o método de Hardy Cross e o método de Newton-Raphson aplicado aos nós foram utilizados e não alcançaram a convergência. Wood; Charles (1972) propuseram resolver problemas de redes hidráulicas usando um método linear. Como as equações de energia são não-lineares, eles propuseram aproximar o valor da perda de carga da seguinte maneira: hLi= Ki.Qi0a-1.Qi= Ki‟. Qi onde: hLi= perda de carga para um tubo i da malha; Ki= constante do tubo i; Qi0= vazão no tubo i no instante de cálculo anterior; Qi= vazão no tubo i no instante de cálculo atual;.

(24) 41. a= expoente de perda de carga, empírico normalmente, variando entre 1,8 e 2,0. Este método tem a vantagem de não necessitar estimar vazões iniciais para cada tubo, a convergência para os resultados finais é muito rápida e foi assegurada para todos os casos testados, o método pode ser aplicados para redes malhadas e ramificadas e o método não exige uma programação complexa. Wood; Rayes (1981) testaram cinco métodos para resolver as equações que governam as redes hidráulicas para 51 sistemas de redes e 91 situações diferentes. Três métodos (Método de Ajuste Único do Trecho, Método de Ajuste Simultâneo dos Trechos e Método Linear) utilizaram as equações de malha (escritas em termos dos fluxos desconhecidos nos tubos) e dois métodos (Método de Ajuste Único do Nó e Método de Ajuste Simultâneo dos Nós) utilizaram as equações dos nós (escritas em termos da carga total em cada nó do sistema de tubos). Wood; Rayes (1981) concluíram que o Método Linear e o Método de Ajuste Simultâneo dos Trechos alcançam uma boa convergência com poucas iterações, boa precisão e podem ser aplicados na resolução das equações das redes hidráulicas se informações relativamente seguras a respeito da rede são fornecidas. O Método de Ajuste Único do Trecho, o Método de Ajuste Único do Nó e o Método de Ajuste Simultâneo dos Nós apresentaram vários problemas significativos de convergência e os resultados não são confiáveis, apesar de que são grandemente utilizados para resolver os problemas de redes hidráulicas. Os autores aconselham que se tenha bastante cuidado ao se utilizar um destes três métodos. Ormsbee; Wood (1986) propuseram uma técnica alternativa para o problema do projeto de redes hidráulicas. Eles remodelaram o conjunto básico de equações de redes hidráulicas realçando um ou mais parâmetros de projeto como variáveis desconhecidas e especificando condições alternativas, como por exemplo, especificar a velocidade global de escoamento no caso de se realçar somente um parâmetro de projeto ou introduzir equações de energia ou continuidade adicionais no caso de se realçar mais de um parâmetro de projeto. Ormsbee; Wood (1986) propuseram um algoritmo que utilizou uma expansão truncada da série de Taylor para linearizar as equações da energia e da continuidade.

(25) 42. para cada tubo da rede. Este método é uma versão modificada do método linear proposto por Wood; Charles (1972). Jowitt; Xu (1990) desenvolveram um algoritmo para a determinação dos valores das aberturas de válvulas de controle de fluxo para minimizar os vazamentos. É sabido que os vazamentos em algumas redes de distribuição de água são responsáveis por quantidades significativos da água colocada para abastecimento. Para algumas redes urbanas antigas, taxas de até 50% são citadas, sendo que taxas médias de 25% são típicas. Taxas tão altas de vazamento representam perdas econômicas de monta. Sabe-se que os vazamentos de água em uma rede de distribuição de água são diretamente relacionado à pressão de serviço do sistema. As pesquisas anteriores para determinação dos valores das aberturas das válvulas para reduzir as pressões na rede e conseqüentemente os vazamentos, formularam o problema de modo a minimizar as sobrepressões do sistema sujeitas às constantes operacionais do sistema. Algumas destas abordagens tentaram resolver o problema sem considerar diretamente o vazamento dentro do modelo da rede. Mais recentemente, Germanopoulos; Jowitt (1989) apud Jowitt; Xu (1990) incorporaram componentes de vazamento dependentes de pressão explicitamente dentro do modelo do sistema. O artigo pesquisado teve a originalidade de apresentar um algoritmo que estende o trabalho de Germanopoulos; Jowitt (1989) apud Jowitt; Xu (1990) por procurar minimizar os vazamentos do sistema diretamente ao invés de simplesmente minimizar as sobrepressões do sistema. As avaliações dos potenciais benefícios econômicos foram feitas com comparações dos volumes de vazamento em casos de sistemas de água controlados e não controlados. As equações hidráulicas básicas não-lineares da rede, que descrevem as cargas nos nós e as vazões nos elementos, foram escritas em termos que explicitamente mostram o vazamento dependente de pressões e em termos que modelam o efeito das ações das válvulas. Estas equações foram linearizadas pelo método desenvolvido por Wood; Charles (1972), o que permitiu o desenvolvimento de um programa linear de mínimo vazamento para resolver o problema de controle de válvula. O método de linearização desenvolvido por Wood; Charles (1972) é iterativo. O processo iterativo termina quando a máxima discrepância entre as vazões.

(26) 43. do instante de cálculo e do instante anterior for menor que um valor de tolerância especificado. O problema de programação linear foi resolvido utilizando o método simplex revisado. Para mostrar o desempenho do método proposto no artigo, Jowitt; Xu (1990) usaram uma rede de água utilizada por outros autores em outros trabalhos. As operações das válvulas determinadas pelo algoritmo de otimização desenvolvido no artigo reduziram os vazamentos na rede principalmente durante a noite, quando o consumo é menor e as pressões tendem ser maiores. Durante o período de demanda de pico, a redução dos volumes de vazamento foi marginal. A redução global no vazamento foi por volta de 20%. A pesquisa teve como pontos altos utilizar um plano de controle para um período de 24 horas, que foi desenvolvido para simular o caráter dinâmico de uma rede real, além disto, as variações dos níveis dos reservatórios foram representadas indicando a prática usual de encher os reservatórios através de bombeamento durante a noite por ser mais barato. Um outro aspecto, é que a linearização dos termos que representam as ações das válvulas usada no artigo é diferente da que foi usada por Germanopoulos; Jowitt (1989) apud Jowitt; Xu (1990) e isto levou a uma solução mais eficiente para o problema. No artigo lido, a equação que representa a ação da válvula incorpora o valor da constante de abertura desta na iteração anterior à presente. O desempenho relativo dos dois métodos de linearização foram comparados através da máxima discrepância entre a vazão e o vazamento em iterações consecutivas e o método proposto pelo artigo leva a uma convergência melhor. O artigo também levou em conta que a minimização dos vazamentos na rede não poderia interromper a continuidade do abastecimento aos consumidores. Para isto, foi incorporado ao programa linear restrições exigindo que as cargas nos nós se mantivessem acima de valores mínimos especificados. A pesquisa teve como pontos baixos utilizar a equação de Hazen-Williams para relacionar as vazões e as perdas de carga. Esta equação não é realmente válida para os regimes de escoamento existentes e além disto, hoje em dia ela não é muito utilizada. A pesquisa desenvolvida utilizou uma equação que relaciona o vazamento com a pressão média de serviço baseada em dados experimentais, o que reduz a aplicabilidade do algoritmo, pois em outras circunstâncias a equação não representa a.

(27) 44. realidade. Além disto, a maioria das redes de distribuição de água não tem uma relação vazamento-pressão calibrada disponível. O algoritmo também não levou em conta a locação das válvulas. Perera; Codner (1996) desenvolveram uma metodologia genérica usando programação dinâmica estocástica (PDE) para determinar as regras de operação em termos de metas de funcionamento dos reservatórios para sistemas urbanos de suprimento de água. A PDE foi usada porque além de produzir teoricamente a solução ótima global, ela considera a distribuição de probabilidade teórica para os fluxos de água no sistema. A metodologia foi aplicada ao sistema urbano de suprimento de água de Melbourne na Austrália. A PDE é usada para determinar a operação ótima de um sistema urbano de suprimento de água com vários reservatórios. A operação ótima produz volumes de armazenamento no final de um período para vários estados de afluência e armazenamento no início do período. Estes volumes de armazenamento no final do período são analisados para deduzir as curvas de armazenamento alvo. Neste artigo, as curvas de armazenamento alvo são apresentadas como uma distribuição de probabilidade para cada armazenamento total do sistema que pode ser descrita pela média (chamada de curva de armazenamento alvo) e o desvio padrão de volumes de armazenamento individuais. As curvas de armazenamento alvo especificam a distribuição espacial dos volumes de armazenamento de cada reservatório dentro de um sistema de vários reservatórios. Elas podem ser um conjunto de curvas para um ano ou curvas diferentes para cada estação do ano. Para ilustrar o conceito de curva de armazenamento alvo, vamos considerar um sistema com dois reservatórios. Para um dado armazenamento total do sistema At em um dado período, as curvas de armazenamento alvo especificam os volumes de armazenamento nos reservatórios 1 e 2 como A1 e A2 respectivamente, onde a soma de A1 e A2 é igual a At. As curvas de armazenamento alvo são definidas para todo o intervalo de armazenamento total do sistema, fornecendo os volumes de armazenamento preferenciais de reservatórios individuais, podendo ser ótimos ou não. Existe uma região factível para as curvas de armazenamento alvo, que é igual à diferença entre a capacidade máxima de.

(28) 45. armazenamento total do sistema e a capacidade máxima de armazenamento do reservatório. A interpretação das curvas de armazenamento alvo é importante para entender como a água é armazenada em um sistema com vários reservatórios, quando a afluência durante um passo da simulação é maior que a demanda ou vice-versa. Por causa do excesso (falta) de água (diferença entre a afluência e a demanda no sistema total ou entre a demanda e a afluência), o armazenamento total do sistema aumenta (diminui) e as curvas de armazenamento alvo determinam onde este excesso (falta) de água deverá ser armazenado (distribuído). Isto é explicado pela comparação do gradiente da curva de armazenamento alvo de um reservatório com o da curva de armazenamento total. Um programa foi desenvolvido para determinar as curvas de armazenamento alvo para sistemas urbanos de suprimento de água com qualquer configuração. Para isto, um programa utilizando a teoria de Programação Linear (PL) foi utilizado para calcular a distribuição da água no sistema a partir das afluências fornecidas, as demandas e o armazenamento inicial e final nos reservatórios. Este programa utilizou uma função objetivo de minimização do custo total sujeita às restrições de capacidade de transporte de água nos tubos. Depois o programa desenvolvido utilizou a PDE e proveu a operação ótima para uma versão simplificada do sistema urbano de água de Melbourne e os resultados foram usados para deduzir as curvas de armazenamento alvo. A PDE utilizou a maximização da confiabilidade volumétrica, que é definida como a relação entre o volume total fornecido em um período de tempo pelo volume total de água demandado no mesmo período, como função objetivo sujeita às restrições do sistema. Maximizar a confiabilidade volumétrica reduz os déficits de demanda. Anteriormente, a confiabilidade volumétrica anual mostrou ser uma função objetiva satisfatória para determinar a operação ótima de sistemas de abastecimento de água urbanos (Perera (1985); Perera; Codner (1985) apud Perera; Codner (1996)). Os autores utilizaram dois métodos, a adoção da correlação cruzada dos fluxos de água e a aproximação corredor, para melhorar a eficiência computacional. Como foi dito anteriormente, a operação ótima produz volumes de armazenamento no final de um período para vários estados de afluência e.

(29) 46. armazenamento no início do período. Identificar e eliminar os estados infactíveis ou improváveis, reduz o esforço computacional. Isto é possível quando os fluxos de água tem uma alta correlação cruzada. Foi estudado que se o fluxo de água está em um local em um intervalo i, então o fluxo de água nos outros lugares estarão dentro dos intervalos (i  N) com 90% de certeza e N é 25% do número de intervalos do fluxo de água no local i. Os intervalos do fluxo de água foram definidos baseando-se no critério de probabilidade igual, considerando cada seqüência histórica do fluxo de água como uma série independente. Isto se chama adoção da correlação cruzada dos fluxos de água. A aproximação corredor foi desenvolvida com base no método de programação dinâmica diferencial discreta de Heidari et al (1971) apud Perera; Codner (1996). Se um estado de afluência e de armazenamento é necessário para otimizar a função objetivo em um estágio, um armazenamento inicial é selecionado para o estágio anterior. Um corredor é colocado ao redor do volume de armazenamento inicial e a otimização é realizada com respeito às possíveis combinações do armazenamento inicial dentro do corredor, considerando todos os intervalos do fluxo de água no estágio anterior. O volume de armazenamento que fornece o valor ótimo do estado dentro do corredor é comparado com o volume de armazenamento inicial. Se eles são diferentes, o novo volume de armazenamento é considerado como o novo volume de armazenamento inicial e o procedimento é repetido. Se os volumes de armazenamento são os mesmos, o valor ótimo para este estado é alcançado e o procedimento é realizado para outros estados do sistema. A pesquisa teve como pontos altos desenvolver um programa geral, que pode ser aplicado a qualquer configuração de sistema, além disto, o programa utilizou uma nova função objetivo e modificou a relação recursiva que é utilizada pela PDE para os sistemas urbanos de suprimento de água. Outro ponto, é que as curvas de armazenamento alvo obtidas ficaram logicamente corretas em termos de distribuição temporal e espacial do fluxo de água no sistema e a demanda do sistema. A pesquisa teve como pontos baixos usar uma versão simplificada do sistema urbano de suprimento de água de Melbourne e com isto não obteve o ótimo global para o sistema verdadeiro, além disto, a aproximação corredor não foi testada com outras funções objetivo..

(30) 47. Dandy;. Simpson;. Murphy. (1996). desenvolveram. uma. formulação. aperfeiçoada de algoritmo genético para otimização de redes hidráulicas. O AG usa uma escala de potência variável da função de ajuste. O expoente introduzido na função de ajuste cresce em magnitude à medida que o computador realiza os cálculos com o AG. Foi introduzido um operador de mutação de adjacência e foi utilizado o código Gray para representar o conjunto de variáveis que compõem o projeto de uma rede hidráulica. Os resultados da nova formulação foram comparados aos da formulação tradicional para o problema dos túneis de Nova York. Os resultados mostraram que o novo AG se desempenhou significativamente melhor que o tradicional. O novo AG levou a uma solução melhor que os métodos tradicionais anteriormente usados como a programação linear, a programação dinâmica, a programação não-linear e o método de pesquisa enumerativa. Reis; Porto; Chaudhry (1997) testaram um algoritmo genético para a locação de válvulas de controle e suas aberturas em uma rede de abastecimento de água para obter a máxima redução de vazamento para níveis de reservatório e demandas nodais dadas. Foi mostrado que as válvulas otimamente locadas em uma rede são muito mais efetivas em produzir uma redução máxima do vazamento. Reis; Porto; Chaudhry (1997) simularam vários padrões de demanda e concluíram que o vazamento em uma rede com válvulas otimamente locadas é praticamente independente da demanda total. Um estudo do efeito da variação de demandas na locação ótima das válvulas indicou várias combinações de locações das válvulas para os diferentes padrões espaciais de demandas nodais e para diferentes demandas totais. Savic; Walters (1997) desenvolveram um modelo de computador chamado GANET que envolve aplicação de AG para o problema de mínimo custo para projetos de redes de abastecimento de água. Para mostrar a capacidade do GANET, os autores resolveram três problemas anteriormente publicados e descobriram inconsistências nas predições do desempenho da rede causadas pelas diferentes interpretações do método de Hazen-Williams adotado nos estudos anteriores. Wardlaw; Sharif (1999) exploraram o potencial de formulações alternativas dos algoritmos genéticos aplicadas a sistemas de reservatórios e a problemas de horizonte finito determinístico em particular..

Referências

Documentos relacionados

Discussion The present results show that, like other conditions that change brain excitability, early environmental heat exposure also enhanced CSD propagation in adult rats.. The

5 “A Teoria Pura do Direito é uma teoria do Direito positivo – do Direito positivo em geral, não de uma ordem jurídica especial” (KELSEN, Teoria pura do direito, p..

2 - OBJETIVOS O objetivo geral deste trabalho é avaliar o tratamento biológico anaeróbio de substrato sintético contendo feno!, sob condições mesofilicas, em um Reator

Encontram-se, no capítulo 3 as especificidades deste trabalho, com descrição do processo de migração e dos motivos principais para adoção do Software Livre

nesta nossa modesta obra O sonho e os sonhos analisa- mos o sono e sua importância para o corpo e sobretudo para a alma que, nas horas de repouso da matéria, liberta-se parcialmente

Este trabalho buscou, através de pesquisa de campo, estudar o efeito de diferentes alternativas de adubações de cobertura, quanto ao tipo de adubo e época de

O objetivo do curso foi oportunizar aos participantes, um contato direto com as plantas nativas do Cerrado para identificação de espécies com potencial

Neste estudo foram estipulados os seguintes objec- tivos: (a) identifi car as dimensões do desenvolvimento vocacional (convicção vocacional, cooperação vocacio- nal,