• Nenhum resultado encontrado

Os conjuntos de soluções Pareto-ótimas podem conter inúmeras soluções, portanto, é difícil para o decisor selecionar uma única solução que corresponda ao melhor compromisso, segundo suas preferências (CHEIKH et al., 2010). Neste contexto, métodos de tomada de decisão multicritério (TDMC) são na atualidade utilizados, uma vez que a análise pós Pareto auxilia o decisor ao fornece um subconjunto globalmente representativo e com alto grau de similaridade, do conjunto de soluções não dominadas Pareto, que sejam suficientemente pequenos para serem tratáveis (CARPITELLA et al., 2018; CHAUDHARI; DHARASKAR; THAKARE, 2010; VEERAPPA; LETIER, 2011). Ou seja, ao invés de inspecionar um número grande de soluções individuais, o decisor inspecionará pequenos grupos de soluções, com alto grau de similaridade, compostos por um número menor de soluções. Dessa forma, a sua atenção estará focada sobre as características de um grupo, segundo suas preferências, tornando essa etapa mais eficaz (VEERAPPA; LETIER, 2011).

A literatura apresenta diferentes métodos TDMC em trabalhos que buscaram alcançar eficiência nessa etapa. Com isso, Andersson (2002) propôs o método algoritmo genético multiobjetivo combinado com métodos de superfície de resposta (MSR), para avaliar a robustez das soluções Pareto-ótimas geradas. Para tanto, foram otimizados quatro objetivos pelo algoritmo genético multiobjetivo. Posteriormente, utilizou-se um método estatístico baseado emdesign de experimentos com o MSR para classificar as soluções Pareto-ótimas e auxiliar no processo de tomada de decisão. O MSR tem a função de construir aproximações do comportamento de um sistema com base em resultados dos vários pontos no espaço do projeto com as superfícies resultantes, podendo ser lineares ou quadráticas, ajustadas nesses pontos. O método estatísticodesign de experimentos determina onde, no espaço do projeto, esses pontos devem ser localizados, obtendo-se o melhor ajuste possível, permitindo localizar áreas desejadas dentro da fronteira de Pareto, que possuam soluções mais favoráveis e que atendam às expectativas em relação à tarefa simulada, facilitando a seleção da solução ótima pelo decisor.

Cheikh et al. (2010) propuseram selecionar um conjunto restrito de soluções que fosse mais representativo dentre os pertencentes à fronteira de Pareto. Os autores se basearam nos métodos de agrupamento que consistem em descobrir, a partir de uma população, grupos de indivíduos com características semelhantes, para auxiliar o decisor no processo de tomada de decisão. Para tanto, foi preciso determinar uma solução representativa dentro de cadacluster. Isso é feito por meio do cálculo da somatória das distâncias quadradas entre a solução ideal e as soluções docluster, dessa forma a solução mais próxima da solução ideal será a escolhida como representante docluster. Cada grupo é formado por soluções com propriedades semelhantes, facilitando a etapa de tomada de decisão, uma vez que o decisor terá que avaliar uma única solução porcluster.

Já Carpitella et al. (2018) utilizaram a combinação de duas análises, a primeira abordagem multiobjetivo NSGA-II para otimizar quatro critérios, sendo: falta de serviço operacional, custo operacional, uniformidade de pressão e resiliência da rede. Com isso, foi gerada a fronteira de Pareto formada de soluções não-dominadas. A segunda abordagem trata-se da Técnica para Ordem de Preferência por Similaridade à Solução Ideal (TOPSIS) utilizada para classificar o conjunto de soluções Pareto-ótimas com base em um conjunto de critérios ponderados, com o intuito de alcançar um ranking final. A TOPSIS baseia-se no conceito de distância para uma solução ideal positiva e negativa. Com isso, a melhor alternativa é caracterizada pela menor distância a primeira e a maior até a última. A TOPSIS utiliza uma matriz de decisão contendo avaliações de alternativas sob um conjunto de critérios de avaliação e vetor de pesos que refletem as preferências dos especialistas envolvidos no projeto, auxiliando na etapa de tomada de decisão.

Outra forma de analisar o conjunto de soluções pertencente à fronteira de Pareto, espaço n-dimensional, é calculando a similaridade entre o ponto de utopia (ideal) e as soluções Pareto-ótimas em função da distância entre os mesmos. A maneira mais comum de calcular a distância entre dois pontos a e b no espaço n-dimensional é conhecida por distância euclidiana (𝑋𝑎,𝑏)(Equação 3.1) (NETO; MOITA, 1998).

𝑋2 𝑎,𝑏 = 𝑛 ∑ 𝑗 =1 (𝑑𝑎𝑗 − 𝑑𝑏𝑗) 2 (3.1)

Vale ressaltar que esse método pressupõe saber qual a solução ideal, mas essa condição nem sempre é verdadeira.

Zio e Bazzo (2012) compararam alguns métodos TDMC buscando caracterizar as diferentes abordagens segundo suas vantagens e limitações no que diz respeito ao suporte que proporcionam ao decisor no processo de seleção de soluções preferenciais. Logo foram analisados métodos antes e pós Pareto. A abordagem Algoritmo Genético Orientado Multiobjetivo (G-MOGA) gerou a fronteira de Pareto focalizada, ou seja, as preferências do decisor foram embutidas no algoritmo genético para influenciar a busca de soluções não dominadas em direção à região preferida. Os métodos de pós processamento da Pareto considerados, por outro lado, mostraram-se eficazes na redução do número de soluções. Um método de agrupamento foi aplicado, classificando subtrativamente as soluções de acordo com a distância relativa geométrica da Fronteira Pareto e, em seguida, selecionou uma solução representativa dentro de cada cluster. Os Diagramas de Nível foram usados para representar e analisar efetivamente as Fronteiras de Pareto reduzidas. Os diagramas selecionam as soluções representativas por meio da distância das mesmas em relação a solução ideal (mas não viável), e em relação a todos os objetivos simultaneamente. Outro método utilizado foi o de atribuição de preferências difusas, caso o decisor tivesse preferências definidas. Dessa forma é atribuída uma pontuação a cada classe de preferência. Já o método de mapas auto-organizáveis (SOM) eData Envelopment Analysis (DEA), foram aplicados para o agrupamento das soluções Pareto-ótimas e exclusão das soluções menos eficientes, respectivamente.

Devido à sua simplicidade e versatilidade, o método k-means permanece popular desde que foi proposto há três décadas por Moore (1959). Chaudhari, Dharaskar e Thakare (2010) utilizaram a abordagem algoritmo de agrupamentok-means, caracterizado por ser adequado para etapa de tomada de decisão quando o decisor não tem um conhecimento prévio da importância relativa dos objetivos conflitantes no problema de otimização muiltiobjetivo. Para tanto, primeiramente aplica-se a análise de grupos. A determinação do número “ótimo” de grupos (k), nesse conjunto, pode ser realizada utilizando o diagrama de silhueta para avaliar a qualidade de uma alocação de agrupamento. Para cada grupo é selecionada uma solução pertencente a Pareto representativa, por meio do cálculo do centroide, onde a solução mais próxima de seu centroide de grupo é escolhida. Nesse momento o decisor poderá selecionar a solução mais próxima do ponto ideal ou utópico dos múltiplos objetivos, em um espaço padronizado. Para realização do método proposto por Chaudhari, Dharaskar e Thakare (2010) um códigoMatlab foi desenvolvido.

Veerappa e Letier (2011) também se basearam em métodos de agrupamento para classificar as soluções Pareto otimizando o custo e valor, considerados requisitos base na área industrial. A técnica utilizada foi o agrupamento hierárquico aglomerativo padrão, o qual se inicia com um únicocluster contendo todos os elementos, com posterior divisão. Com isso, a cada iteração, utiliza-se um algoritmoflat (k-means) de forma a separar o conjunto corrente em cluster menores, repetindo-se até que obtenha-se apenas conjuntos compostos de um único elemento ou até o critério de parada. Esse método pode ser definido como uma árvore que conecta todos os elementos do conjunto de tal forma que a soma das distâncias de todas as arestas existentes seja mínima.

Uma variante do método é proposto por Zhao, Deng e Ngo (2018) onde uma nova função objetivo de agrupamento foi desenvolvida sendo viável em todos os espaços de soluções da Fronteira Pareto. Os autores buscaram melhorar a relação entre a qualidade e eficiência de agrupamento. Dessa forma, o procedimento de iterações ficou mais simples e convergiu a um ótimo local consideravelmente melhor. A eficiência foi estudada extensivamente em agrupamento de documentos, pesquisa de vizinhos mais próximos e agrupamento em diferentes cenários de imagens, onde foi possível observar um desempenho superior.

Para ilustrar o método de análise de pós processamento da fronteira Pareto Taboada e Coit (2006) otimizaram simultaneamente dois objetivos: o problema de alocação de redundância (RAP) e o escalonamento da operação de gargalo de uma linha de fabricação da placa de fiação impressa (PWB). A otimização foi realizada pelo algoritmo NSGA-II e a análise de pós processamento da Pareto utilizou o algoritmo de agrupamento k-means fornecendo ao decisor um conjunto menor de compensações ótimas.

O algoritmok-means é uma escolha popular por sua simplicidade, eficiência e desempenho moderado e relativamente estável em diferentes problemas (ZHAO; DENG; NGO, 2018). O agrupamento da fronteira de Pareto pode ser feito com base em reursos internos e externos. Os pontos são agrupados em clusters (k) de acordo com uma característica semelhante. Ou seja, o agrupamento é feito calculando o centroide de cadacluster e atribuindo cada ponto ao grupo com o centroide mais próximo. O centroide não é um ponto real, sendo uma média de todos os elementos do cluster. Para a função de associação, cada ponto de dados pertence ao seu centro mais próximo, formando uma partição dos dados (TABOADA; COIT, 2006).

Os centros são colocados aleatoriamente, assim, os dados são agrupados de acordo com a distância entre um ponto e os centros. Portanto, tomando um dado de entrada 𝑥𝑖 com

dimensões 𝑚 escritas pelo vetor 𝑥𝑖 = [𝑥1, 𝑥2, ..., 𝑥𝑚] e um centro 𝑐𝑗 = [𝑐1, 𝑐2, ..., 𝑐𝑚] a distância euclidiana pode ser escrita pela Equação 3.2 (BRENTAN, 2017).

𝑑𝑖𝑗 =

‖𝑥𝑖 − 𝑐𝑗‖ (3.2)

Um dado 𝑖 é classificado como pertencente ao grupo 𝑗 se a menor distância entre esses dados e todos os centros forem 𝑑𝑖 𝑗 (BRENTAN, 2017). Um processo iterativo começa recalculando a posição dos centros e agrupando novamente o ponto. É necessário recalcular a posição dos centros para avaliar possíveis mudanças em suas posições. O processo é repetido até que não ocorra nenhuma alteração (CHEIKH et al., 2010).

Um problema frequente de muitos algoritmos de agrupamento, por exemplok-means, é a escolha do número de grupos. Assim, diferentes índices de validade de grupos parciais são sugeridos para resolver este problema, uma vez que esta é uma questão importante para o agrupamento geral (TABOADA; COIT, 2006; LIU et al., 2005). O método de plotagem em silhueta (ROUSSEEUW, 1987) é uma dessas técnicas de avaliação de agrupamento que indica a qualidade de um processo. Em seguida, o número de grupos que otimiza o índice de qualidade sob consideração é escolhido como a melhor partição.

Rousseeuw (1987) sugeriu o gráfico de silhueta como critério para analisar a qualidade de grupos de técnicas de agrupamentos. Para tanto, o valor da silhueta para cada ponto depende das semelhanças entre os pontos em seu próprio grupo e em comparação com pontos em outros grupos. O valor conhecido como a largura da silhueta 𝑠(𝑥𝑖) (Equação3.3) é um indicador de confiança na associação entre amostran e o objeto 𝑥𝑖 (𝑥𝑖 = [𝑥1, 𝑥2, ..., 𝑥𝑛]). Com isso, o valor

do indicador Silhueta 𝑠(𝑥𝑖) varia de +1 ( pontos muito distantes dos clusters vizinhos) a −1 ( pontos que provavelmente estão atribuídos aocluster errado). O valor 0 indica que os pontos não estão distintamente em umcluster ou outro, pois 𝑎(𝑥

𝑖) e 𝑏(𝑥𝑖) são aproximadamente iguais

e, portanto, não está claro se 𝑠(𝑥𝑖) está atribuído a A ou B. O objeto 𝑥𝑖fica igualmente distante

de ambos, portanto pode ser considerado como um caso intermediário (ROUSSEEUW, 1987).

𝑠 (𝑥𝑖) = [𝑏(𝑥𝑖) − 𝑎(𝑥𝑖)] /𝑚𝑎𝑥 [𝑎(𝑥𝑖) − 𝑏(𝑥𝑖)] (3.3)

em que, 𝑎(𝑥𝑖) a distância média entre 𝑥𝑖e todos os objetos do seu grupo, 𝑏(𝑥𝑖) será a distância

média entre 𝑥𝑖 e um outro grupo no qual 𝑥𝑖 não pertença. Dessa forma, o valor da Silhueta de