• Nenhum resultado encontrado

Otimização multiobjetivo da disponibilidade e custo em sistemas redundantes

N/A
N/A
Protected

Academic year: 2021

Share "Otimização multiobjetivo da disponibilidade e custo em sistemas redundantes"

Copied!
117
0
0

Texto

(1)

CÁSSIO PEREIRA DE PAULA

Otimização Multiobjetivo da Disponibilidade

e Custo em Sistemas Redundantes

CAMPINAS 2016

(2)

Otimização Multiobjetivo da Disponibilidade

e Custo em Sistemas Redundantes

Orientador: Prof. Dr. Hélio Fiori de Castro

CAMPINAS 2016

Dissertação de Mestrado apresentada à Faculdade de Engenharia Mecânica da Universidade Estadual de Campinas como parte dos requisitos exigidos para obtenção do título de Mestre em Engenharia Mecânica, na Área de MECÂNICA DOS SÓLIDOS E PROJETO MECÂNICO.

ESTE EXEMPLAR CORRESPONDE À VERSÃO FINAL DA DISSERTAÇÃO DEFENDIDA PELO(A) ALUNO(A) CÁSSIO PEREIRA DE PAULA., E ORIENTADA PELO(A) PROF(A). DR(A) HÉLIO FIORI DE CASTRO.

... ... ASSINATURA DO(A) ORIENTADOR(A)

(3)
(4)

COMISSÃO DE PÓS-GRADUAÇÃO EM ENGENHARIA MECÂNICA DEPARTAMENTO DE MECÂNICA DOS SÓLIDOS E PROJETO MECÂNICO

DISSERTAÇÃO DE MESTRADO ACADEMICO

Otimização Multiobjetivo da Disponibilidade

e Custo em Sistemas Redundantes

Autor: Cássio Pereira de Paula Orientador: Hélio Fiori de Castro

A Banca Examinadora composta pelos membros abaixo aprovou esta Dissertação:

Prof. Dr. Hélio Fiori de Castro Instituição: UNICAMP - FEM

Prof. Dra. Kátia Lucchesi Cavalca Dedini Instituição: UNICAMP - FEM

Prof. Dra. Zilda de Castro Silveira Instituição: USP/ São Carlos

A Ata da defesa com as respectivas assinaturas dos membros encontra-se no processo de vida acadêmica do aluno.

(5)

Dedico este trabalho às minhas avós Lindalva (in memorian) e Maria (in memorian), aos meus pais, irmã, tios (Cleber e Suely) e também à minha noiva Gabrielly.

(6)

Agradeço primeiramente a Deus por me conceder uma família maravilhosa, bons amigos a quem posso confiar e contar a todo o momento e por me dar forças para realizar mais um sonho.

Este trabalho também não poderia ser concluído sem a ajuda e apoio de diversas pessoas, portanto gostaria de prestar meus agradecimentos também a elas:

Agradeço o meu pai (Ruy) e minha a mãe (Raimunda) que sempre estiveram presente em minha vida, me educando, apoiando e orientando. Família ao qual sou grato por tudo conquistado até hoje, com muito esforço, dedicação e amor.

À minha irmã Camila de Paula, que em todos os momentos da minha vida serviu como referencial, sempre me orientando, aconselhando e suportando em diversas situações e por estar sempre disposta a ajudar.

À minha noiva Gabrielly que desde 2013 me faz o homem mais feliz do mundo. Ao meu orientador e amigo Hélio Fiori que me acolheu e ajudou em todas as ocasiões, agradeço sua generosidade e seu exemplo como pessoa.

A todos os amigos do LAMAR, que sempre estavam dispostos a ajudar, principalmente Thales, Eline e Laís por ajudar durante o trabalho. Agradeço em especial à Profa. Dra. Katia Lucchesi Cavalca Dedini, por ter me dado à chance de estar nesse laboratório e ter me apresentado ao meu orientador.

Agradeço também a todos os verdadeiros amigos: Igor, Rebeca, Hannah, Anderson, Thiago, Daniel, Victor Boscá, Cesar, Alan, Raimundo e Henrique.

A FAPEAM (Fundação de Amparo à Pesquisa do Estado do Amazonas) pelo suporte financeiro.

(7)

Este trabalho aborda a utilização de métodos de otimização multiobjetivo aplicados na resolução do problema (disponibilidade versus custo) em sistemas redundantes. Neste processo, as variáveis de decisão são: a quantidade ideal de componentes redundante e a distribuição adequada do percentual de manutenção em cada subsistema. Serão utilizados durante as simulações três algoritmos de otimização multicritério e são eles: Algoritmo Genético, Enxame de Partículas e Colônia de Vagalumes. Assim, foram formulados três problemas para realização da análise. Primeiramente, será proposto um processo multiobjetivo (Disponibilidade e Custo) para resolução do problema de otimização, no qual duas abordagens serão utilizadas para a formulação matemática da função disponibilidade

( ) e são elas: Teoria de probabilidade e Teoria estocástica (Cadeia de Markov). O segundo problema analisa o sistema redundante considerando a sobrecarga após a falha de componentes e por final, o terceiro problema analisa um processo de captação de água de uma organização, objetivando propor melhorias viáveis, do ponto de vista econômico, na disponibilidade do sistema. Em todas as aplicações analisadas neste trabalho, foi possível concluir, que para obtenção de um conjunto de soluções satisfatórias, a correta definição dos objetivos de projeto é essencial. Assim como o processo de otimização mono objetivo possui limitações, deve-se também considerar que a complexidade do problema aumenta de acordo com a quantidade de funções objetivo. É importante ressaltar que em processos de otimização com múltiplos objetivos, a escolha do ponto ótimo é resultante de uma tomada de decisão, na qual deve ser considerado o contexto em que o sistema está inserido.

Palavras-Chave: Confiabilidade, Cadeia de Markov, Disponibilidade, Custo, Sistemas Redundantes Ativos, Otimização Multicritério.

(8)

This work present the use of multi-objective optimization methods applied to solve the problem (availability versus cost) in the redundant system. In this optimization process the decision variables are the optimum amount of redundant components and appropriate distribution of the maintenance percentage in each subsystem. During the simulations three multi-objective algorithms will be used and they are: Genetic Algorithm, Particle Swarm and Firefly Algorithm. Thus three problems were formulated to perform the analysis. The first problem will be proposed a multi-objective optimization process of availability versus cost. Two approaches will be used for mathematical formulation of the availability function ( ) and they are: Probability theory and Stochastic (Markov Chain). The second issue analyzes the redundant system considering the overhead after component failure. Finally, the third problem analyzes a water catch process in a factory. The aim is to propose viable improvements in the availability value considering an economic point of view. In all applications analyzed in this work it was possible to note the correct definition of project’s functions is essential to obtain a set of good solutions. Because the single objective process possess limitations, it is important to consider that the problem complexity increases with the quantity of objectives. It is noticeable that in process optimization with multiple objectives, when choosing the optimum results from a decision-making, the context in which the system is inserted should be considered.

Keywords: Reliability, Markov chain, Availability, Cost, Active Redundant Systems, multi-objective Optimization.

(9)

Figura 2.1 Classificação dos algoritmos de otimização ... 29

Figura 3.1 Curva da banheira ... 35

Figura 3.2 Função de massa de probabilidade ... 38

Figura 3.3 Função cumulativa para o caso discreto... 38

Figura 3.4 Função densidade de probabilidade. ... 39

Figura 3.5 Função cumulativa para o caso contínuo ... 39

Figura 3.6 Ilustração do tempo médio entre falha ... 42

Figura 3.7 Sistema em série ... 48

Figura 3.8 Sistema redundante em paralelo... 48

Figura 3.9 Sistema em série sem redundância ... 49

Figura 3.10 Redundância de sistemas... 49

Figura 3.11 Redundância de Unidades ... 50

Figura 4.1 Processo de mutação e crossover ... 67

Figura 4.2 Fluxograma de análise do primeiro problema de otimização ... 74

Figura 4.3 Sistema Redundante ... 75

Figura 4.4 Fluxograma da formulação através da Cadeia de Markov ... 77

Figura 4.5 Montagem da Matriz Rho ... 79

Figura 4.6 Processo de captação de água ... 82

Figura 4.7 Sistema redundante do processo de captação e distribuição de água ... 83

Figura 5.1 Vetor [X] contendo as variáveis de decisão (exemplo) ... 86

Figura 5.2 Disponibilidade x Tempo (exemplo) ... 86

Figura 5.3 Fronteira de Pareto (NSGA2) – Teoria de probabilidade e estatística (problema1)87 Figura 5.4 Soluções detalhadas NSGA2 (Problema 1) ... 88

Figura 5.5 Fronteira de Pareto (MOFA) - Teoria de probabilidade e estatística (problema1) . 89 Figura 5.6 Soluções detalhadas MOFA (problema1) ... 89

Figura 5.7 Fronteira de Pareto (MOPSO) -Teoria de probabilidade e estatística (problema1) 90 Figura 5.8 Soluções detalhadas MOPSO (problema1) ... 91

Figura 5.9 Fronteira de Pareto para os três algoritmos-Teoria de probabilidade e estatística (problema1) ... 92

Figura 5.10 Fronteira de Pareto (NSGA2) - Markov (problema1) ... 93

Figura 5.11 Soluções detalhadas NSGA2 (Problema 1)... 94

(10)

Figura 5.15 Soluções detalhadas NSGA2 (Problema 1)... 97

Figura 5.16 Fronteira de Pareto para os três algoritmos - Markov (problema1) ... 98

Figura 5.17 Processo de otimização multicritério e processo restrito (Custo) ... 99

Figura 5.18 Fronteira de Pareto - Análise do coeficiente linear (Problema 2) ... 101

Figura 5.19 Pareto detalhado - Análise do coeficiente linear (Problema 2) ... 101

Figura 5.20 Disponibilidade atual para o sistema de captação de água ... 103

Figura 5.21 Disponibilidade atual para o sistema de captação de água ... 104

Figura 5.22 Fronteira de Pareto - Proposta de melhoria ... 105

Figura 5.23 Proposta de melhoria na disponibilidade (problema 3) ... 106

Figura A.1 Fronteira de Pareto - Análise da evolução quadrática (Problema 2) ... 115

(11)

Tabela 3.1 Principais distribuições de probabilidade aplicadas em confiabilidade ... 43

Tabela 3.2 Matriz de Estados do Processo de Markov ... 56

Tabela 3.3 Triangulo de Pascal para combinação de três componentes ... 57

Tabela 3.4 Contribuição da analogia do sistema com o triângulo de Pascal ... 58

Tabela 3.5 Matriz de Estados para três componentes ... 58

Tabela 3.6 Definição das equações de Processo de Markov ... 59

Tabela 4.1 Matriz de estados para sistema redundante com três componentes ... 80

Tabela 4.2 Função taxa de falha para até três componentes falhados ... 81

Tabela 4.3 Dados falha e reparo para análise do problema 3 ... 83

Tabela 4.4 Custos envolvidos na análise do problema 3 ... 83

Tabela 5.1 Dados para simulação do problema 1 ... 84

Tabela 5.2 Parâmetros para o Algoritmo Genético ... 85

Tabela 5.3 Parâmetros para o Algoritmo Vagalume ... 85

Tabela 5.4 Parâmetros para o Algoritmo Exame de Partículas ... 86

Tabela 5.5 Variáveis de decisão e pontos no espaço de projetos (NSGA2) ... 88

Tabela 5.6 Variáveis de decisão e pontos no espaço de projetos (MOFA) ... 90

Tabela 5.7 Variáveis de decisão e pontos no espaço de projetos (MOPSO) ... 91

Tabela 5.8 Variáveis de decisão e pontos no espaço de projetos (NSGA2) ... 94

Tabela 5.9 Variáveis de decisão e pontos no espaço de projetos (MOFA) ... 96

Tabela 5.10 Variáveis de decisão e pontos no espaço de projetos (MOPSO) ... 97

Tabela 5.11 Análise do coeficiente linear - Coeficientes da equação de sobrecarga ... 100

Tabela 5.12 Resultados Experimento 1 ... 102

Tabela 5.13 Proposta de melhoria - problema 3 ... 105

Tabela 5.14 Variáveis de decisão para a proposta de melhoria ... 106

Tabela A.1 Análise da evolução quadrática da sobrecarga ... 115

(12)

Letras Latinas

– Disponibilidade em um intervalo de tempo T – Disponibilidade em regime permanente A(t) – Disponibilidade instantânea

– Complementar da disponibilidade instantânea – Disponibilidade de um sistema redundante

[ ] – Vetor contendo a disponibilidade de cada subsistema redundante – Intervalo de integração

– Intervalo de integração

– Custo de aquisição de um componente para o sistema

– Tamanho do vetor coluna que representa dos estados do processo estocástico – Componentes em operação em um estado

– Fator cognitivo de uma partícula – Fator social de uma partícula

– Custo da atividade rotineira de manutenção no subsistema (i) – Custo do percentual de recurso de manutenção aplicado – Contador de componentes falhados em um estado

( ) – Custo de manutenção corretiva em um intervalo (T) – Razão de dependabilidade

1 – Dependabilidade quando nenhum recurso de manutenção é aplicado e – Número de Euler

∈ - Vetor de números aleatórios obtidos a partir de uma distribuição normal , – Conjunto espaço de estados do processo estocástico

, – Funções objetivo do processo de otimização ( ) – Função de massa/densidade de probabilidade ( ) – Função de probabilidade acumulada

( ) – Inequação de restrição em um problema de otimização ( ) – Equação de restrição em um problema de otimização – Índice de impacto, Intensidade de luz

(13)

– Número máximo de restrições em um problema de otimização (inequação) – Número de restrições em um problema de otimização (equação)

- Número máximo de restrições em um problema de otimização (equação) , , – Estados do processo estocástico

M(t) – Mantenabilidade

– Número de funções objetivo

– Número máximo de funções objetivo

– Número de possíveis estados de um processo estocástico – Número total de itens testados em um experimento aleatório ( ) – Número de itens falhados

( ) – Número de itens sobreviventes

– Passos de tempo (fases), quantidade de subsistemas, número de variáveis de decisão ( ) – Função zero ou ordem

– Matriz de transição de estados

– Probabilidade de um sistema sair do estado (i) para o estado j ( )

– Matriz de transição em (n) fases de tempo

( ) – Probabilidade de transição do estado (i) para o estado (j) em (n) fases de tempo

– Probabilidade

(0) – Vetor de condições iniciais do sistema

– Matriz geradora dos coeficientes da equação diferencial ( ), ( ) – Probabilidade de falha

, – Valores aleatórios obtidos do intervalo [0,1]

– Percentual de recursos de manutenção aplicado em um subsistema ( ) – Confiabilidade

– Matriz de taxa de transição

– Distância cartesiana entre dois vagalumes – Estados operacionais do sistema

– Tempo, Iteração

– Intervalo de tempo, conjunto de parâmetros de tempo, transposta – Velocidade de uma partícula

(14)

– Posição de uma partícula

– Estado atual do processo estocástico – Estado futuro do processo estocástico [ ] – Vetor solução do problema de otimização

– Processo estocástico – Variável aleatória

( ) – Estado do processo estocástico no tempo (t) – Posição do vagalume

– Vetor de equilíbrio de um processo estocástico regular – Fator de inércia

– Número de componentes redundantes em um subsistema

Letras gregas

– Parâmetro de escala, Parâmetro de aleatoriedade, Incremento na função taxa de falha – Parâmetro de forma, Atratividade de um vagalume, coeficiente de incremento

– Atratividade máxima quando a distância entre os vagalumes é zero ( ) – Vetor distribuição do processo estocástico em (n) passos de tempo - Variação

– Coeficiente de absorção de luz, Incremento na função taxa de falha – Taxa de falha

– Taxa de Reparo

– Taxa de mudança entre os estados, Matriz taxa de transição

Subscritos

t – Tempo inicial t – Tempo final

(15)

– estado de um processo estocástico.

s - corresponde a um sistema de engenharia, formado por subsistemas ou estágios.

Superescritos

– Limite inferior de possíveis valores para a variável – Limite superior de possíveis valores para a variável

Abreviações

CDF Cumulative Distribution Function

DNA Deoxyribonucleic Acid EA Evolutionary Algorithm ES Evolutionary Strategies GA Genetic Algorithm

LAMAR Laboratório de Máquinas Rotativas da UNICAMP

MOFA Multiobjective Firefly Algorithm

MOPSO Multiobjective Particle Swarm Optimization

MTTF Mean Time To Failure [unidade de tempo] MTTR Mean Time To Repair [unidade de tempo] MTBF Mean Time Between Failure [unidade de tempo]

NSGA2 Non Dominated Sorted Genetic Algorithm 2

(16)

1 INTRODUÇÃO ... 18

1.1 Objetivo Geral ... 20

1.2 Objetivos Secundários ... 20

1.3 Descrição dos Capítulos ... 20

2 REVISÃO BIBLIOGRÁFICA ... 22

3 MODELAGEM DA CONFIABILIDADE ... 34

3.1 Abordagem Da Confiabilidade Por Probabilidade E Teoria De Conjunto ... 37

3.1.1 Distribuições de probabilidade ... 42

3.1.2 Análise da disponibilidade e dependabilidade... 45

3.1.3 Sistemas redundantes ... 47

3.2 Modelagem Teórica de Processos Estocásticos e Cadeias de Markov ... 50

3.2.1 Processos estocásticos ... 50

3.2.2 Cadeias de Markov ... 52

3.2.3 Matriz de transição ... 53

3.2.4 Distribuição da cadeia de Markov e cadeias regulares ... 54

3.2.5 Cadeia de Markov aplicada na análise da confiabilidade ... 56

4 FORMULAÇÃO DO PROBLEMA ... 63

4.1 Análise de Custo no Projeto de Produto ... 63

4.1.1 Análise de custos em sistemas redundantes ... 64

4.2 Métodos de Otimização ... 65

4.2.1 Algoritmo genético (NSGA2) ... 66

4.2.2 Algoritmo multiobjetivo colônia de vagalumes (MOFA) ... 68

4.2.3 Algoritmo multiobjetivo Enxame de Partículas (MOPSO) ... 71

4.3 Formulação de Problemas de Otimização da Disponibilidade e Custo. ... 73

4.3.1 Problema 1 - Otimização multiobjetivo disponibilidade versus custo em um sistema redundante. ... 74

(17)

distribuição de água ... 81

5 SIMULAÇÃO E RESULTADOS ... 84

5.1 Problema 1 - Otimização multiobjetivo disponibilidade versus custo em um sistema redundante. ... 84

5.1.1 Problema 1 - Análise e resultado - Método Clássico... 87

5.1.2 Problema 1 - Análise e resultado - Método de Markov ... 93

5.1.3 Discussão ... 98

5.2 Problema 2 - Análise de um sistema redundante com sobrecargas ... 100

5.3 Problema 3 - Análise da disponibilidade versus custo em um sistema de distribuição de água ... 103

6 CONCLUSÕES E RECOMENDAÇÕES FUTURAS ... 108

(18)

1 INTRODUÇÃO

O avanço da globalização interliga o mundo no que tange aspectos econômicos, sociais e políticos, o que coopera para uma maior concorrência entre os fabricantes de bens tangíveis e intangíveis. Neste mercado competitivo, com uma tendência tecnológica apontando para a garantia da qualidade temporal de sistemas, a utilização de medidas que assegurem o desempenho projetado se faz indispensável. Assim, o uso do conceito de confiabilidade tornou-se uma importante grandeza probabilística e de diferencial competitivo. A confiabilidade pode ser entendida como a probabilidade de um item executar satisfatoriamente as funções para o qual foi projetado, em um determinado tempo e com condições externas de operação especificadas.

O avanço tecnológico permite o desenvolvimento de sistemas mais complexos, sendo um dos diferenciais competitivos a garantia de pleno funcionamento. Faz-se necessário nos dias de hoje desenvolver sistemas com alta confiabilidade, pois assim é possível operar em boas condições por um longo período de tempo, desempenhando satisfatoriamente as funções de projeto.

Neste contexto, o cliente tem se tornado mais exigente, almejando produtos com alto valor agregado, baixo custo e duradouros. A operação prolongada de sistemas de engenharia é uma exigência vital em muitos domínios, como na produção industrial, distribuição de energia, serviços, etc. Falhas causadas por fatores aleatórios devem ser estudadas a fim de evitar danos não só econômicos, mas também sociais.

Juntamente com o conceito de confiabilidade, é importante também o entendimento da disponibilidade ( ), sendo esta a probabilidade de o sistema estar pronto para uso em um determinado tempo, conceito este que também considera a probabilidade de reparo com sucesso, Mantenabilidade ( ).

O aumento da disponibilidade em sistemas pode ser alcançado por meio de melhorias na confiabilidade e mantenabilidade de partes componentes, ou através da utilização de sistemas redundantes. No entanto, os dois caminhos possíveis aumentam também outros parâmetros indesejáveis como custo, volume, peso. Esses efeitos indesejáveis tem um impacto direto na eficiência do processo de desenvolvimento, sendo esta relacionada com a otimização de parâmetros que influenciam o desempenho.

(19)

Neste trabalho, a possibilidade de incremento da disponibilidade será estudada com o uso de componentes redundantes, pois durante a falha de um componente, a unidade redundante executa a função de projeto, tornando o sistema capaz de superar a falha. Em todos os casos, este aumento na taxa de disponibilidade gera maiores custos (investimento), porém em algumas ocasiões, como exemplo a indústria aeronáutica, a confiabilidade é essencial.

É possível notar que o incremento da disponibilidade pode fazer o produto mais caro. No entanto, a utilização de técnicas de otimização a fim de relacionar o aumento da taxa de disponibilidade com o investimento (custo) necessário é uma interessante proposta para avaliar o número ideal de redundâncias e o direcionamento da aplicação de recursos de manutenção em um projeto.

Para formulação de problemas de otimização, são necessárias uma ou mais funções objetivo, bem como as restrições de projeto assumindo formas de inequações ou equações. No contexto de otimização, deve-se destacar que, em problemas com apenas uma função objetivo a meta de resolução é encontrar o ótimo global, ou seja, um único ponto que satisfaça a todas as restrições do problema. Em problemas com múltiplos objetivos, a solução é apresentada por meio de um conjunto de pontos ótimos. Nesses casos, usualmente, a decisão sobre qual é a melhor resposta está vinculada ao processo de tomada de decisão.

A função disponibilidade pode ser formulada por intermédio da teoria de confiabilidade, que utiliza dos princípios da teoria de conjuntos, probabilidade e estatística, bem como por meio de conceitos de processos estocásticos, modelados através da Cadeia de Markov.

Propõe-se aplicar e analisar três problemas de otimização multiobjetivo envolvendo sistemas redundantes. Como contribuição, este trabalho fornece uma visão inicial (hipótese) sobre análise de sobrecargas, no qual a função taxa de falha varia de acordo com a quantidade de componentes funcionais em determinado estado. Em um dos problemas, uma aplicação da teoria desenvolvida será utilizada para tratar um caso real em um processo de captação de água.

Os métodos de otimização multiobjetivo usados são Algoritmo Genético (NSGA2), Algoritmo Colônia de Vagalume (MOFA) e Algoritmo Enxame de Partículas (MOPSO). Neste contexto, o objetivo do processo de otimização é maximizar a disponibilidade e minimizar os custos.

(20)

1.1 Objetivo Geral

Este trabalho tem como principal objetivo propor um procedimento de otimização multicritério para relação da disponibilidade ( ) e do custo, a fim de analisar a alocação de redundâncias e a aplicação de recursos de manutenção corretiva, em um sistema redundante.

1.2 Objetivos Secundários

A proposta do trabalho inclui a análise de um processo de otimização multicritério, baseada na contradição técnica dos objetivos inversos (disponibilidade versus custos). Para tal serão formulados três problemas considerando sistemas com redundância série-paralelo (redundância de unidades), no qual o terceiro problema expõe uma aplicação real da teoria envolvida neste trabalho.

Tomando como base esta problemática, desdobram-se os seguintes objetivos secundários:

 Estabelecer um equacionamento multiobjetivo utilizando as metodologias clássica e estocástica para análise da disponibilidade e custo em sistemas redundantes;  Comparar os algoritmos de otimização multiobjetivo utilizados na análise do

primeiro problema, selecionando o algoritmo que apresentar melhor desempenho;  Propor uma solução inicial para o problema de sobrecarga baseada na hipótese de

evolução da função taxa de falha durante a transição de estados.

1.3 Descrição dos Capítulos

A presente dissertação está estruturada em seis capítulos que serão detalhados a seguir, no qual este primeiro apresenta uma explanação introdutória, seguida dos objetivos do trabalho e dos detalhes da organização deste.

(21)

Capítulo 02: Apresenta uma revisão teórica com uma descrição e embasamento dos conceitos de confiabilidade, custos, sistemas redundantes, análise de falha, processo de otimização e algoritmos multiobjetivo.

Capítulo 03: Apresenta o estudo aprofundado da confiabilidade em suas abordagens clássica e estocástica (Cadeia de Markov) utilizadas para a formulação da função disponibilidade.

Capítulo 04: Apresenta a análise de custos, os três problemas estudados e os algoritmos de otimização multiobjetivo. Os algoritmos em questão são: Genético (NSGA-2), Colônia de Vagalume (MOFA) e Enxame de Partículas (MOPSO).

Capítulo 05: Demonstra basicamente os resultados deste trabalho, obtidos através de simulações numéricas para os três problemas propostos.

(22)

2 REVISÃO BIBLIOGRÁFICA

A grande necessidade da sociedade de formar um mercado global vem interligando o mundo, levando em consideração aspectos econômicos, sociais, culturais e políticos. Como consequência disso, tem-se o aumento da concorrência e da competitividade, de modo que os diferentes fabricantes de um determinado bem ou serviço atuam de forma independente, oferecendo assim produtos cada vez mais baratos e com altos padrões de qualidade. Nas organizações competitivas durante as fases de desenvolvimento do projeto do produto, a utilização de medidas que assegurem o bom desempenho se faz indispensável.

Portanto, com o rápido avanço da tecnologia, com a intensa competição global e o incremento da expectativa do cliente, uma nova pressão nos fabricantes foi estabelecida, objetivando a produção de sistemas com alta qualidade e confiabilidade (COLMENERO, 1999).

Teixeira (2004) aponta que as organizações devem projetar produtos mais complexos, pois os clientes estão se tornando mais exigentes. Projetos devem ter o máximo de valor agregado com custos controlados, a fim de garantir a sobrevivência da empresa no negócio, atendendo aos requisitos de qualidade, confiabilidade, preço e entrega. Moras (2002) afirma que na economia globalizada, o avanço tecnológico permite o desenvolvimento de equipamentos e sistemas cada vez mais complexos, e um dos parâmetros de diferencial competitivo é a confiabilidade.

As empresas enfrentam o desafio de desenvolver novos produtos em um curto espaço de tempo e com constante inovação, reduzindo custos e garantindo assim sua sobrevivência no mercado. Com este crescente desenvolvimento e ênfase na qualidade, surge assim, a importância da quantificação da confiabilidade, sendo esta definida por Meeker e Hamada (1995) como a probabilidade de um item cumprir de forma contínua as funções para as quais foi projetado, sob determinadas condições operacionais e em um período de tempo pré-estabelecido.

Esta operação prolongada de sistemas de engenharia é uma exigência vital em muitos domínios como na produção industrial, distribuição de energia, serviços, etc. As falhas causadas por fatores aleatórios devem ser estudadas a fim de evitar danos não só econômicos, mas também sociais e humanos.

Podem-se destacar quatro elementos importantes nesta definição de confiabilidade: a probabilidade, associada a conceitos estatísticos; o desempenho que está ligado a padrões e

(23)

especificações de engenharia; o tempo; as condições de operação, associadas à carga, capacidade e condições ambientais, que podem acelerar o desgaste.

A ênfase moderna é baseada na confiabilidade e qualidade de produtos especialmente os de alta tecnologia. A confiabilidade torna-se importante para o estudo, desenvolvimento e aprimoramento de produtos e sistemas (MORAS, 2002).

Segundo Colmenero (1999), os usuários desejam comprar produtos que sejam confiáveis e seguros e estes deverão cumprir suas funções de projeto com alta probabilidade de sucesso, pois para introduzir um produto no mercado é necessário que o mesmo esteja dentro dos padrões de qualidade.

A estimativa da função confiabilidade, quando utilizada para medir o desempenho do sistema, está diretamente ligada as possíveis consequências ocasionadas pela falha de um produto pouco confiável, onde é possível notar que sistemas projetados para níveis mais elevados de confiabilidade certamente possuem custos maiores, porém podem salvar vidas. Entende-se por falha, a diminuição parcial ou total da operação de um componente ou sistema. O conceito de falha deve ser bem entendido, pois o mesmo é fundamental na análise de confiabilidade. Rausand e Oien (1996) definem falha como a inabilidade de executar a função requerida.

Falhas podem ser classificadas com relação a sua evolução no tempo:

 Falhas graduais (desgaste): Mesmo sob perda parcial de eficiência o sistema ainda executa a função para o qual foi projetado e sua ocorrência pode ser prevista através de inspeção e acompanhamento.

 Falhas catastróficas: Sua ocorrência é imprevisível/aleatória e ocorrem quando existe uma variação abrupta de desempenho, no qual o item deixa de operar sem qualquer possibilidade de reparo.

De uma maneira geral, todos os produtos possuem desde sua operacionalização fases bastante distintas no que tange ao surgimento de falhas, onde ao final deste processo ocorre a interrupção do funcionamento.

Durante a entrada em operação, os sistemas de engenharia apresentam um comportamento típico com relação ao surgimento de falhas temporais. Esta fase inicial é conhecida como falhas de juventude. Neste período os componentes apresentam elevadas taxas de falha, no entanto esses valores decrescem rapidamente com o passar do tempo. Após esse período de inicialização da operação o sistema inicia uma etapa onde a taxa de falha é

(24)

praticamente constante, esta fase é chamada de vida útil. E finalmente devido ao uso, desgaste de componentes e tempo decorrido, o produto entra em fase de degradação natural ou falhas de velhice, onde a taxa de falha tende a crescer novamente até culminar no término do ciclo de vida do sistema. Todas as fases representam na verdade a evolução da função taxa de falha em relação ao tempo decorrido e essas são representadas em um gráfico, detalhado no capítulo 3 deste trabalho, conhecido como curva da banheira.

As definições com relação ao surgimento de falhas são aproximadas a fim de descrever o funcionamento global de sistemas, mas vale salientar que em casos específicos existem diferenças importantes com relação ao comportamento da taxa de falha. Sistemas mecânicos, por exemplo, apresentam logo após a fase de falhas de juventude um padrão de crescimento progressivo da taxa de falha, não possuindo períodos de taxa de falha constante. Já os sistemas prioritariamente eletrônicos logo após o período de vida inicial entram em uma duradoura fase de taxa de falha constante, saltando rapidamente para falha catastrófica no final da vida.

Após essa discussão inicial, fica evidenciada a necessidade de analisar os dados de falha, onde o correto questionamento durante a fase de desenvolvimento de sistemas deverá ser: ‘Este projeto possui o nível de confiabilidade adequado?’. A resposta desta questão requer uma quantificação da confiabilidade e do custo adicionado ao projeto devido ao incremento desta taxa, temática abordada neste trabalho e alcançada por meio das Teorias de Conjunto, Probabilidade e Estatística (Teoria de confiabilidade clássica) e Estocástica (Cadeia de Markov).

Este desempenho confiável de sistemas durante a realização de uma tarefa é de extrema importância em muitas situações na indústria, onde falhas podem acarretar gastos com a interrupção da produção ou inclusive ser fatais. O tratamento quantitativo da confiabilidade surgiu na década de cinquenta, e baseia-se nos tempos de falha e reparo de sistemas, tratados como ferramentas estatísticas. Para um melhor detalhamento do desenvolvimento histórico dos conceitos de confiabilidade, (CASTRO, 2003) e (RAMAKUMAR, 1993).

O surgimento da aplicação dos conceitos de confiabilidade não possui registro exato, porém após a primeira guerra mundial e com a expansão da indústria aeronáutica, foram notadas as primeiras aplicações dos conceitos de confiabilidade, mas ainda em termos qualitativos. O desenvolvimento dos misseis V-1 e V-2, na Alemanha, também alavancaram a utilização da confiabilidade. Durante o desenvolvimento nuclear na década de 50, houve grande destaque na aplicação da teoria de confiabilidade nos projetos de usinas de energia

(25)

nuclear, bem como nos sistemas de controle. Desde 1990 até os dias atuais, destaca-se o crescimento da economia e da competição, onde a confiabilidade passou a ser um parâmetro de decisão no projeto e aquisição de sistemas.

O aumento da necessidade da quantificação da confiabilidade é devido principalmente as seguintes causas: aumento da complexidade dos sistemas técnicos, intensidade dos regimes de funcionamento de sistemas sob condições extremas (altas temperaturas, altas pressões e velocidade), automatização total ou parcial de sistemas com exclusão da participação do homem e aumento da responsabilidade das funções cumpridas pelo sistema (alto valor técnico e econômico), (MORAS, 2002) e (RAMAKUMAR, 1993).

Diretamente relacionados ao conceito de confiabilidade, também estão o de mantenabilidade (probabilidade de reparo com sucesso), disponibilidade (probabilidade de uso efetivo) e dependabilidade (probabilidade de o item não falhar ou se falhar, ser capaz de ser reparado com sucesso). Essas medidas são de grande importância, pois relacionam os interesses de projetos de produtos duráveis e funcionais dentro de parâmetros de qualidade, permitindo análises de reposição ao funcionamento e até mesmo estimativas de gastos com assistência técnica. É importante ressaltar que em sistemas não reparáveis a disponibilidade corresponde quantitativamente à confiabilidade, pois neste caso não existe manutenção.

Existem duas formas práticas para o incremento da disponibilidade em sistemas de engenharia:

1. Aumentar a disponibilidade de cada componente do sistema; 2. Usar sistemas redundantes.

De Paula et al. (2015) afirma que a disponibilidade de cada componente que compõe um sistema poderá ser aumentada através de melhorias na confiabilidade, que fará com que o sistema opere por longos períodos e por intermédio de melhorias na mantenabilidade, pois o sistema poderá ser reparado rapidamente. Em contrapartida, o uso de sistemas redundantes também incrementa os valores de disponibilidade, porém é importante observar que outros parâmetros de engenharia, como custo, peso e volume, poderão ser aumentados.

Durante a utilização de redundância, a função de um componente do sistema é exercida por dois ou mais elementos, podendo esta ligação ser tipo ativa, quando o componente redundado opera conjuntamente com o componente principal, ou pode ser passiva (stand-by) na qual a redundância só entra em funcionamento quando o sistema principal falha. Outro importante conceito que deve ser considerado é a disposição física e

(26)

lógica do sistema redundante, podendo este ser considerada ligação em série, quando o sucesso da função requerida depende do sucesso da operação de cada componente, ou também ligações de componentes em paralelo, em que para o sucesso da operação apenas um dos componentes necessariamente precisa estar operando.

Este trabalho analisará sistemas com redundâncias do tipo ativa. Existem dois tipos básicos para entendimento: redundância de sistemas (configuração paralelo-serie) e redundância de unidades (configuração serie-paralelo), esta última fornece maior disponibilidade.

Castro (2003) aponta que na redundância de sistemas a função de projeto é exercida por dois ou mais sistemas em paralelo. Em contrapartida, na redundância de unidades, a função de cada componente é redundada. A questão de alocação de redundância com objetivo de aumentar a confiabilidade de sistemas tem sido extensamente utilizada, no qual alguns trabalhos tratam sobre otimização de projetos de sistemas manuteníveis e consideram a relevância dos custos envolvidos (YANG et al., 2000).

Seja qual for a opção escolhida, este aumento no nível de disponibilidade acarretará um aumento nos custos de projeto e manutenção. Eis que logo surge a questão: qual é o nível ótimo de confiabilidade, a fim de atender as necessidades de negócio? Vale lembrar que em algumas situações, como na indústria aeronáutica, a segurança e confiabilidade são essenciais, pois, uma falha pode custar a vida de várias pessoas. Esta situação poderá ser tratada através da formulação de um problema de otimização.

A busca por soluções ótimas representa um dos maiores desafios em todos os campos envolvidos em ciência e tecnologia. Esta procura por uma otimização de desempenho é frequentemente ponderada por variáveis de grandezas inversas (LUZ, 2009). Como exemplo, aumentar a confiabilidade encarece o produto, mas também proporciona maior disponibilidade, o que reduz custos com manutenção e parada. Faz-se necessário otimizar o problema de disponibilidade versus custo, a fim de determinar o maior valor de disponibilidade ao menor custo possível (CASTRO, 2003).

De Paula et al. (2015) aponta que o incremento da disponibilidade também acarreta aumento no custo global de um sistema. Portanto, a utilização de técnicas de otimização relacionando custo e disponibilidade é uma interessante proposta para avaliar o número ideal de redundâncias e a quantidade de recursos de manutenção em um projeto.

Em termos de otimização, deve-se destacar que em problemas com apenas uma função objetivo, a meta de resolução é encontrar o ótimo global, ou seja, um único ponto que satisfaça a todas as restrições do problema. Em problemas com múltiplos objetivos, a solução

(27)

é representada por meio de um conjunto de pontos ótimos. Nesses casos, usualmente a decisão sobre qual é a melhor resposta está vinculada ao responsável pela tomada de decisão.

À medida que se busca atender as necessidades crescentes de mercado em se atingir mais objetivos de negócio simultaneamente e trabalhar com problemas mais realísticos do ponto de vista industrial, os problemas de otimização multiobjetivo tem merecido nos últimos anos, grande destaque no desenvolvimento de trabalhos científicos e aplicações práticas (LOBATO, 2008).

O conceito de “ótimo” para problemas multiobjetivo foi aprimorado por Vilfredo Pareto (PARETO, 1896), que em sua definição afirma que um ponto (x ) é tomado como ótimo se nenhum critério utilizado pode melhorar a solução sem piorar pelo menos outro critério. E a partir desse conceito que surgiu o formulado o Postulado de Pareto que afirma que em problemas multiobjetivo, a solução é apresentada por meio de um conjunto de pontos denominados não inferiores ou soluções não dominadas.

Em problemas de otimização multicritério, os objetivos por sua vez são em sua maioria conflitantes, isto é, uma melhoria em qualquer um destes objetivos não resulta necessariamente na melhoria dos demais considerados. A solução ótima desses problemas, diferentemente do que ocorre na otimização mono objetivo, consiste na obtenção de soluções não dominadas que formam a curva ou fronteira de Pareto (LOBATO, 2008).

Para formulação de problemas de otimização, é necessária uma ou mais funções objetivo, por exemplo, custo e disponibilidade. Também são estipuladas as restrições de projeto como peso e outros parâmetros, assumindo formas de inequação e equação (CASTRO, 2003).

Vanderplaats (1999) reforça a apresentação destes conceitos para melhor entendimento dos problemas de otimização e com base em seu trabalho define-se:

1. Função objetivo: Parâmetro do sistema estudado que se deseja otimizar. É representada por uma função matemática dependente das variáveis de projeto. 2. Variáveis de decisão ou de projeto: Parâmetros que podem alterar os valores da

função objetivo. São manipulados pelos algoritmos de resolução, provendo assim modificações na função objetivo.

3. Restrições: Características que dependem das variáveis de projeto e limitam os valores da função objetivo a certas regiões do espaço de projeto.

(28)

Edgar et al. (2001) sugerem ainda que uma correta elaboração e resolução de um problema de otimização deve seguir as seguintes etapas:

1. Realizar a análise inicial do problema, identificando as variáveis envolvidas e suas principais características;

2. Especificar o critério de otimização e as funções objetivo em termos das variáveis de decisão;

3. Fazer uso de expressões matemáticas que validam o processo e relacionam variáveis de entrada e parâmetros. Incluir nesta etapa as restrições;

4. Analisar a possibilidade de fragmentação de problemas complexos em problemas menores e mais simples;

5. Aplicar uma técnica de otimização;

6. Verificar as saídas (respostas) e analisar a sensibilidade destas ao ajuste de parâmetros.

Os passos 1, 2 e 3 estão relacionados com a definição matemática do problema, bem como a identificação das variáveis de decisão e elaboração das restrições. A sugestão de simplificação do problema surge no passo quatro, no entanto deve-se atentar para preservação da essência do problema. O passo número cinco está relacionado ao cálculo do ponto ótimo. Existem várias técnicas para obtenção da melhor solução e vale ressaltar que a escolha da melhor opção de algoritmo está diretamente ligada as características do problema. O sexto passo está relacionado com análise final dos resultados e ajuste dos parâmetros.

Em seu trabalho, Deb (2001) afirma que um problema multicritério envolve um número de funções objetivo que deverão ser maximizadas ou minimizadas e restrições que precisam ser satisfeitas. Sendo assim é possível definir um problema multiobjetivo por meio da formulação apresentada pela Equação 2.1.

min fm(x), m=1,2, …, M gj(x)≤0 j=1,2, …, J hk(x)=0 k=1,2, …, K xiL ≤ xi ≤ xiU i=1,2, …, n

(2.1)

A solução (x ∈ R ) de um problema de otimização é um vetor de (n) variáveis de decisão: x = (x , x , … , x ) e, seus respectivos pontos no espaço objetivo. É importante

(29)

ressaltar que, as variáveis de projeto que satisfazem as restrições e os limites formam o espaço de variável de decisão viável (S ⊂ R ). O limite da variável de decisão (x ) é representado por x (inferior) e x (superior). As restrições do problema estão representadas por intermédio das ‘J’ desigualdades (g ) e ‘K’ igualdades (h ).

A principal diferença entre otimização mono objetivo e multiobjetivo está na formação, através das funções, de um espaço multidimensional, em adição ao usual espaço de variáveis de decisão (R ). Este espaço M-dimensional é chamado de espaço de objetivos Z ⊂ R , de maneira que todas as (M) funções objetivo f (x), f (x), … , f (x) podem ser otimizadas. Para cada solução (x) no espaço de variáveis de decisão, existe um ponto z ∈ R no espaço de objetivo descrito como: f(x) = z = (z , z , … , z ).

Ainda no contexto de problemas de otimização multicritério faz-se necessário à definição do conceito de dominância. No trabalho de Deb (2001) esta definição é tratada, no qual existindo duas possíveis soluções, a solução (x ) é dita como dominante sob outra solução (x ) se as condições abaixo forem verdadeiras.

1. A solução não é pior que em todos os objetivos;

2. A solução é muito melhor que em pelo menos um objetivo.

As soluções são comparadas com base em seus valores calculados nas funções, ou em outras palavras, nos pontos correspondentes no espaço de objetivos (z e z ).

Existe uma grande quantidade de algoritmos numéricos/ computacionais para resolução de problemas de otimização. De acordo com Haupt e Haupt (1998) classificam-nos em seis categorias. A Figura 2.1 foi adaptada de seu trabalho e ilustra essa divisão, com a adição de uma sétima classe.

Figura 2.1 Classificação dos algoritmos de otimização Fonte: Adaptado do trabalho de Haupt e Haupt (1998)

(30)

1. Otimização por Tentativa e Erro e Otimização por Função: Otimização por tentativa e erro refere-se ao processo de ajuste das variáveis que afetam a saída do processo de otimização, porém sem saber muito acerca do que produz essa saída. Em contrapartida processos que têm sua formulação matemática conhecida, são chamados de otimização por meio de funções.

2. Unidimensional e Multidimensional: Esta classificação considera a quantidade de variáveis que serão tratadas como variáveis de decisão no processo de otimização. Processos em que existe apenas uma variável são denominados unidimensionais, caso contrário, problemas com mais de duas variáveis são denominados como multidimensional. Vale salientar que o processo de otimização se torna mais complexo à medida que o número de dimensões aumenta.

3. Otimização Dinâmica ou Estática: Denomina-se otimização dinâmica quando existe dependência da saída do processo de otimização com relação ao tempo, caso contrário, quando não existe dependência com tempo chama-se estática. 4. Otimização Discreta ou Contínua: O processo de otimização também pode ser

classificado através do tipo de variável (discretas ou contínuas), sendo as discretas aquelas que têm número finito de possíveis valores, enquanto que as variáveis contínuas podem assumir um número infinito de valores.

5. Otimização Restrita ou Não Restrita: Problemas de engenharia que possuem equações ou inequações de restrições são denominados de problemas de otimização restrita, caso contrário na ausência total de restrições são considerados problemas não restritos. Problemas sem restrições permitem que as variáveis possam assumir qualquer valor.

6. Otimização Aleatória e Não Aleatória: Métodos randômicos ou aleatórios são baseados no cálculo de probabilidades, fazem uso de um conjunto de configurações iniciais de projeto e tendem a possuir processamento mais lento, porém com maior probabilidade de sucesso no que tange ao mínimo global. Algoritmos que tendem a otimizar a função, partindo de uma configuração inicial de projeto, movendo-se em direção ao ponto ótimo através de sequenciamento de passos são classificado em Otimização Não Aleatória.

Em adição ao modelo de classificação proposto por Haupt e Haupt (1998), tem-se a sétima divisão:

(31)

7. Otimização Mono objetivo ou Multiobjetivo: Denomina-se mono objetivo problemas com apenas uma função objetivo. Casos em que mais de uma função deverá ser otimizada são classificados como Otimização Multiobjetivo.

Segundo Edgar et al. (2001), não existe nenhum algoritmo de otimização que possa ser aplicado eficientemente a todas as classes de problemas. Lobato (2008) ainda conclui que o método escolhido para um problema particular tem forte ligação com a natureza da função objetivo, das restrições e do número de variáveis do problema.

Diversos algoritmos de otimização têm sido elaborados desde o século passado. Têm-se ainda nos dias de hoje a apreTêm-sentação de diversos trabalhos com esta temática, mostrando assim a atualidade do tema. As aplicações dessas técnicas são extremamente abrangentes, podendo atuar em problemas de todas as áreas da ciência, no entanto, neste trabalho, o direcionamento da utilização está ligado à resolução do problema de otimização multiobjetivo da disponibilidade e custo, em termos da quantidade de componentes redundantes e do percentual de recursos de manutenção corretiva. Além disso, objetiva-se propor a utilização desta metodologia em um problema aplicado para denotar a importância do trabalho. Os algoritmos abordados nesta dissertação são: Algoritmo Genético (NSGA2), Algoritmo Enxame de Partículas (MOPSO) e o Algoritmo Colônia de Vagalumes (MOFA).

O algoritmo genético foi publicado inicialmente pelo professor Holland (1975) da universidade de Michigan e recebeu maior notoriedade com o trabalho de (GOLDBERG, 1989). Este algoritmo de computação evolutiva é uma técnica de inteligência artificial que se molda sob conceitos e teorias da genética de seres vivos. Ele fundamenta-se nas explicações oferecidas por Charles Darwin a respeito da seleção e evolução dos indivíduos na natureza, nos quais apenas os mais aptos sobrevivem, e posteriormente com outras teorias de genética formuladas. Castro (2013) reforça essa analogia considerando que, do ponto de vista biológico, um organismo e sua capacidade de sobreviver são determinados pelo seu DNA. Filhos herdam traços dos pais devido à combinação de DNA, essas características podem aumentar a aptidão dos descendentes em sobreviver e são transmitidas de geração em geração. De maneira objetiva, o funcionamento de um algoritmo genético segue as seguintes etapas: Inicialização da população, avaliação da população, seleção dos mais aptos, modificações nos mais aptos para gerar filhos (reprodução).

Segundo Brandão (2009), o algoritmo genético é um método heurístico de busca estocástica baseado no processo de evolução biológica (seleção natural) que favorece a busca pelo ótimo global ou aproximação satisfatória. Esse algoritmo tem sido utilizado com

(32)

eficiência para busca de soluções em grande variedade de problemas complexos como: otimização de funções numéricas, otimização combinatória, processamento de imagem e robótica (CORTES, 2003).

O Algoritmo Enxame de Partículas é uma técnica baseada em Metaheurística populacional para otimização de funções e é baseado em mecanismos de simulação do comportamento social de animais, utilizando como metáfora o modo de influência de pensar e agir. A otimização por Enxame de Partículas também é considerada uma técnica de computação evolutiva, apesar de trazer uma metáfora diferente da evolução das espécies, as influências pessoais e sociais do algoritmo guardam semelhança com os operadores de recombinação e de crossover.

Dentre as principais diferenças do algoritmo enxame de partículas com os demais algoritmos de evolução tem-se o papel do processo de seleção natural no qual apenas os mais aptos sobrevivem, ou seja, parte da população é eliminada, enquanto que em um processo social os indivíduos são preservados durante a execução da simulação, de forma que o próprio indivíduo se adapta.

A otimização por enxame de partículas é inspirada na observação de pássaros e cardumes e neste algoritmo uma população de indivíduos (possíveis soluções) é desenvolvida e tem seus parâmetros ajustados de acordo com a sua experiência, sendo esta experiência derivada da partícula como um indivíduo e membro de uma população, (RABBANI et al., 2010).

Reddy e Kumar (2007) afirmam que a base do enxame de partículas é simular o comportamento social para orientar a população de partículas do enxame, fazendo com que elas se movam na direção da mais promissora solução no espaço de busca. As alterações nas posições das partículas no interior do espaço de pesquisa baseiam-se na tendência psicológica social dos indivíduos para emular o sucesso de outros indivíduos.

O Algoritmo Colônia de Vagalume foi desenvolvido por Xin-She Yang e possui como inspiração o comportamento social dos vagalumes voando, atraindo e sendo atraído por outros indivíduos. Cada possível solução é representada por um vagalume no espaço de busca e estes elementos buscam companheiros usando a bioluminescência. O enxame de vagalumes se moverá de acordo com o mais brilhante e atraente indivíduo, eleito de acordo com a intensidade de luz emitida por ele, que é associada à função objetivo do problema.

De acordo com Yang (2008) a atratividade de um vagalume é determinada pela intensidade do brilho emitido por ele e esta é inversamente proporcional à distância entre dois indivíduos.

(33)

É importante salientar que um vagalume não necessariamente segue o mais brilhante (melhor avaliado na função objetivo) do enxame e sim aquele que é mais atrativo aos seus olhos. Isto faz com que haja maior diversidade na população de vagalumes, pois se todos seguissem o mais brilhante o processo de otimização estagnaria em poucas gerações (MOREIRA et al., 2014).

Essas técnicas de otimização inspiradas em processos biologicos foram aplicadas com sucesso num passado recente em vários problemas de otimização relacionados com a vida real e aplicações industriais, devido sua simplicidade, robustez e capacidade de resolver problemas complexos. (MOHANTY, 2016).

(34)

3 MODELAGEM DA CONFIABILIDADE

O estudo da confiabilidade se faz necessário quando o objetivo do projeto é garantir a qualidade e o pleno funcionamento de produtos e sistemas. Falhas devem ser estudadas, pois são prejudicais no que tange a perdas econômicas, como por exemplo, a perda de produção devida à falha de um maquinário, bem como do ponto de vista social, como por exemplo, a fatalidade de um acidente aéreo. Pode-se então considerar a confiabilidade como a probabilidade de um item em executar suas funções de projeto e a partir desta função se desenvolve a teoria da confiabilidade, que tem como escopo estudar os métodos, critérios e as estratégias utilizados nas fases de concepção, projeto, desenvolvimento, operação e manutenção de produtos, de modo a garantir o máximo de eficiência, segurança, economia e duração.

Naresky (1970) define em seu trabalho que a confiabilidade é uma característica de um item, expressa pela probabilidade de que este irá desempenhar uma função requerida, sobre condições definidas, por um período de tempo. Esta definição está de acordo com as afirmações descritas por Billinton e Allan (1983), Doty (1989), Ramakumar (1993) e Lewis (1996). Apesar da simplicidade desta definição ela compreende bem os conceitos abordados neste trabalho, onde:

 Probabilidade: Fornece o valor numérico para avaliação da confiabilidade.

 Função requerida: Conceito relacionado com a utilização de um padrão ou especificação, que esclareça se o desempenho é satisfatório ou não.

 Condições definidas: Esclarece as condições de utilização como, temperatura, pressão, umidade, etc.

 Tempo: Duração projetada do tempo de vida do sistema ou componente.

Ainda segundo Doty (1989), a completa especificação da confiabilidade de um item seria, ‘O item possui 95% de probabilidade de operar acima de 90% de carga nominal, por 100 horas sem falha, em temperatura ambiente de 70 graus, com não mais de 60% de umidade em uma atmosfera livre de poeira’.

A teoria de confiabilidade utiliza como ferramentas em seu estudo conceitos de estatística e probabilidade, bem como o conhecimento experimental de falhas e suas causas. Assim, seu o principal objetivo é estabelecer métodos que permitam a melhoria da concepção

(35)

de dispositivos e sistemas, mediante ao estudo e introdução de estratégias capazes de alterar os índices quantitativo e qualitativo relativo ao surgimento de falhas. A possibilidade de concepção de sistemas complexos, como aviões, redes elétricas e computadores é resultado da evolução do estudo da teoria de confiabilidade, onde esses sistemas são capazes de operar satisfatoriamente, mesmo após a falha de um componente.

Além da definição de confiabilidade, outros conceitos são importantes e devem ser explorados para o entendimento dos problemas de otimização de sistemas redundantes.

O estudo da disponibilidade é fundamental na teoria de confiabilidade, onde esta função pode ser definida como a probabilidade de encontrar o sistema em pleno funcionamento em um período de tempo específico. Sua definição é utilizada em sistemas reparáveis, pois em sua formulação estão incluídas as análises de confiabilidade e mantenabilidade. Sherwin e Bossche (1993) afirma que o conceito de confiabilidade geralmente prevê somente uma vida ou falha, em contrapartida a disponibilidade inclui períodos de pleno funcionamento alternando com períodos de reparos ou sem funcionamento. Embora os conceitos de disponibilidade e confiabilidade sejam utilizados para componentes e sistemas, geralmente a disponibilidade é mais utilizada em sistemas complexos, enquanto que a confiabilidade é mais utilizada para componentes, (MORAS, 2002).

A função taxa de falha é definida como a razão entre o número de falhas e o intervalo de tempo decorrido, dado que não haja ocorrência de falhas antes deste período. O estudo da função taxa de falha de um equipamento através do tempo é representado por um gráfico que possui o formato de uma banheira, por isto conhecido como curva da banheira, sendo esta representada na Figura 3.1.

Figura 3.1 Curva da banheira

(36)

Este gráfico possui três regiões distintas, e são elas:

 Região 1 (Falhas de juventude): Corresponde ao elevado nível da taxa falha, que ocorre no início da operacionalização de sistemas, devido a problemas de fabricação, instalação inadequada, componentes defeituosos, etc. Com passar do tempo, estas falhas são corrigidas, e logo o equipamento entra num período de estabilidade.

 Região 2 (Vida útil): Período em que as falhas surgem de maneira aleatória e dependendo das características dos equipamentos poderá possuir taxa de falha constante (Eletrônicos) ou logo após falhas de juventude, iniciar suave inclinação (Mecânicos).

 Região 3 (Falhas de velhice): Região caracterizada por falhas ocasionadas por desgaste, fadiga de material e degradação natural de componentes do sistema. Devido ao desgaste de componentes, nesta fase é comum intervenções de manutenção.

No que tange a manutenção de sistemas, é possível ressaltar o tipo de intervenção, sendo a manutenção corretiva baseada apenas na troca de componentes que já falharam. Em algumas ocasiões é possível observar um padrão com relação ao surgimento de falhas no tempo, portanto após este conhecimento da regularidade de funcionamento, pode-se estipular intervalos fixos de reparo, antes mesmo de a falha ocorrer, sendo esta abordagem conhecida como manutenção preventiva, ou baseada no tempo. No entanto, as falhas poderão ocorrer em intervalos irregulares e reduzir o tempo de manutenção poderá não ser economicamente viável, logo surge o conceito de manutenção preditiva ou baseada na condição, sendo caracterizada pela análise do equipamento e identificação da necessidade de manutenção, pois com a evolução tecnológica torna-se possível identificar os sintomas de falhas através de técnicas como: análise de vibrações, medição de espessura, análise metalógrafa de óleos lubrificantes, etc.

Em confiabilidade a grandeza estatística utilizada para medição da capacidade de manter ou recolocar um componente em um estado que permita a realização de suas funções de projeto, é a mantenabilidade. Esta é definida como a probabilidade que um sistema ou componente, seja reparado com sucesso e recolocado em funcionamento, em um intervalo de tempo. Ainda no que tange a manutenção, pode-se definir a taxa de reparo (μ) como a razão entre o número de reparos e o tempo necessário para realizar tais reparos.

(37)

3.1 Abordagem Da Confiabilidade Por Probabilidade E Teoria De Conjunto

A probabilidade e a estatística são ramos da matemática que estudam as possibilidades de um fenômeno ocorrer e fornecem subsídios para organização, análise e apresentação de dados. Ambas possuem aplicações em todas as áreas do conhecimento humano, como genética, economia, engenharia, bem como em confiabilidade. Durante o estudo da teoria de confiabilidade, é necessário o entendimento de alguns conceitos de probabilidade e estatística. Um experimento aleatório consiste em um experimento, que mesmo realizado de igual maneira em todas as tentativas, poderá fornecer diferentes resultados. Todos os possíveis resultados deste experimento formam o conjunto espaço amostral (S), podendo este ser discreto ou contínuo. Define-se evento como um subconjunto do espaço amostral.

Existindo um experimento qualquer com um espaço amostral (S), define-se variável aleatória como uma função que associa a cada elemento de (S) um número real. Na literatura, este tipo de variável é comumente nomeado por letras maiúsculas. Em problemas práticos, encontram-se dois tipos de variáveis aleatórias:

 Variáveis aleatórias discretas: Assumem valores enumeráveis, sejam eles pertencente a um intervalo finito ou infinito. Em confiabilidade representa a variável número de falhas.

 Variáveis aleatórias contínuas: Assumem valores não enumeráveis em um intervalo. Em confiabilidade representa a variável tempo de falha.

As funções de massa de probabilidade e densidade de probabilidade f(x), do inglês Probability Density Function (PDF), bem como a função cumulativa F(x), do inglês Cumulative Distribution Function (CDF), são bastante utilizadas na modelagem do comportamento de variáveis aleatórias. A função de massa de probabilidade, utilizada para variáveis discretas e a função densidade de probabilidade usada para variáveis contínuas são funções não negativas que representam a distribuição de probabilidade de ocorrência de uma variável aleatória. A função cumulativa representa a distribuição de probabilidade acumulada de uma variável.

Para as variáveis aleatórias discretas as funções f(x) e F(x) podem ser definidas matematicamente através das Equações 3.1 a 3.3 e das Figuras 3.2 e 3.3.

(38)

( ) = ( = ) = ( ) (3.1) 0 ≤ ( ) ≤ 1 (3.2) ( ) = ( ≤ ) (3.3)

Graficamente,

Figura 3.2 Função de massa de probabilidade Fonte: Adaptado do trabalho de Moras (2002)

Figura 3.3 Função cumulativa para o caso discreto Fonte: Adaptado do trabalho de Moras (2002)

Seja a variável aleatória em estudo contínua, as funções de densidade e cumulativa serão representadas através da Equação 3.4 e 3.6.

(39)

Integrando a equação 3.4 no intervalo fechado [a, b], o resultado obtido é Equação 3.5.

( ≤ ≤ ) = ∫ ( ) = ( ) ( ) (3.5)

A distribuição acumulada de probabilidade fica definida através das Equações 3.6, 3.7 e 3.8.

F(x)=P(X≤x) (3.6) lim → ( ) = 1 (3.7) lim ( ) = 0 (3.8)

Graficamente, tem-se para o caso contínuo (Figuras 3.4 e 3.5).

Figura 3.4 Função densidade de probabilidade. Fonte: Adaptado do trabalho de Moras (2002)

Figura 3.5 Função cumulativa para o caso contínuo Fonte: Adaptado do trabalho de Moras (2002)

(40)

Neste trabalho, o enfoque principal será para as variáveis aleatórias contínuas, através da variável tempo de falha.

Para definição matemática de confiabilidade através dos conceitos combinatórios, supõe-se que durante um experimento aleatório contendo (n ) itens idênticos e testados em um intervalo de tempo [t , t ], onde a variação de tempo é representada por t = t t , surge ao final do teste um número n (t ) de sobreviventes e um número de itens falhados n (t ), de acordo com a Equação 3.9.

= + (3.9)

Definem-se as funções de densidade f (t) e taxa λ (t) dos dados de falha através das Equações 3.10 e 3.11.

( ) =[ ( ) ( )]⁄ , < ≤ (PDF) (3.10)

( ) =[ ( ) ( )]⁄ ( ) , < ≤ (3.11)

A função f (t) representa a razão do número de falhas ocorridas num intervalo de tempo pelo tamanho total da população, em contrapartida a λ (t) é dada pela razão entre o número de falhas num intervalo de tempo, pelo número de sobreviventes no início do intervalo. Para Moras (2002), a função densidade representa a medida da velocidade total de ocorrência de falhas, enquanto que a função taxa de falha é a medida instantânea desta velocidade.

A função cumulativa de falhas ou probabilidade de falha Q (t) é dada através da Equação 3.12 que representa a integração de f (t), sendo esta contínua por partes no intervalo [0, t].

( ) = ∫ ( ) (CDF) (3.12)

Por definição, a confiabilidade R (t) é dada pela probabilidade de sobrevivência, ou seja, pelo valor complementar de Q (t), e é matematicamente descrita através da Equação 3.13.

(41)

( ) = 1 ( ) (3.13)

Fazendo o intervalo de tempo ( t) tender a zero, as funções acima descritas aproximam-se das quatro funções básicas de confiabilidade: função densidade de probabilidade de tempo de falha (PDF) ( ), função taxa de falha ( ), função probabilidade acumulada do tempo de falha ( ) e a função de confiabilidade ( ). As relações entre essas funções são obtidas a partir das Equações 3.14 e 3.15.

( ) = ( )= ( ) (3.14)

( ) = ( ) ( ) =

( )

( ) (3.15)

A variável aleatória contínua tempo médio até falha (MTTF) representa o tempo decorrido entre o início de funcionamento de um componente até a ocorrência de uma falha. Esta métrica é muito utilizada em sistemas não reparáveis e o seu valor esperado é dado pela Equação 3.16.

= ∫ ( ) (3.16)

O tempo médio até o reparo (MTTR) representa a média de tempo que é tomado para realizar um reparo após uma falha, seu valor depende diretamente da mantenabilidade e é definido matematicamente através da Equação 3.17.

= ∫ 1 ( ) (3.17)

Para análise de sistemas reparáveis, faz-se necessária a combinação dos conceitos de tempo de funcionamento e tempo de reparo. A variável tempo médio entre falhas (MTBF) é um tipo de indicador bastante utilizado no setor industrial, para que se possa mensurar a disponibilidade de um sistema considerando o tempo de manutenção após uma falha. Quanto

(42)

maior for o MTBF, maior será a disponibilidade do item em questão. Matematicamente, essa variável pode ser obtida por intermédio da Equação 3.18.

= + (3.18)

A relação entre essas variáveis poderá ser bem visualizada por meio da Figura 3.6.

Figura 3.6 Ilustração do tempo médio entre falha

As expressões supracitadas fornecem relações entre todas as funções de confiabilidade, assim a partir do conhecimento de uma delas podem-se determinar as demais.

3.1.1 Distribuições de probabilidade

Uma distribuição de probabilidade, em estatística, representa um modelo matemático que relaciona o valor de uma variável aleatória em estudo, com sua probabilidade de ocorrência. São funções cujo domínio são os valores da variável e a imagem, restrita ao intervalo de zero a um, representa as probabilidades de a variável assumir cada valor do domínio. Pode-se classificar as distribuições de acordo com a natureza da variável analisada, podendo ela trabalhar com valores discretos ou contínuos. No contexto de confiabilidade, existem várias funções que podem modelar a distribuição probabilística de uma variável aleatória, a escolha do modelo estatístico está diretamente ligada aos tipos de teste de falhas realizados, bem como ao tamanho e tipo de amostragem analisada, (CASTRO, 2003). As

Referências

Documentos relacionados

Nesses anos (anos letivos 1984/85 e 1985/86) houve várias atividades que envolveram o CRPD e filarmónicas da ilha (entr. No ano letivo seguinte o professor Francisco Paquete apenas

CSPCCO – COMISSÃO DE SEGURANÇA PÚBLICA E COMBATE AO CRIME ORGANIZADO Reunião destinada a discutir e votar as sugestões de emendas da Comissão ao PLN nº 20/17 (Lei

O objetivo do curso foi oportunizar aos participantes, um contato direto com as plantas nativas do Cerrado para identificação de espécies com potencial

Kaplan, “Cross-sectional study of quality of life and symptoms in chronic renal disease patients: the Modification of Diet in Renal Disease Study,” American Journal of Kidney

• The definition of the concept of the project’s area of indirect influence should consider the area affected by changes in economic, social and environmental dynamics induced

Acrescenta, também, que as preocupações centrais para as feministas quanto à prestação de trabalho não remunerado debruçam-se sobre como valorizá-lo e partilhá-lo de

Figure 3: Performance of a majority vote classifier us- ing the top-n best performing systems (by accuracy), on the provided by-article-meta-training dataset.. Our final submission

Crisóstomo (2001) apresenta elementos que devem ser considerados em relação a esta decisão. Ao adquirir soluções externas, usualmente, a equipe da empresa ainda tem um árduo