Análise de Disponibilidade Utilizando Abordagem Nebulosa

Texto

(1)

Programa de Pós-Graduação em Engenharia Elétrica

Análise de Disponibilidade Utilizando Abordagem Nebulosa

Alessandra Lopes Carvalho

Tese de Doutorado submetida à Banca Examinadora designada pelo Programa de Pós-Graduação em Engenharia Elétrica da Escola de Engenharia da Universidade Federal de Minas Gerais, como requisito para obtenção do Título de Doutor em Engenharia Elétrica

Orientador: Benjamim Rodrigues de Menezes Co-Orientador: Walmir Matos Caminhas

Belo Horizonte

Julho de 2008

(2)

RESUMO

O objetivo principal deste trabalho é contribuir na análise de disponibilidade de sistemas reparáveis utilizando abordagem nebulosa. A principal justificativa para utilização da abordagem nebulosa em análise RAM (Reliability, Availability and Maintainability) é a inexistência de bancos de dados consistentes contendo informações sobre datas de ocorrências de falhas e tempos de reparo. Embora grande parte das indústrias não possua um banco de dados adequado à análise de falhas convencional, existem especialistas que detêm o conhecimento acerca da operação de seus processos. A abordagem nebulosa é útil para modelar o conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta forma, o processo de tomada de decisão no planejamento das atividades de manutenção. Os resultados obtidos pelo método proposto são validados através de comparações com o método convencional utilizando-se como exemplo um sistema de laminação.

Palavras Chave: disponibilidade, mantenabilidade, confiabilidade, sistemas nebulosos, sistemas reparáveis.

- i -

(3)

ABSTRACT

This work focuses on an alternative approach, using the fuzzy set theory for availability evaluation of repairable systems. The main reason to use fuzzy approach in RAM analysis (Reliability, Availability and Maintainability) is the lack of consistent data bases that relate dates of failure occurrences with repair time. Although many industrial data base are not adequate for the conventional RAM analysis of a particular plant, there are specialists who withhold the knowledge concerning the operation of its processes. Fuzzy set theory is useful for modeling human knowledge that is held in tacit form by the specialists, assisting the process of decision making and planning of maintenance activities. The results of the approach developed are compared against the conventional RAM analysis using a rolling mill system.

Key-words: availability, maintainability, reliability, fuzzy systems, repairable systems.

- II -

(4)

LISTA DE SIGLAS

pdf (probability density function) - função densidade de probabilidade cdf (cumulative distribution function) - função distribuição acumulada

FMEA (Failure Mode and Effect Analysis ) - análise de modos e efeitos de falhas FTA (Faut Tree Analysis) - árvore de falhas

HPP ( homogeneous Poisson process) - processo de Poisson homogêneo MTBF (mean time between failure) - tempo médio entre falhas

MTTF (mean time to failure) - tempo médio para falha MTTR (mean time to repair) - tempo médio para o reparo

NHPP (non homogeneous Poisson process) processo de Poisson não homogêneo POSBIST (POSsibility Assumption and BInary-STate)

POSFUST (POSsibility Assumption and FUzzy-STate) PROBIST (PRObability Assumption and BInary-STate) PROFUST (PRObability Assumption and FUzzy-STate) RAM (Reliability, Availability and Maintainability)

RBD (reliability block diagram) - diagrama em blocos de confiabilidade

RCM (reliability centered maintenance) - manutenção centrada em confiabilidade TTF ( time to failure) – tempo até a falha

TBF (time between failure) - tempo entre falhas TTR ( time to repair) - tempo para o reparo

- iii –

(5)

LISTA DE SÍMBOLOS

A(t) disponibilidade instantânea A

o

disponibilidade operacional A

N

disponibilidade nebulosa A

d

disponibilidade desejada A

Ni

disponibilidade nebulosa inicial A

NA

disponibilidade nebulosa adaptativa

β

parâmetro de forma da distribuição Weibull E(T) valor esperado da variável aleatória T f

T

(t) função densidade de probabilidade

f(t) função densidade de probabilidade de falhas F

T

(t) função densidade de probabilidade acumulada

F(t) função densidade de probabilidade acumulada de falhas

γ

parâmetro de vida mínima da distribuição Weibull

g(t) função densidade de probabilidade de reparo G(t) função mantenabilidade

η

parâmetro de vida característica da distribuição Weibull h(t) função taxa de falhas

i(t) função intensidade de falhas λ taxa de falhas

λ

s

taxa de falhas sistema série λ

p

taxa de falhas sistema paralelo L função verossimilhança

µ média (parâmetro da distribuição lognormal) µ

r

taxa de reparo

µ

TR

média dos tempos de reparo (banco de dados) Q

F

quantidade de falhas

R(t) função confiabilidade

σ

desvio padrão (parâmetro da distribuição lognormal) τ

DC

tempo para detectar a falha

τ

DE

tempo para desmontar o equipamento

- iv -

(6)

τ

DF

tempo para disponibilizar ferramentas τ

EF

tempo entre falhas médio nebuloso

τ

l

; τ

lA

tempo logístico; tempo logístico adaptativo

τ

m

; τ

mA

tempo efetivo de manutenção; tempo efetivo de manutenção adaptativo τ

MO

tempo para montar o equipamento

τ

MP

tempo para mobilizar pessoas τ

p

taxa de reparo sistema paralelo

τ

R

; τ

RA

tempo de reparo médio nebuloso; tempo de reparo médio adaptativo τ

Rd

tempo de reparo médio desejado

τ

RE

tempo para reparar o equipamento τ

Ri

tempo de reparo médio inicial

τ

RM

tempo de reparo médio nebuloso calculado por Mamdani τ

RS

tempo para repor sobressalentes

τ

RSU

tempo de reparo médio nebuloso calculado por Sugeno τ

s

taxa de reparo sistema série

τ

T

tempo total de observação considerado τ

TE

tempo para testar a efetividade do reparo T variável aleatória

U(t) indisponibilidade instantânea

xm

matriz de entrada genérica do sistema nebuloso tempo de manutenção

xl

matriz de entrada genérica do sistema nebuloso tempo logístico

xd

matriz de entrada genérica do sistema nebuloso disponibilidade

xCX

entrada complexidade do modo de falha

xLO

entrada localização do modo de falha dentro do equipamento

xDF

entrada dimensão física do sobressalente

xCS

entrada custo do sobressalente

xFO

entrada freqüência de ocorrência de falhas X(t) estado de um sistema genérico

Y matriz transição de estados

- v –

(7)

SUMÁRIO

1 INTRODUÇÃO ... 01

1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais.. 01

1.2 Objetivos e Justificativas ... 02

1.3 Organização do trabalho ... 05

2 ANÁLISE CONVENCIONAL DE FALHAS... 06

2.1 Definições Preliminares... 06

2.2 Função Confiabilidade... 08

2.3 Função Mantenabilidade e Conceito de Manutenção... 13

2.4 Função Disponibilidade... 14

2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes... 17

2.5.1 Modelos não Paramétricos... 18

2.5.2 Modelos Paramétricos... 18

2.5.3 Estimação de Parâmetros... 26

2.5.4 Validação de Modelos... 27

3 MODELAGEM DE SISTEMAS ... 29

3.1 Modelagem de Sistemas não Reparáveis... 29

3.1.1 Análise de Modos e Efeitos de Falhas... 30

3.1.2 Análise por Árvore de Falhas ... 22

3.1.3 Diagrama de Blocos de Confiabilidade ... 23

3.1.4 Simulação de Monte Carlo... 37

3.2 Modelagem de Sistemas Reparáveis... 37

3.2.1 Abordagem por componentes... 38

3.2.2 Abordagem por sistemas... 44

4 ANÁLISE NEBULOSA DE FALHAS... 46

4.1 Análise de Falhas Considerando Inexistência de dados... 46

4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas ... 48

- VI -

(8)

4.3 Modelo Nebuloso para Análise de Falhas... 52

4.4 Modelo Nebuloso Adaptativo para Análise de Falhas... 54

5 AVALIAÇÃO E VALIDAÇÃO DOS MODELOS NEBULOSOS PROPOSTOS... 58

5.1 Descrição do Processo Produtivo... 58

5.2 Implementação dos Modelos Nebulosos Propostos... 60

5.2.1 Cálculo do Tempo de Reparo Nebuloso... 63

5.2.2 Cálculo de Disponibilidade Nebulosa ... 70

5.2.3 Cálculo do Tempo entre Falhas Nebuloso ... 72

5.3 Resultados Obtidos através da Análise Nebulosa de Falhas... 73

5.4 Cálculo Convencional e Validação de Resultados... 76

6 CONCLUSÕES... 83

6.1 Contribuições e Relevância do Trabalho... 83

6.2 Sugestões para Trabalhos Futuros... 85

REFERÊNCIAS BIBLIOGRÁFICAS... 86

APÊNDICE A–EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA... 94

APÊNDICE B – CONDIÇÃO INICIAL DO MODELO ADAPTATIVO... 102

APÊNDICE C – TREINAMENTO NO MODELO ADAPTATIVO... 106

ANEXO A – MODOS DE FALHA LAMINADOR PRIMÁRIO... 109

- VII -

(9)
(10)

SUMÁRIO

1 INTRODUÇÃO ... 01

1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais.. 01

1.2 Objetivos e Justificativas ... 02

1.3 Organização do trabalho ... 05

2 ANÁLISE CONVENCIONAL DE FALHAS... 06

2.1 Definições Preliminares... 06

2.2 Função Confiabilidade... 08

2.3 Função Mantenabilidade e Conceito de Manutenção... 13

2.4 Função Disponibilidade... 14

2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes... 17

2.5.1 Modelos não Paramétricos... 18

2.5.2 Modelos Paramétricos... 18

2.5.3 Estimação de Parâmetros... 26

2.5.4 Validação de Modelos... 27

3 MODELAGEM DE SISTEMAS ... 29

3.1 Modelagem de Sistemas não Reparáveis... 29

3.1.1 Análise de Modos e Efeitos de Falhas... 30

3.1.2 Análise por Árvore de Falhas ... 22

3.1.3 Diagrama de Blocos de Confiabilidade ... 23

3.1.4 Simulação de Monte Carlo... 37

3.2 Modelagem de Sistemas Reparáveis... 37

3.2.1 Abordagem por componentes... 38

3.2.2 Abordagem por sistemas... 44

4 ANÁLISE NEBULOSA DE FALHAS... 46

4.1 Análise de Falhas Considerando Inexistência de dados... 46

4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas ... 48

- VI -

(11)

4.3 Modelo Nebuloso para Análise de Falhas... 52

4.4 Modelo Nebuloso Adaptativo para Análise de Falhas... 54

5 AVALIAÇÃO E VALIDAÇÃO DOS MODELOS NEBULOSOS PROPOSTOS... 58

5.1 Descrição do Processo Produtivo... 58

5.2 Implementação dos Modelos Nebulosos Propostos... 60

5.2.1 Cálculo do Tempo de Reparo Nebuloso... 63

5.2.2 Cálculo de Disponibilidade Nebulosa ... 70

5.2.3 Cálculo do Tempo entre Falhas Nebuloso ... 72

5.3 Resultados Obtidos através da Análise Nebulosa de Falhas... 73

5.4 Cálculo Convencional e Validação de Resultados... 76

6 CONCLUSÕES... 83

6.1 Contribuições e Relevância do Trabalho... 83

6.2 Sugestões para Trabalhos Futuros... 85

REFERÊNCIAS BIBLIOGRÁFICAS... 86

APÊNDICE A–EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA... 94

APÊNDICE B – CONDIÇÃO INICIAL DO MODELO ADAPTATIVO... 102

APÊNDICE C – TREINAMENTO NO MODELO ADAPTATIVO... 106

ANEXO A – MODOS DE FALHA LAMINADOR PRIMÁRIO... 109

- VII -

(12)
(13)

1 INTRODUÇÃO

1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais

A importância da análise de falhas tem aumentado nas últimas décadas devido à complexidade crescente dos sistemas e as severas implicações decorrentes de eventuais falhas.

A história da confiabilidade remonta a meados de 1930 quando os conceitos da teoria da probabilidade foram aplicados a problemas relacionados à geração de energia elétrica. O conceito de confiabilidade surgiu na indústria aeronáutica após a Primeira Guerra mundial. Nesta época iniciaram-se os estudos sobre causas e efeitos de falhas bem como a utilização de redundâncias em virtude do aumento dos transportes aéreos. Durante a Segunda Guerra os alemães aplicaram os conceitos básicos de confiabilidade para melhorar o desempenho de seus foguetes (DHILLON, 1999) e muitos outros avanços ocorreram nesta época devido ao aumento do tamanho e da diversidade dos sistemas.

Em 1950 o Departamento de Defesa dos Estados Unidos estabeleceu um comitê para estudo de confiabilidade que em 1952 foi transformado em uma subdivisão permanente. Em 1954 foi organizado o primeiro Simpósio Nacional sobre Confiabilidade e Controle de Qualidade e no ano seguinte o Instituto de Engenheiros Eletricistas e Eletrônicos (Institute of Electrical and Electronic Engineers-IEEE) fundou a Sociedade de Confiabilidade e Controle de Qualidade (DHILLON, 1999).

Todo o arcabouço relacionado à teoria de Controle de Qualidade estabelece

procedimentos através dos quais um determinado produto é confrontado com uma

especificação ou um conjunto de atributos a serem alcançados. Assim, a verificação

da qualidade é feita no momento da avaliação. Por outro lado, a confiabilidade é

centrada no estudo de falhas no decorrer do tempo. Portanto, a confiabilidade pode

ser interpretada como o estudo da qualidade ao longo do tempo sendo esta a

principal diferença entre as duas abordagens (O’CONNOR, 2002).

(14)

É intuitivo perceber a relação entre confiabilidade e custo. Normalmente a confiabilidade de um sistema cresce de maneira proporcional aos recursos financeiros investidos para este propósito. Este custo pode estar relacionado à utilização de matéria prima de melhor qualidade, acréscimo de algum tipo de redundância ou mesmo à introdução de políticas de manutenção mais adequadas.

A necessidade por sistemas mais confiáveis está inserida em um contexto de interesses conflitantes que envolvem a minimização de gastos e maximização de lucros. Existe, portanto, um delicado ponto de equilíbrio a ser alcançado uma vez que baixa confiabilidade pode acarretar perda de vidas humanas e prejuízos materiais.

Desde a criação do conceito de confiabilidade, ocorreu ao longo dos anos o desmembramento em vários ramos de aplicação como confiabilidade de equipamentos mecânicos, confiabilidade de software, confiabilidade humana, otimização da confiabilidade, crescimento da função confiabilidade (reliability growth), entre muitos outros. O trabalhos de Vouk (2005), Fragola(2005) e Mettas (2000) apresentam amplas revisões bibliográficas sobre confiabilidade de software, confiabilidade humana e otimização respectivamente. Quanto ao estudo de sistemas reparáveis, pode ser citado o livro de Ascher e Feingold (1984).

Especificamente com relação ao crescimento da função confiabilidade os trabalhos de Larry Crow (CROW, 1990; CROW, 2005 a; CROW, 2005 b) são referências importantes.

1.2 Objetivos e Justificativas

A análise de Confiabilidade, Disponibilidade e Mantenabilidade (RAM - Reliability, Availability and Maintainability) convencional é baseada na abordagem probabilística e pressupõe a existência de uma grande quantidade de dados. Existe, portanto, uma forte correlação entre a precisão de uma estimativa probabilística e o tamanho da amostra onde os dados foram obtidos.

O principio da intratabilidade de Zadeh (1973) estabelece que à medida que a

complexidade de um sistema aumenta, a capacidade de se realizar inferências

precisas e significativas sobre seu comportamento diminui até que seja atingido um

(15)

limite a partir do qual relevância e precisão sejam atributos mutuamente exclusivos.

Este princípio traduz a constatação de que em sistemas complexos não é fácil obter ao mesmo tempo precisão e relevância em patamares aceitáveis. Esta afirmativa aplica-se claramente à análise de confiabilidade. Considerando-se que os sistemas em geral tornam-se cada vez mais complexos, os fatores de precisão são determinantes na metodologia de aquisição de dados capazes de representar sua operação de forma abrangente.

Em uma avaliação convencional de confiabilidade os valores coletados dos sistemas, componentes, etc. são tratados como valores precisos. A análise clássica de confiabilidade normalmente não aborda a suscetibilidade a eventos externos ou ao erro humano em operação e manutenção. Sendo desejável considerar a contribuição relativa da incerteza para o risco total, mesmo os modelos mais sofisticados, precisos e bem construídos podem fornecer resultados incorretos se esta incerteza não é tratada de alguma forma (BOWLES; PELÁEZ, 1995)

Nachtmann e Chimka (2003) definem a incerteza como uma condição onde a possibilidade de erro existe devido à falta de informação a respeito de um determinado ambiente. A incerteza pode manifestar-se como resultado da aleatoriedade ou como resultado da imprecisão.

A incerteza devido à imprecisão tem origem na própria natureza do pensamento, raciocínio, cognição e percepção humanos. A incerteza devido à aleatoriedade é conseqüência da dependência de um grande número de fatores que podem ser classificados em inerentes, ambientais ou operacionais. Podem ser citados como exemplos de fatores de imprecisão a composição da matéria prima, tolerâncias dimensionais ou fatores aos quais o sistema é vulnerável como temperatura, unidade, vibração entre outras condições estressantes.

A incerteza com relação aos dados pode ocorrer em qualquer fase do ciclo de

vida de um componente ou sistema. Nas fases iniciais de desenvolvimento ocorre

escassez de dados considerando-se que em um novo projeto a probabilidade de

falha usualmente é desconhecida. Nestes casos são utilizadas estimativas baseadas

no julgamento de engenharia ou na experiência adquirida ao longo do tempo. No

caso de um componente ou sistema que já se encontra em funcionamento, pode

ocorrer a incerteza devido ao fato que as falhas são eventos relativamente raros

(tipicamente poucas falhas por milhões de horas de operação). Outro aspecto a ser

considerado é que uma coleta de dados que forneça subsídios suficientes a uma

(16)

análise de confiabilidade consistente é uma tarefa árdua e demorada. Podem acontecer ainda problemas devido à falta de uma documentação clara e precisa na qual conste data, local, origem e causa da falha (BOWLES; PELÁEZ, 1995).

Devido à todos os fatores expostos considera-se que os tempo até a falha e os tempos de reparo de um sistema possam ser interpretados de uma maneira ampla como função de fatores inerentes, ambientais e operacionais. Assim, é razoável supor que a abordagem probabilística possa ser insuficiente para modelar a confiabilidade e mantenabilidade de sistemas complexos onde exista falta de dados devido à imprecisão ou incertezas de naturezas diversas.

Numerosas ferramentas estatísticas têm sido desenvolvidas para auxiliar a análise de confiabilidade de sistemas. Entretanto, as metodologias existentes dependem de dados e parâmetros que, em muitas situações, são ora suficientes mas imprecisos, ora insuficientes ou em muitos casos inexistentes. Como conseqüência, a escassez e ou a imprecisão de dados pode originar análises e informações errôneas, mesmo sendo obtidas a partir de metodologias corretas (BOWLES; PELÁEZ, 1995, UTKIN; GUROV, 1995). Este fato motivou a criação de técnicas alternativas baseadas em inteligência computacional para a análise de falhas em geral.

O cálculo de confiabilidade baseado em técnicas de inteligência computacional (LEVITIN, 2006) pode abranger o uso de sistemas nebulosos, redes neurais, algoritmos genéticos ou técnicas híbridas. Aplicações de confiabilidade nebulosa (fuzzy) têm sido desenvolvidas por diversos autores como, por exemplo, Cai (1991);

Nachtmann e Chimka (2003); Guimarães e Lapa (2004).

O objetivo principal deste trabalho é contribuir na análise de disponibilidade de

sistemas reparáveis utilizando uma abordagem nebulosa e tendo como base a

experiência de especialistas em operação destes sistemas. A principal justificativa

para utilização da abordagem nebulosa em análise RAM (Reliability, Availability and

Maintainability) é a inexistência de bancos de dados consistentes contendo

informações sobre datas de ocorrências de falhas e tempos de reparo. Embora

grande parte das indústrias não possua um banco de dados adequado à análise

RAM convencional, existem especialistas que detêm o conhecimento acerca da

operação de seus processos. A abordagem nebulosa pode ser útil para modelar o

conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta

(17)

forma, o processo de tomada de decisão no planejamento das atividades de manutenção.

1.3 Organização do trabalho

Este texto está organizado em seis capítulos. Considerando-se a característica multidisciplinar do trabalho, os capítulos de 2 e 3 referem-se a conceitos elementares. Estes capítulos têm a função de facilitar a compreensão dos capítulos subseqüentes e estabelecer a padronização da notação a ser utilizada. O capítulo 2 descreve conceitos básicos e aborda os métodos estatísticos utilizados para quantificar a disponibilidade, confiabilidade e mantenabilidade de componentes. O capítulo 3 descreve as técnicas mais utilizadas para cálculo da confiabilidade de sistemas reparáveis e não reparáveis. O capítulo 4 apresenta as principais metodologias encontradas na literatura para análise de falhas a partir da abordagem nebulosa e detalha o modelo proposto.

A descrição do processo utilizado como exemplo de aplicação do modelo proposto e todos os resultados obtidos são detalhados no capítulo 5. Neste capítulo é apresentado ainda o cálculo convencional para fins de validação do trabalho.

Finalmente, no capítulo 6 são apresentadas as conclusões e propostas de

continuidade.

(18)

2 ANÁLISE CONVENCIONAL DE FALHAS

2.1 Definições Preliminares

A análise convencional de falhas de sistemas reparáveis estabelece o estudo de duas variáveis aleatórias de interesse: tempo entre falhas (TBF) e o tempo de reparo (TR). Será considerado neste trabalho que após a ocorrência de uma falha será realizado um reparo imediatamente. Será considerado ainda que o reparo é capaz de levar o item falho (componente ou sistema) novamente a sua condição original. A literatura refere-se a este conjunto de considerações através do termo

“tão bom quanto novo” (as-good-as-new). Como conseqüência, a distribuição da variável aleatória tempo até a falha (TTF) será considerada igual a distribuição da variável aleatória tempo entre falhas (TBF).

Objetiva-se apresentar genericamente os conceitos de variável aleatória e distribuição de probabilidade. Posteriormente estes conceitos serão utilizados para definir as funções confiabilidade e mantenabilidade a partir das variáveis aleatórias tempo entre falhas e tempo de reparo, respectivamente.

Seja um espaço amostral S. Uma variável aleatória T é uma função que associa um número real a cada resultado de um experimento aleatório (MONTGOMERY; RUNGER, 2003).

A função distribuição acumulada fda ( cumulative distribution function -cdf), de uma variável aleatória qualquer T, é definida como a probabilidade do evento (T ≤ t ) (LEON GARCIA, 1994). Este conceito é expresso através de (2.1) e representa a probabilidade da variável aleatória T assumir valores no intervalo (-∞ , t].

) ( )

(t P T t

FT = ≤

(2.1)

Onde: t é a variável tempo;

(19)

T é a variável aleatória;

F

T

(t) é a função distribuição acumulada da variável aleatória T.

A probabilidade que a variável aleatória T pertença ao intervalo limitado por t e t+ ∆t quando ∆t torna-se infinitamente pequeno (∆t→0 ) é representada por (2.2) (LEWIS, 1987).

) (

)

(t t P t T t t

fT ∆ = ≤ ≤ +∆

(2.2 )

Onde f

T

(t) : função densidade de probabilidade.

O termo f

T

(t) em (2.3) é a função densidade de probabilidade fdp( probability density function- pdf) da variável aleatória T. Este conceito é apresentado em (2.3), sendo definido como a derivada da função distribuição acumulada ou cdf.

Obviamente, a função distribuição acumulada F(t) pode ser apresentada como em (2.4).

dt t t dF

fT T

( ) )

(

=

(2.3)

= t T

T t f t dt

F

( ) ( ) (2.4)

Considerando-se a função densidade de probabilidade continua representada

na figura 2.1, a área sob a curva tem valor unitário pois descreve a probabilidade de

todos os valores da variável T (O’ CONNOR, 2002; PEEBLES, 1993). Este conceito

pode ser descrito através de (2.5).

(20)

Figura 2.1: Função densidade de probabilidade contínua

1 ) ( )

( )

(

= −∞< <+∞ = +∞

=

dt t f T

P t

FT T

(2.5 )

De maneira análoga, a probabilidade de um valor ocorrer entre t

1

e t

2

é dada por (2.6).

dt t f t

T t P

t

t

=

2

1 2

1 ) ( )

(

(2.6 )

A média ou valor esperado da variável aleatória T, modelada através da função densidade de probabilidade continua f

T

(t), é dada por (2.7).

dt t f t T E +∞

=

( ) )

( (2.7 )

Para fins de simplificação a função f

T

(t) será representada como f(t) em todo o texto subseqüente. Idem para as demais funções onde o sub-índice que representa a variável aleatória T será omitido.

2.2 Função Confiabilidade

A confiabilidade de um componente, equipamento ou sistema pode ser

definida como a probabilidade de funcionamento isento de falhas durante um

(21)

período de tempo pré-determinado, sob condições de operação estabelecidas.

Define-se como falha o término da capacidade de um item desempenhar uma função requerida.

A teoria clássica de confiabilidade considera a condição de operação de um sistema como um experimento aleatório, no qual podem ser identificados qualitativamente dois estados: “falha” ou “operação normal”. Estes estados podem ser expressos numericamente utilizando-se o conceito de variável aleatória.

Seja um item qualquer em operação em um instante de tempo especificado (t = 0). Se este item for observado até que falhe, a duração do tempo até falhar T, pode ser considerada uma variável aleatória contínua com alguma função densidade de probabilidade. O valor de T não pode ser previsto a partir de um modelo determinístico. Isto implica que componentes idênticos sujeitos aos mesmos esforços falharão em instantes diferentes (MEYER,1983).

Analisando-se a definição de confiabilidade percebe-se claramente sua dependência em relação ao tempo. Portanto, pode-se criar uma variável aleatória

“tempo até a falha” – T para quantificar a probabilidade de ocorrência de uma falha (2.8).

) ( )

(

t P T t

F = ≤

(2.8)

Onde: F(t) é a função distribuição acumulada de falhas.

Considerando que um item que não falhou para um tempo T≤ t possa falhar em um tempo T>t, pode-se definir o conceito de confiabilidade utilizando-se a expressão (2.9) (LEWIS, 1987).

=

=

>

=P T t F t t f t dt t

R

0

) ( 1 ) ( 1 ) ( )

(

(2.9 )

Onde: T é a variável aleatória tempo até a falha (TTF);

R(t) é a função confiabilidade;

f(t) é a função densidade de probabilidade de falhas;

F(t) é a função distribuição acumulada de falhas.

(22)

= t f t dt t

R

0

) ( 1 )

(

(2.10)

Onde: f(t) é a função densidade de probabilidade de falhas;

A expressão (2.10) pode ser reescrita como em (2.11) que fornece a pdf do tempo até a falha em termos da função confiabilidade R(t).

dt t t dR

f

( )

)

(

=−

(2.11 )

O parâmetro MTTF (mean time to failure) é definido como o valor esperado da variável aleatória T:

[ ]

T t f t dt

E

MTTF = =+∞

0

)

(

(2.12)

O MTTF pode ser escrito diretamente em termos da função confiabilidade (LEWIS, 1987). Sustituindo-se (2.11) em (2.12) e integrando-se por partes obtem-se (2.13).

+∞

+∞

+

=

=

0 0 0

) ( )

) (

( dt tR t

|

R t dt

dt t t dR

MTTF

(2.13)

Considerando-se que lim ( )

=

0

tR t

t

, então:

+∞

=

0

) (t dt R

MTTF

(2.14)

Cabe ressaltar que uma análise de confiabilidade deve ser realizada a partir do maior número possível de informações e que somente o valor do MTTF (ou MTBF) não é suficiente para traduzir o comportamento de falhas de um determinado item.

A velocidade de ocorrência de falhas pode ser expressa através do parâmetro

taxa de falhas sendo a análise de falhas um processo interativo cujo sucesso

depende de se determinar relações implícitas entre causa e efeito. A taxa de falhas

instantânea h(t) pode ser definida em termos da confibilidade R(t) e da função

(23)

densidade de probabilidade f(t), como expresso em (2.15). Maiores detalhes podem ser obtidos em Lewis (1987)

) (

) ) (

(

R t

t t f

h =

(2.15)

As falhas podem ser classificadas em relação ao tempo de acordo com o mecanismo que as originaram. O comportamento da taxa de falhas pode ser representado graficamente através da curva conhecida como curva da banheira (figura 2.2) e que apresenta três fases distintas: falhas prematuras, vida útil e velhice. A região de falhas prematuras (ou mortalidade infantil) é caracterizada por taxa de falhas alta e rapidamente decrescente com o tempo. A região de vida útil apresenta taxa de falha aproximadamente constante e a região de velhice é caracterizada por taxas de falha crescente (LEWIS, 1987; FILHO,1997; FREITAS;

COLOSIMO, 1997).

Figura 2.2: Curva da banheira Fonte: MOUBRAY, 1999

Cabe ressaltar que existem classes particulares de sistemas nos quais podem

prevalecer uma das três fases descritas. Por exemplo, no estudo do comportamento

da taxa de falhas de softwares, não existe o período de envelhecimento

prevalecendo a fase de falhas prematuras (LEWIS, 1987). Neste caso, não se deve

confundir o término da vida útil, em termos de confiabilidade, com a obsolescência

do ponto mercadológico (LAFRAIA, 2001).

(24)

Embora a curva da banheira ainda seja muito utilizada, ela foi considerada um padrão de representação somente até o início da década de 70 (LUCATELLI, 2002). Posteriormente, devido à própria evolução dos equipamentos, verificou-se a existência de outros tipos de comportamento conforme ilustra a figura 2.3 (MOUBRAY, 1999).

Figura 2.3: Padrões de falha Fonte: MOUBRAY, 1999

O padrão de falha A representado na figura 2.3 é conhecido como curva da banheira conforme figura 2.2. O padrão B apresenta uma taxa de falhas aproximadamente constante, ou com um aumento lento, seguido por um período de desgaste. O padrão C mostra uma taxa de falhas com crescimento lento sem apresentar desgaste ao final da vida útil. O padrão D apresenta baixa taxa de falhas no início da vida seguido por um patamar constante (MOUBRAY, 1999).

O padrão de falha E é representativo para computadores e outros tipos de hardware formados essencialmente por componentes eletrônicos (LEWIS, 1987).

Observa-se que este tipo de componente normalmente apresenta falhas aleatórias.

O padrão F começa com uma alta taxa de falhas no periodo de falhas prematuras

(mortalidade infantil) que tende a estabilizar-se rapidamente em torno de um valor

aproximadamente constante.

(25)

Estudos realizados na aviação civil demonstram que 68% das falhas obedecem ao padrão F e 14% ao padrão E. Os outros padrões apresentam índices muito menores. Não é possível afirmar que estes mesmos percentuais se repitam na indústria porém sabe-se que, quanto maior a complexidade do equipamento em estudo, maiores as chances de predominância dos padrões E e F (MOUBRAY, 1999; LAFRAIA, 2001; LUCATELLI, 2002).

2.3 Função Mantenabilidade e Conceito de Manutenção

O desenvolvimento matemático apresentado para a função confiabilidade R(t) é válido para a função mantenabilidade G(t). Esta função relaciona-se à capacidade de reparo e quantifica a probabilidade de que uma falha seja reparada até um tempo t previamente estabelecido. A mantenabilidade depende do tipo de componente, sua localização no sistema ou equipamento, ferramentas existentes, conhecimento técnico, dentre outros fatores. Portanto, o tempo necessário para se realizar um reparo em um sistema pode ser definido como uma variável aleatória da mesma forma que o tempo entre falhas. As funções distribuição acumulada de reparo ou função mantenabilidade G(t) e densidade de probabilidade de reparo g(t) são assim definidas:

dt t t dG

g

( )

)

(

=

( 2.16)

O tempo médio para o reparo (mean time to repair) MTTR é definido de maneira análoga ao MTTF:

[ ]

T t g t dt E

MTTR = =+∞

0

)

(

( 2.17)

Onde T é a variável aleatória tempo de reparo (TR).

(26)

Concluindo, todas as expressões apresentadas anteriormente para modelagem de confiabilidade também são válidas para a modelagem de mantenabilidade. Apresenta-se a seguir o conceito de manutenção.

Define-se como manutenção o conjunto de ações destinadas a manter ou recolocar um item em um estado no qual possa executar sua função requerida. O propósito da manutenção é estender a vida de um equipamento ou, no mínimo, aumentar o tempo médio até a próxima falha. A ação de não realização de um procedimento de manutenção pode ter como conseqüência um alto custo em caso de uma falha. Paradoxalmente, pode não ser viável, do ponto de vista econômico, a realização de ações de manutenção com uma freqüência muito alta. Assim, o custo devido a uma provável falha e o custo de manutenção devem ser balanceados de forma a se obter um ponto ótimo (ENDRENYI et al., 1998)

A manutenção é apenas uma das ferramentas utilizadas para garantir que a confiabilidade de um componente ou sistema seja satisfatória. Outras opções podem incluir o aumento da capacidade do sistema, utilização de redundâncias ou o emprego de componentes intrinsecamente mais robustos (IEEE,2001). Maiores detalhes sobre manutenção podem ser obtidos em Moubray (1999).

2.4 Função Disponibilidade

Qualitativamente a disponibilidade A (availability) mede a proporção de tempo que um produto ou processo encontra-se em estado operativo. Define-se por estado operativo o somatório dos tempos de uso ativo e o tempo de espera (tempo do qual o equipamento não está em operação mas está disponível para utilização imediata).

Considerando-se um sistema constituído somente de componentes não reparáveis, o tempo de reparo deixa de existir porque o componente é substituído.

Assim, o conceito de disponibilidade torna-se o mesmo de confiabilidade sendo a

probabilidade que o sistema funcione continuamente do tempo 0 até um tempo t

(DUTUIT; RAUZY, 2005). Como esta situação não corresponde à realidade na

grande maioria das vezes, torna-se necessário o estudo dos estados que um

(27)

sistema pode assumir e consequentemente, a sua disponibilidade. É possível representar o estado de um sistema genericamente através da função X(t) (2.18)





=

t tempo no

o funcionand está

não sistema o

se

t tempo no

o funcionand está

sistema o

t se

X 0

) 1

(

(2.18)

A partir da função X(t) define-se a função disponibilidade instantânea A(t) como a probabilidade que o sistema esteja em condição operacional no instante t (2.19)

[

( ) 1

]

)

(t =P X t =

A

(2.19)

A probabilidade que um sistema esteja indisponível no instante de tempo t é definida como U(t). É obvio concluir que a soma de A(t) e U(t) deve ser unitária. A variação da disponibilidade do instante t para o instante (t+ ∆t) é expressa por (2.20) (CASSADY, 2005). Um procedimento análogo pode ser realizado com relação à indisponibilidade.

) ( )

( )

( )

(

t t At t A t tU t

A +∆ = −

λ

∆ +

µ

r

(2.20)

Onde A(t): disponibilidade;

U(t) : indisponibilidade;

λ: taxa de falha ;

µ

r

: taxa de reparo;

(λ ∆t) : probabilidade do sistema falhar em um tempo finito ∆t;

r

∆t) : probabilidade do sistema ser reparado em um tempo finito ∆t.

Considerando-se o caso limite onde a variação ∆t tende a zero, a expressão (2.21) pode ser reescrita através da equação diferencial:

) ( )

) (

( At U t

t d

t dA

µr

λ +

=

(2.21)

Considerando-se condições iniciais nulas e solucionando (2.21) tem-se que:

(28)

[

t

]

t

A r

r r

r exp ( )

)

( λ µ

µ λ

λ µ

λ

µ +

+ +

= +

(2.22)

Quando a disponibilidade assume um valor constante no tempo define-se o conceito de disponibilidade estacionária, que pode ser ilustrado na figura 2.4 e deduzido através de (2.22) Neste caso o valor do tempo tende a infinito resultando em (2.23)

r r

t A t

A

λ µ

µ

= +

=lim ( )

(2.23)

Figura 2.4: Disponibilidade dinâmica

Sabe-se que no período de vida útil de um equipamento as taxas de falha λ e reparo

µr

são aproximadamente constantes. Nestas condições, o tempo médio para reparo MTTR (mean time to repair) é o inverso da taxa de reparo e o tempo médio entre falhas MTBF (mean time between failures) é o inverso da taxa de falhas. Assim, é possível definir a disponibilidade em função do MTBF e do MTTR (2.24) Procedimento análogo pode ser realizado em relação à indisponibilidade U(t) obtendo-se (2.25)

MTTR MTBF

A MTBF

r r

= +

= +

µ λ

µ (2.24)

A(t)

1

t

µr

λ+µr

(29)

r

U

λ µ

λ

= +

(2.25)

A expressão (2.24) considera que o MTTR (mean time to repair) deve-se somente ao tempo efetivo de manutenção e não leva em consideração aspectos administrativos ou logísticos. Quando estes aspectos são considerados define-se o termo disponibilidade operacional A

o

(PALLEROSI, 2004) conforme expressão (2.26)

) (

) (

) (

ineficaz el

indisponív tempo

eficaz disponível

tempo

eficaz disponível

tempo Ao

= +

(2.26)

2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes

Neste tipo de análise podem ser utilizadas técnicas não paramétricas (nas quais não é necessário especificar nenhuma distribuição de probabilidade) ou técnicas paramétricas onde é realizada a modelagem dos dados segundo uma distribuição de probabilidade. Como exemplo de técnicas não paramétricas podem ser citados os estimadores da Tabela de Vida e Kaplan-Meier (FREITAS E COLOSIMO,1997)

As técnicas não paramétricas são muito simples em termos matemáticos e possibilitam obter distribuições de probabilidades empíricas. Estas técnicas podem ser úteis como testes preliminares principalmente quando não se sabe a priori qual distribuição de probabilidade poderia ser utilizada para a modelagem dos dados em estudo (O’ CONNOR, 2002). As técnicas paramétricas permitem realizar uma análise mais detalhada dos dados e, após a obtenção do modelo, é possível avaliá- lo para qualquer tempo que seja de interesse.

As funções confiabilidade e mantenabilidade podem ser estimadas

considerando-se a ausência ou presença de dados censurados. Dados censurados

ocorrem quando os testes são terminados antes que todos os itens falhem ou

quando ocorre a presença de dados incompletos e ou parciais.

(30)

2.5.1 Modelos não Paramétricos

A estimação da Função Confiabilidade na ausência de censura é feita empiricamente a partir do histograma da distribuição aproximada do tempo de falha.

Neste caso divide-se o número de itens que falharam em um determinado intervalo pelo número de itens em operação até o tempo que corresponde ao início do intervalo. O mesmo procedimento pode ser realizado com relação à mantenabilidade considerando-se o histograma da distribuição aproximada do tempo de reparo.

A estimação da Função Confiabilidade na presença de censura pode ser feita através da Tabela de Vida (Método Atuarial) ou Estimador de Kaplan-Meier (Limite- Produto). O Estimador de Kaplan-Meier é uma adaptação da função confiabilidade empírica definida em (2.27). A expressão (2.28) apresenta sua definição matemática (FREITAS; COLOSIMO, 1997).

teste sob itens de n

t tempo o até operação em

itens de t n

R o

= o

( ) (2.27)





 −



 

 −



 

 −

=

0 0

0

)

... ( ) (

) ) (

(

2 2 2 1

1 1

t t t

n d n n

d n n

d t n

R

(2.28)

Onde d

i

: número de falhas no tempo t

i

;

n

i

: número de itens sob risco (não falhou e não foi censurado) em t

i

exclusive;

t

o

: maior tempo de falha menor que t.

2.5.2 Modelos Paramétricos

A modelagem de confiabilidade e mantenabilidade através de técnicas

paramétricas pode ser realizada utilizando-se modelos de distribuição de variável

discreta ou contínua. Dentre as distribuições discretas, são mais utilizadas as

(31)

distribuições binomial e Poisson. Entretanto, ressalta-se a importância das

distribuições continuas (LEWIS, 1987, DHILLON, 1999), detalhas a seguir. O quadro

2.1 apresenta uma síntese com as principais distribuições de probabilidade utilizadas

nos estudos de confiabilidade e mantenabilidade e suas respectivas equações.

(32)

Quadro 2.1- Principais distribuições de probabilidade continuas utilizadas em análise de confiabilidade e mantenabilidade

Distribuição f(t) F(t) R(t) h(t)

Exponencial

e t

t

f( )=λ λ parat≥0 F(t)=1−eλt R(t)=eλt =etMTBF h(t)=λ

Lognormal 



 

 

 −

= −

ln 2

2 1 2

) 1

( σ

µ π

σ e t t

f

≥0 t para

t dt e

t

F

+ 



 

 

 −

= −

ln 2

2 1 2

) 1

( σ

µ π

σ

) ( 1 )

(t F t

R = −

) (

) ) (

( R t

t t f

h =

Weibull

( )





 −

=

β

η γ β

β γ

η

β t e t

t

f( ) 1

≥0 t para





 −

=

β

η γ t

e t

F() 1





 −

=

β

η γ t

e t

R( ) ( )= β

(

−γ

)

β1

η β t t

h

Onde λ: taxa de falhas

MTBF: tempo médio entre falhas µ: média (parâmetro de localização) σ :desvio padrão (parâmetro de dispersão) β : parâmetro de forma ou inclinação;

γ: parâmetro de localização ou vida mínima;

η: parâmetro de escala ou vida característica. 19

(33)

A distribuição exponencial é uma das mais simples em termos matemáticos e caracteriza-se por apresentar uma taxa de falhas constante (FREITAS; COLOSIMO, 1997). Esta distribuição é aplicada em situações nas quais as falhas ocorrem de forma aleatória com uma taxa fixa. Nestes casos não ocorre um mecanismo de desgaste ou degradação expressivo (propriedade de falta de memória). Nesta situação específica, na qual a função taxa de falhas h(t) é constante, o parâmetro λ é o inverso do MTBF.

A distribuição normal é utilizada para modelar a confiabilidade em situações nas quais existe um tempo de desgaste definido µ (LEWIS, 1987). Apesar de ser muito utilizada e conhecida, o uso da distribuição normal em engenharia de confiabilidade é restrito (MEYER,1983 ; DHILLON, 1999).

Tomando-se como referência a distribuição normal, a distribuição Log-Normal é obtida substituindo-se a variável independente t por ln(t) (FREITAS; COLOSIMO, 1997). Esta distribuição descreve adequadamente tempos de vida de componentes cujos mecanismos de falha envolvem processos de degradação, fadiga e desgastes de uma maneira geral (LEWIS, 1987).

A distribuição Log-Normal apresenta uma grande variedade de formas devido ao efeito da interação da escala logarítmica do tempo com os parâmetros média µ e dispersão

σ.

A função densidade de probabilidade f(t) existe somente para valores positivos de t. Este fato representa uma vantagem com relação à distribuição normal em termos de representatividade uma vez que o mesmo ocorre com a variável de interesse (tempo até a falha), em estudos de confiabilidade (O’ CONNOR, 2002).

A distribuição Weibull foi proposta por W.Weibull em 1954 a partir de estudos

relacionados ao tempo de fadiga de metais (FREITAS; COLOSIMO, 1997). Esta

distribuição apresenta grande variedade de formas tendo como propriedade básica

uma função taxa de falhas h(t) monótona que, portanto, pode ser crescente,

decrescente ou constante. A figura 2.5 apresenta a função densidade de

probabilidade da distribuição Weibull considerando β=0.5, β=1 e β=3,4. Observa-se

que quando β tem valor unitário a distribuição de Weibull aproxima-se da distribuição

exponencial. Quando este parâmetro assume um valor no intervalo 3≤

β ≤ 4 a

distribuição de Weibull aproxima-se da distribuição normal (NELSON, 1982). A figura

2.6 apresenta a função taxa de falha h(t) correspondente às distribuições de

probabilidade da figura 2.5. Observa-se que quando β=1 a taxa de falhas é

constante, para valores menores que 1 é decrescente e para valores maiores que 1

(34)

é crescente (O’ CONNOR, 2002). As figuras 2.7 e 2.8 mostram as funções distribuição acumulada F(t) e as funções confiabilidade R(t) correspondentes. Todas as figuras foram geradas utilizando o software Weibull++7™ (RELIASOFT, 2007).

Figura 2.5: Função densidade de probabilidade

Variação de β considerando η = 2 e γ= 0 Figura 2.6:Função taxa de falhas Variação de β considerando η = 2 e γ= 0

Figura 2.7:Função densidade de falhas acumulada

Variação de β considerando η = 2 e γ= 0 Figura 2.8:Função confiabilidade Variação de β considerando η = 2 e γ= 0

(35)

Além das distribuições citadas anteriormente, existem muitas outras que podem ser utilizadas em estudos de confiabilidade e mantenabilidade. A figura 2.9 (PALLEROSI, 2007) apresenta uma visão geral destas distribuições. Observa-se que, dependendo da variação de seus parâmetros, a distribuição gama generalizada pode dar origem às distribuições gama, Weibull triparamétrica, lognormal ou exponencial. O mesmo ocorre com a distribuição Weibull triparamétrica, que pode originar as distribuições Weibull biparamétrica, normal, lognormal e exponencial.

Figura 2.9:Relação entre as Distribuições de Probabilidade Fonte: PALLEROSI, 2007

(36)

2.5.3 Estimação de Parâmetros

Uma vez que a distribuição de probabilidade que supostamente se ajusta aos dados foi escolhida é necessário estimar seus parâmetros. Dentre os métodos mais utilizados para esta finalidade podem ser citados os papeis de probabilidade, mínimos quadrados e máxima verossimilhança. A escolha do método de estimação a ser utilizado é dependente da quantidade de dados disponíveis e principalmente da forma como os mesmos são apresentados.

Para a criação de um papel de probabilidade no contexto da engenharia de confiabilidade, o primeiro passo é promover a linearização da função densidade acumulada F(t). Assim, será gerado um gráfico cujo eixo das ordenadas representa F(t) e o eixo das abscissas representa o tempo de vida (ou variável de interesse) em escala logarítmica. Cabe ressaltar que o termo “papel de probabilidade” neste texto refere-se à gráficos gerados através de ferramentas computacionais.

Tomando-se como exemplo uma distribuição de Weibull, a equação linearizada (2.29) pode ser interpretada como a equação de uma reta na forma Y=AX+B.

) ( ln ) ( ) ln

( 1 ln 1

ln

=

β

0

β η



 

 

= − t t

t F

(2.29 )

O parâmetro de forma β corresponde ao coeficiente de inclinação da reta. O parâmetro de escala η pode ser calculado como o tempo no qual a função F(t) corresponde a 63,2% (O’ CONNOR, 2002) conforme (2.30). Observa-se que, neste caso, o parâmetro de vida mínima γ foi considerado igual a zero. Considerando situações nas quais este parâmetro apresentar outro valor qualquer poderá ser utilizada a mesma metodologia proposta considerando-se que todos os resultados encontrados serão deslocados.



 

−

= A

exp

B

η (2.30)

(37)

Existe a necessidade de se ordenar os dados e calcular o percentual acumulado de falhas F(t). Este cálculo é normalmente realizado pela aproximação de Bernard (O’ CONNOR, 2002) conforme (2.31).

4 , 0

) 3 , 0 ( 100

+

= − N

ri i

(2.31)

Onde i : número de ordem.

N : tamanho da amostra;

A figura 2.9 apresentada, como exemplo, um Papel de Probabilidade para a distribuição Weibull.

Figura 2.9: Estimativa de β e η utilizando-se o papel de probabilidade Weibull

Quando não é possível ou desejável estimar os parâmetros da distribuição de probabilidade de interesse de forma gráfica, tem-se a opção de utilizar o método dos mínimos quadrados. Partindo-se do modelo de uma reta como, por exemplo, apresentado em (2.29) o método de Mínimos Quadrados objetiva minimizar a soma dos quadrados do erro. Formalmente, as estimativas de mínimos quadrados dos parâmetros A e B são os valores que tornam mínima a expressão 2.32. O símbolo

“^” indica o valor estimado (MEYER, 1983).

10000 100000

5,00 10,00 50,00 90,00

99,00 6,0 2,0 1,0

β

η

F(t)%

63,2

β≈2

t =η ≈28000 ln(t)

(38)

=

+

= n

i Yi AXi B

B A

1

)]

2

( [ ) ,

ε ( (2.32)

Onde n : número de observações

A fim de obter as estimativas desejadas dos parâmetros A e B deve-se resolver (2.33) e (2.34) condição necessária para que o erro ε (A,B) seja mínimo.

=

0

A

ε (2.33)

=

0

B

ε (2.34)

A soma do quadrado do erro pode ser calculado com relação ao eixo das abscissas (eixo y) conforme descrito por (2.32). Como uma outra opção, o mesmo cálculo pode ser feito com relação ao eixo das ordenadas (eixo x) conforme (2.35)

=

+

= n

i Xi AYi B

B A

1

)]

2

( [ ) ,

ε ( (2.35)

Onde n : número de observações.

O método regressão linear apresenta restrições quando aplicado a estudos que envolvam tempos de vida devido a sua incapacidade de lidar com dados que são fornecidos em intervalos ou que apresentem censuras (FREITAS; COLOSIMO, 1997). Em geral, é recomendado usar esta técnica somente quando se tem uma amostra pequena e sem censuras.

Uma outra opção para estimação de parâmetros no contexto da engenharia de confiabilidade é o método de Máxima Verossimilhança. Este método estima os valores dos parâmetros de uma dada distribuição de probabilidade tal que a função de verossimilhança L seja maximizada. A expressão 2.36 apresenta uma pdf genérica.

( 2.36)

Onde t : tempo até a falha;

) ..

., ,

;

(t 1 2 k f θ θ θ

(39)

θ

k

: parâmetros a serem estimados.

Sejam t

1

,...,t

n

os valores amostrais da variável aleatória “tempo até a falha” e θ o vetor de parâmetros que se deseja estimar. A função de verossimilhança L é definida por (2.37) (MEYER, 1983; DHILLON, 1999). Considera-se que não ocorreram censuras.

(2.37)

Onde L : função de verossimilhança;

t

n

: tempos até a falha;

θ : vetor de parâmetros a serem estimados.

Portanto, considerando-se conjuntos de dados não censurados, a função de verossimilhança é o produto das funções pdf resultantes de cada observação do conjunto de dados. Este conceito é expresso por (2.38)

(2.38)

Onde L : função de verossimilhança;

t

n

: tempos até a falha;

θ

k

: parâmetros a serem estimados;

k : quantidade de parâmetros da distribuição;

n : número de observações.

Para se maximizar a função de verossimilhança L, é usual utilizar sua versão em forma logarítmica, conforme (2.39)

(2.39)

A partir de 2.39 deve-se encontrar o conjunto de parâmetros que a maximiza.

Este cálculo é realizado determinando-se as derivadas parciais em relação a cada parâmetro e igualando o resultado a zero. Assim, a maximização de ln L resulta da

) ..

., ,

; ( )

..

., ,

; ..

.,

( 1 2

1 2

1 2 ,

1 i k

n

i k

n f t

t t t

L θ θ θ

θ θ θ

=

=

)

; ( ...

)

; ( )

; ( )

; ..

.,

(t1,t2 tn θ f t1 θ f t2θ f tn θ

L =

) ..

., ,

; ( ln )

..

., ,

; ..

., (

ln 1 2

1 2

1 2 ,

1 i k

n

i k

n f t

t t t

L θ θ θ

θ θ θ

=

=

Imagem

Referências

temas relacionados :