• Nenhum resultado encontrado

AVANÇOS E MODIFICAÇÕES EM GRÁFICOS DO TIPO SHEWHART “P” OU “NP”

PROCEDIMENTOS CUSUM E SHEWHART PARA SINALIZAR GRANDES ALTERAÇÕES

2. CONTROLE ESTATÍSTICO DE PROCESSOS E GRÁFICOS DE CONTROLE SHEWHART PARA ATRIBUTOS

2.7 AVANÇOS E MODIFICAÇÕES EM GRÁFICOS DO TIPO SHEWHART “P” OU “NP”

Diversos trabalhos publicados focam alterações no gráfico do tipo Shewhart com objetivos de contornar algumas limitações e aumentar sua eficiência, sem perder a simplicidade de uso e interpretação. Entre eles:

a) Gráficos de controle com tamanho de amostra variável para atributos (EPPRECHT e COSTA, 2001);

b) gráficos do tipo SHEWHART “np” baseados em valores específicos para a fração não conforme p0 sob controle, decréscimo na

proporção , acréscimo na proporção , seus correspondentes desenhos de RL e probabilidades correspondentes (WU e LUO, 2003);

c) gráfico “np" ótimo com restrições, mantendo a taxa de alarmes falsos em um determinado nível (WU; LUO; ZHANG, 2006);

d) gráfico do tipo Shewhart modificado para detecção de melhoras em processos com proporção de itens não conformes muito pequena e o limite inferior calculado é negativo ou zero (LUCAS et al., 2006). Estes gráficos modificados não serão abordados neste trabalho.

2.8 SUPOSIÇÕES

A aplicação dos gráficos de controle de Shewhart e CUSUM para dados com distribuição binomial só será eficaz se os dados atenderem às seguintes premissas: os dados devem ter distribuição binomial; não apresentar superdispersão e devem ser independentes.

O distanciamento da distribuição binomial pode afetar o desempenho dos gráficos de controle, tanto de Shewhart, como o CUSUM (ver Capítulo 3), resultando em mais alarmes falsos. Para Jones e Govindaraju (2000) é possível estabelecer limites Shewhart sem verificar a aderência, mas recomendam a verificação para o caso de aparecerem muitos pontos além dos limites sem nenhuma explicação pelo processo (por exemplo, alarmes falsos). Wetherill e Brown (1991), todavia, recomendam verificar a aderência antes de estabelecer os limites de controle.

A verificação da aderência pode ser feita por testes formais, como por exemplo, o teste qui quadrado (WETHERILL e BROWN, 1991; JONES e GOVINDARAJU, 2000; DEVORE, 2006). Uma breve

discussão sobre testes e de aderência à distribuição binomial está no Anexo I.

Já, a presença de superdispersão (variância maior que ( resulta também no aumento do número de alarmes falsos. Recomenda- se um teste estatístico formal para checar a superdispersão.

Procedimentos para verificar graficamente essas suposições (superdispersão e aderência) são propostos por Jones e Govindaraju (2000). Transformações nos dados, como a arco seno, podem ser usadas e, mediante um gráfico de probabilidade normal verifica-se a presença de superdispersão. Para a distribuição binomial, segundo os autores, se houver superdispersão a suposição de aderência à distribuição binomial não é justificada. A transformação Box-Cox não é considerada muito efetiva no caso de atributos (JONES e GOVINDAJARY, 2000).

A suposição mais importante relativa aos gráficos de controle é a independência das observações de um processo produtivo, ou seja, que não haja correlação entre as unidades amostrais. Se a suposição de normalidade for violada num grau moderado, os gráficos de controle (para variáveis mensuráveis) ainda funcionam razoavelmente, o que não acontece com a suposição de independência. Em relação às variáveis binomiais não se tem registros de artigos que tenham investigado com maior profundidade se a violação da aderência em um grau menor afeta o desempenho de um gráfico do tipo Shewhart “p” ou “np”. Mas, gráficos de controle convencionais não funcionam bem se a característica da qualidade apresenta níveis, ainda que pequenos, de correlação ao longo do tempo. Especificamente, com o processo sob controle, resulta em mais alarmes falsos (SHARMA, 2003).

Infelizmente, em muitos processos, principalmente industriais, essa suposição de independência nem sempre é satisfeita, mesmo aproximadamente. Isto é comum na maioria dos casos de processos automatizados, principalmente quando o tamanho da amostra é um (1) e o intervalo entre amostras é muito pequeno. Assim as observações podem ser autocorrelacionadas (SHARMA, 2003). Alwan e Roberts (1995) mostram que a correlação entre unidades amostrais aparece com uma frequência bem maior do que se pensa. Na realidade, a correlação entre as unidades amostrais, no que se refere à variável resposta em estudo, tende a 1(um) quando o intervalo entre inspeções tende a zero. Deste modo, uma das alternativas sugeridas para tratamento da correlação é um maior espaçamento entre as unidades amostrais (ou grupos racionais) selecionadas para inspeção. No entanto, esta alternativa pode ocasionar grandes perdas financeiras uma vez que pelo

fato de se espaçar demais as inspeções demora-se mais para se detectar um problema no processo (MINGOTI e CARVALHO, 2003).

Amostras ou unidades coletadas em sequência consistem numa série temporal de contagens. Um primeiro passo, na análise de séries temporais de contagens, é testar para correlação serial (autocorrelação). Uma forma é estimar um modelo de regressão aos dados, como por exemplo, a Regressão de Poisson, obter os resíduos e testar para correlação nula entre os lags correntes e dos resíduos (CAMERON e TRIVEDI, 2003).

Os estimadores usuais da média e das funções de autocovariância e autocorrelação amostrais (Equações 2.16, 2.17 e 2.18) são considerados fortemente consistentes para séries de contagens (DU e LI, 1991; GAUTHIER e LATOUR, 1994) sendo aplicados por Latour (1998); Silva e Silva (2002); Silva (2005); Cui e Lund (2009).

̅ ∑ (2.16)

̂( ∑ ( ̅ ( ̅ (2.17)

e

̅( ̅(

̅( , (2.18)

onde corresponde a contagens de itens não conformes no instante t (neste trabalho), N ao número de observações (amostras), ̂ é função de autocovariância amostral da observação de ordem k e ̅ é a função de autocorrelação amostral da observação de ordem k.

Testes para independência também são alternativas para verificar a presença de autocorrelação. Vários testes, entre eles, testes de sequências (runs test) e uma adaptação do teste de Portmanteou, são usados por Jung e Tremayne (2006) para verificar a presença de correlação serial em dados de contagens.

Diversos testes foram desenvolvidos para verificar a independência das observações, com características voltadas a distribuições contínuas. Para dados de contagens, em que a distribuição não é discreta, o teste de aleatoriedade de Wald-Wolfowitz (1943) pode ser uma opção para complementar a análise, desde que os momentos sejam finitos e a variância maior que zero. É um teste baseado na correlação serial em que a hipótese nula é a de série ser aleatória.

Para finalizar outra opção é transformar os dados e proceder a análise como para variáveis contínuas com as funções de autocorrelação e autocorrelação parcial amostrais. Todavia, nenhum princípio matemático garante que uma transformação feita com determinado objetivo traga uma melhoria ao conjunto de dados sob outros aspectos; podendo até piorá-los. Quando a variável aleatória é expressa como uma contagem existe a possibilidade de observar um grande número de zeros, além de não assumir valores negativos, o que pode restringir a utilização de modelos gaussianos (ROSA, 1997).

Se os dados apresentarem autocorrelação, duas abordagens, de modo geral, têm sido aplicadas em diversos estudos. Uma corresponde a aplicar gráficos de controle com limites alargados. A outra envolve ajustar os dados a um modelo de séries temporais e monitorar seus resíduos (REYNOLDS e STOUMBOS, 2000).

Para dados discretos alguns modelos para captar a correlação serial são brevemente apresentados em seqüência. Broadbent (1958) propôs o uso de um modelo de dependência serial markoviano para capturar a correlação entre itens num ambiente de manufatura. Este modelo assume que o estado do item corrente depende apenas do estado do item anterior. Assim para uma cadeia de Markov com dois estados, duas probabilidades apenas são consideradas: a probabilidade de obter um item não conforme se o precedente for conforme e a probabilidade de obter um item conforme se o precedente for não conforme. Trabalhos correlatos podem ser encontrados em Bhat e Lal (1988); Bhat et al. (1990) e Lai, Govindaraju e Xie (2000).

Outra proposta é aquela sugerida por Lai, Govindaraju eXie (1998). Neste caso, os autores sugerem o uso do modelo Binomial Generalizado, ou equivalentemente Binomial Correlacionado de Madsen (1993), para monitorar o processo. Sob este modelo a estatística "número de itens conformes testados até a aparição do primeiro ítem não conforme" teria uma distribuição geométrica correlacionada. Lai, Govindaraju e Xie (1998) mostraram os resultados de um estudo sobre o erro do tipo II (ou seja, diz que o processo "está sob controle" quando, na realidade, "não está") em situações nas quais o modelo probabilístico Binomial Generalizado é usado para o tratamento do número de itens não conformes do processo. A correlação entre as unidades amostrais supostamente uma constante igual para todas as unidades e o estimador proposto para o coeficiente de correlação é o de Madsen (1993).

A diferença entre estas duas metodologias é apontada por Mingoti e Carvalho (2003). No caso de Cadeias de Markov presume-se a inspeção serial das unidades do processo, portanto, é preciso manter a

informação sobre o estado de cada item (isto é, se é "não conforme" ou "conforme"), na sequência exata em que foi inspecionado. Já no modelo Binomial Generalizado a informação necessária é aquela relacionada às amostras de itens do processo inspecionadas, sendo que em cada amostra apenas o número de "não conformes" precisa ser guardado.

Russo (2002) aplicou para variáveis não conformes (distribuição de Poisson) correlacionadas o modelo de regressão de Poisson. Para um mesmo processo estudou separadamente as variáveis contínuas (explicativas) e discretas (independentes), unindo-as depois por meio de uma função de transferência, aplicada aos resíduos.

Outras abordagens, envolvendo gráficos CUSUM para monitorar dados autocorrelacionados, são citadas no final do Capítulo 3.