• Nenhum resultado encontrado

Melhoria de processos via delineamento de experimentos e gráficos de controle: proposta para aplicação em micro e pequenas empresas

N/A
N/A
Protected

Academic year: 2021

Share "Melhoria de processos via delineamento de experimentos e gráficos de controle: proposta para aplicação em micro e pequenas empresas"

Copied!
107
0
0

Texto

(1)UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE CENTRO DE TECNOLOGIA PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DE PRODUÇÃO. MELHORIA DE PROCESSOS VIA DELINEAMENTO DE EXPERIMENTOS E GRÁFICOS DE CONTROLE: PROPOSTA PARA APLICAÇÃO EM MICRO E PEQUENAS EMPRESAS. LYCIA NASCIMENTO RABELO MOREIRA. NATAL/RN 2016.

(2) LYCIA NASCIMENTO RABELO MOREIRA. MELHORIA DE PROCESSOS VIA DELINEAMENTO DE EXPERIMENTOS E GRÁFICOS DE CONTROLE: PROPOSTA PARA APLICAÇÃO EM MICRO E PEQUENAS EMPRESAS. Dissertação de Mestrado submetida ao Programa de Pós-Graduação em Engenharia de Produção da Universidade Federal do Rio Grande do Norte, como requisito para obtenção do Título de Mestre em Engenharia de Produção. Orientadora: Carla Almeida Vivacqua, Drª.. Natal/RN 2016.

(3)

(4) DEDICATÓRIA. Aos meus queridos e amados pais, Walter e Dalvanira, e ao meu amado esposo André....

(5) AGRADECIMENTOS. A Deus, por seu infinito amor ao me proporcionar saúde e guiar a minha vida em todos os momentos, trazendo-me força e esperança diante das dificuldades. Aos meus pais, Walter e Dalvanira, por um amor imensurável e inigualável a mim estimado, por terem sido os meus primeiros mestres, cujos ensinamentos são os princípios base que ministram minha vida. Obrigada por acreditarem em mim e no meu potencial mais do que eu mesma acredito. Ao meu esposo André, que preencheu os espaços que ainda estavam abertos na minha vida e me ajudou a enfrentar todos os obstáculos encontrados ao longo do curso, sempre com palavras de amor e de autoestima. A todos os meus familiares, em especial a minha irmã, meus tios e primos, sempre tão presentes desde o início de minha trajetória, evidenciando incessantemente a solidariedade e o carinho a mim dedicados. A minha orientadora, Carla Vivacqua, exemplo de competência e de dedicação ao trabalho acadêmico. Obrigada por ajudar a ampliar os meus conhecimentos e a minha visão acerca do assunto e por sempre me atender com bastante presteza. A todos os funcionários da empresa que atuou como ambiente da pesquisa, me disponibilizando todas as informações necessárias e atuando sempre com bastante solidariedade. A todo o corpo docente e colaboradores do curso de Pós Graduação da UFRN, por terem corroborado de forma direta com essa conquista. Obrigada por terem feito parte de minha formação ampliando os meus conhecimentos e a minha visão de mundo. E obrigada, em especial, aos professores Marcus, Linda e Mariana que aceitaram gentilmente participar de minha banca de defesa. Obrigada a minha querida e amada turma da “sofrência” (Júlia, Tuíra, Vanessa, Izabelle, Rafael, Luciano, Adriana, Iran e Mariana). A minha amiga de hoje e sempre Tâmara e a todos os que não foram citados, mas que de alguma forma contribuíram para esta conquista..

(6) “Tenho a impressão de ter sido uma criança brincando. à. beira-mar,. divertindo-me. em. descobrir uma pedrinha mais lisa ou uma concha mais bonita que as outras, enquanto o imenso oceano da verdade continua misterioso diante de meus olhos.”. (Isaac Newton).

(7) RESUMO. Considerando as exigências cada vez mais estritas que o mercado impõe às empresas e o poder de adaptação em tempos cada vez menores requeridos para que estas se mantenham competitivas, faz-se necessário considerar abordagens que simultaneamente acompanhem os processos-chave e procedimentos que busquem sua otimização. Face ao exposto, o objetivo deste trabalho é propor um modelo de integração entre as ferramentas de experimentação e controle estatístico de processo para fins de implementação em pequenas empresas. Para tanto, realiza-se uma pesquisa bibliográfica para identificar os casos de aplicação integrada destas ferramentas, de modo a servir de base na construção do modelo. Na sequência, o modelo é aplicado para fins de verificação e validação, por meio de um estudo de caso em uma pequena empresa responsável pela fabricação de embalagens manufaturadas em tecido de polipropileno. Dentro deste contexto, realiza-se um experimento fatorial 2³ x 2² aleatorizado em parcelas subdivididas com réplica e repetição. Para a análise do experimento e interpretação dos resultados, fazem-se uso do software Minitab 17, o qual gera os gráficos dos efeitos principais e das interações que são significativas ao nível 5% de significância. Posteriormente, uma proposta conceitual de monitoramento via gráficos de controle é sugerida a fim de manter as variáveis de saída sob estado de controle estatístico. Por fim, os resultados mostraram que o uso conjunto destas duas ferramentas de qualidade, bem como as parcerias estabelecidas com universidades, podem otimizar o processo de melhoria da qualidade em pequenas empresas. Palavras-Chave: Controle Estatístico de Processo; Experimentação; Pequenas empresas; Qualidade;.

(8) ABSTRACT Considering the increasingly stringent requirements that the market imposes on businesses and the ability to adapt in short times required for companies to remain competitive, it is necessary to consider approaches that simultaneously monitor key processes and seek optimization. Under this scenario, the objective of this study is to propose a model integrating statistical process control and experimentation for small enterprises. Therefore, we carry out a literature review to identify cases of applications of these tools in an integrated manner to provide the basis for constructing a framework. Sequentially, the proposed framework is applied for verification and validation, through a case study in a small company responsible for manufacturing of packaging in polypropylene fabric. In this context, we employ a factorial split-plot 2³ x 2² design with repetition and replication. For the analysis of the experiment, we use Minitab 17, which generates main effects and interaction plots. A proposal for monitoring via control charts is suggested to maintain the output variables in statistical control. Finally, the results show that the combined use of design of experiments and statistical process control, aligned with university-industry partnership, can optimize the quality improvement process in small businesses. Keywords: Statistical Process Control; Experimentation; Small business; Quality;.

(9) LISTA DE FIGURAS Figura 1 - Fases do processo de inovação.................................................................................20 Figura 2 - Modelo de gráfico de controle de Shewart...............................................................29 Figura 3 - Formas de variação na distribuição de probabilidade devido a uma causa especial30 Figura 4 - Comportamento cíclico do uso combinado das ferramentas CEP e DOE...............37 Figura 5 - Evolução das taxas de empreendedorismo no brasil segundo o estágio do empreendimento........................................................................................................................42 Figura 6 - Distribuição do número médio de empresas existentes em cada categoria dos anos de 2009 a 2011..........................................................................................................................43 Figura 7 - Relação de troca entre instituição de ensino superior e empresa.............................47 Figura 8 - Caracterização da pesquisa.......................................................................................49 Figura 9 - Etapas adotadas para a execução da pesquisa..........................................................49 Figura 10 - Mapeamento das etapas para a implementação do modelo proposto.....................58 Figura 11 - Metas e ferramentas para o alcance da melhoria contínua de qualidade................59 Figura 12 - Principais modelos de big bags conforme os critérios: tipo de alça, de tampa e de fundo.........................................................................................................................................69 Figura 13 - Esboço dos modelos básicos de big bags manufaturados pela empresa................69 Figura 14 - Fotos de alças de big bags com defeitos................................................................71 Figura 15 - Etapas do processo produtivo do big bag padrão...................................................73 Figura 16 - Diagrama de causa e efeito.....................................................................................75 Figura 17 - Dinamômetro tensolab 3000 mesdlan....................................................................77 Figura 18 - Modelos das amostras desenvolvidas.....................................................................78 Figura 19 - Diagrama do experimento fatorial Split Plot 2³ x 2² com 2 repetições e 2 réplicas......................................................................................................................................80 Figura 20 - Matriz de dispersão para as variáveis, força máxima média, alongamento máximo médio e tempo médio................................................................................................................81 Figura 21 - Gráfico dos valores individuais da força máxima gerados no experimento...........82 Figura 22 - Gráfico de Pareto dos efeitos padronizados (de difícil mudança)..........................85 Figura 23 - Gráfico half normal dos efeitos padronizados (de difícil mudança)......................85 Figura 24 - Gráfico de Pareto dos efeitos padronizados...........................................................86 Figura 25 - Gráfico half normal dos efeitos padronizados........................................................86 Figura 26 - Gráfico de efeitos principais..................................................................................87.

(10) Figura 27 - Gráfico de interação para a força máxima média...................................................87 Figura 28 - Histograma e Boxplot.............................................................................................90 Figura 29 - Gráfico normal Q-Q...............................................................................................91 Figura 30 - Gráfico da função de autocorrelação......................................................................92 Figura 31 - Gráfico EWMA......................................................................................................93. LISTA DE TABELAS. Tabela 1 - Descrição das principais técnicas de planejamento e análise de experimentos.......22 Tabela 2 - Ferramentas/técnicas de melhoria de qualidade e seus respectivos estudos............40 Tabela 3 - Características dos estudos utilizados para a elaboração do modelo conceitual.....54 Tabela 4 - Especificações técnicas dos tecidos usados para cada componente do big bag......68 Tabela 5 - Fatores e níveis usados na fase de experimentação.................................................75 Tabela 6 - Valores médios para a força máxima e as demais variáveis referentes a cada resposta......................................................................................................................................83.

(11) LISTA DE ABREVIATURAS E SIGLAS ABNT – Associação Brasileira de Normas Técnicas AFIPOL – Associação Brasileira de Fibras Poliolefínicas ANOVA – Análise de Variância ANPROTEC – Associação Nacional de Entidades Promotoras de Empreendimentos de Tecnologias Avançadas BRICS – Brasil, Rússia, Índia, China e África do Sul CAPES – Coordenação de Aperfeiçoamento de Pessoal de Nível Superior CEQ – Controle Estatístico de Qualidade CEP – Controle Estatístico de Processo CIF – Cost, Insurance and Freight CUSUM – Cumulative Sums DMAIC – Define, Measure, Analyze, Improve and Control DOE – Design of Experiments EBT – Empresas de Base Tecnológica FMEA – Failure Mode and Effect Analysis FOB – Free On Board EWMA – Exponentially Weighted Moving Average GEM – Global Entrepreneurship Monitor ISO – International Organization for Standardization LABCTEX – Laboratório de Caracterização de Materiais Têxteis MEI – Microempreendedor Individual MPE – Micro e Pequenas Empresas P&D – Pesquisa e Desenvolvimento PIB – Produto Interno Bruto QFD – Desdobramento da Função Qualidade SEBRAE – Serviço Brasileiro de Apoio às Micro e Pequenas Empresas SPC – Statistical Process Control TTE – Taxa Total de Empreendedorismo UFRN – Universidade Federal do Rio Grande do Norte VOC – Voz do Cliente.

(12) SUMÁRIO. RESUMO...................................................................................................................................7 ABSTRACT...............................................................................................................................8 LISTA DE FIGURAS...............................................................................................................9 LISTA DE ABREVIATURAS E SIGLAS............................................................................11 CAPÍTULO 1 – INTRODUÇÃO...........................................................................................15 1.1 CONTEXTUALIZAÇÃO........................................................................................15 1.2 OBJETIVOS..............................................................................................................17 1.2.1 Objetivo Geral....................................................................................................17 1.2.2 Objetivos Específicos.........................................................................................17 1.3 ESTRUTURA DO TRABALHO.............................................................................17 CAPÍTULO 2 – REFERENCIAL TEÓRICO......................................................................19 2.1. EXPERIMENTAÇÃO..............................................................................................19. 2.1.1 Processo de inovação e experimentação...........................................................19 2.1.2 Planejamento de Experimentos (DOE)............................................................21 2.2. CONTROLE ESTATÍSTICO DE PROCESSOS..................................................23. 2.2.1 Evolução histórica do CEP...............................................................................24 2.2.2 Caracterização do CEP.....................................................................................26 2.2.3 Gráficos de controle...........................................................................................27 2.2.3.1 Carta de controle de Shewhart....................................................................28 2.2.3.2 Abordagens mais recentes............................................................................32 2.3. CAPACIDADE DO PROCESSO............................................................................33. 2.4. USO INTEGRADO DE DOE E CEP......................................................................35. 2.4.1 Evolução dos conceitos acerta deste tema........................................................35 2.5. MICRO E PEQUENAS EMPRESAS.....................................................................41. 2.5.1 Características das MPE industriais referentes à gestão da qualidade........43 2.5.2 Parceria entre Micro e Pequenas empresas e universidades.........................45 CAPÍTULO 3 – MÉTODO DE PESQUISA.........................................................................48 3.1. CLASSIFICAÇÃO DA PESQUISA........................................................................48. 3.2. TRAJETÓRIA METODOLÓGICA.......................................................................49. 3.2.1. Procedimentos para a definição do modelo conceitual................................50.

(13) 3.2.2. Procedimentos para a execução do estudo de caso.......................................52. CAPÍTULO 4 – MODELO CONCEITUAL........................................................................56 4.1. FASE PRELIMINAR...............................................................................................59. 4.2. ESTUDO EXPERIMENTAL..................................................................................61. 4.3. ANÁLISE DA CAPACIDADE DO PROCESSO..................................................64. 4.4. MONITORAMENTO DO PROCESSO.................................................................64. CAPÍTULO 5 – ESTUDO DE CASO...................................................................................67 5.1. PANORAMA GERAL DA EMPRESA................................................................67. 5.2 APLICAÇÃO DO MODELO PROPOSTO NO PROCESSO DE FABRICAÇÃO DOS BIG BAGS.....................................................................................72 5.2.1. Fase Preliminar................................................................................................72. 5.2.2. Estudo experimental........................................................................................76. 5.2.2.1 Descrição das características do experimento............................................76 5.2.2.2 Condução do experimento............................................................................76 5.2.2.3 Análise do experimento................................................................................80 CAPÍTULO 6 – CONSIDERAÇÕES FINAIS.....................................................................94 REFERÊNCIAS BIBLIOGRÁFICAS..................................................................................96 ANEXO A - Gráfico referente à taxa de sobrevivência de empresas (criadas em 2007) com até 2 anos para 15 países..............................................................................................102 ANEXO B - Setor Indústria - Variáveis –– 2009 a 2011....................................................103 ANEXO C - Resumo das recomendações para uso e manuseio ideal de contentores flexíveis...................................................................................................................................104 ANEXO D - Tabela com os resultados gerados neste experimento pelo dinamômetro TENSOLAB 3000 MESDLAN.............................................................................................105.

(14) 15. CAPÍTULO 1 – INTRODUÇÃO Este primeiro capítulo apresenta a exposição do tema e a problemática do trabalho; o delineamento dos objetivos (geral e específico); a relevância da pesquisa e a estrutura da dissertação.. 1.1. CONTEXTUALIZAÇÃO Nos últimos tempos, as organizações se encontram inseridas em um panorama de. intensa competitividade. O rápido avanço tecnológico tem culminado em ciclos de vida dos produtos cada vez mais curtos. Logo, a fim de se adequar às características deste novo mercado e se manter competitivas, faz-se necessária a utilização, por parte das empresas, de abordagens que simultaneamente acompanhem os seus processos-chave e busquem sua otimização. Face ao cenário atual, as empresas estão focando cada vez mais nos setores de pesquisa e desenvolvimento (P&D) como forma de impulsionar o processo de inovação, o qual, conforme Torkomian (1996), vem deixando de ser um fator diferencial para ser um fator essencial à sobrevivência das organizações. Nesse contexto, Thomke (2003) afirma que as incertezas inerentes ao desenvolvimento de novos produtos e serviços podem ser reduzidas mediante a associação entre a tecnologia e o processo de experimentação. Ainda segundo o autor, este processo atua como fator determinante da capacidade de inovar de cada organização. A experimentação trata-se de um método científico que pode ser utilizado pelos integrantes da área de P&D das empresas, a fim de aperfeiçoar tanto os processos de inovação radical, quanto os de inovação incremental. Para Thomke (1998), esse método atua como uma forma de resolução de problemas e está associado a uma parte significativa do tempo e do custo total despendido no processo de inovação. Com vistas à otimização do processo de experimentação, deve-se associar ao planejamento e análise de experimentos, o uso de ferramentas estatísticas, as quais buscam minimizar o custo necessário para obter os resultados almejados, culminando com a redução de tempo e recursos gastos durante a execução. Em suma, os experimentos devem ser planejados a fim de maximizar o potencial de interpretação dos resultados e minimizar os.

(15) 16. recursos utilizados - técnica conhecida como “Planejamento de Experimentos” (ou do inglês, “Design of Experiments - DOE”). O Controle Estatístico do Processo (CEP), por sua vez, trata-se de uma ferramenta da qualidade comumente utilizada no monitoramento dos processos de manufatura dos produtos. O objeto de interesse do CEP é o processo e sua principal finalidade é manter os processoschave dentro dos seus limites de variações naturais (HARIDY et al., 2011), ou seja, isento de causas especiais - anormalidades no processo, as quais podem ser corrigidas e eliminadas. As cartas ou gráficos de controle (principais ferramentas do CEP) monitoram o processo por meio do estabelecimento de parâmetros representativos - média do processo e a dispersão ou desvio padrão do processo – os quais caracterizam o processo do ponto de vista estatístico, em situações em que o processo esteja estatisticamente estável, fato que diminui os riscos de alarmes falsos (ALENCAR et al., 2004). Sua utilização permite analisar o comportamento do processo, detectar desvios de variabilidade em relação aos parâmetros estabelecidos e a presença de causas especiais (ALENCAR et al., 2004). Os métodos apresentados - controle estatístico de processos e planejamento de experimentos - têm sido considerados separadamente na melhoria de produtos e processos ao longo da história. Entretanto, seu uso integrado, como forma de maximizar seu resultado, é defendido por alguns autores (MONTGOMERY, 1992; ABRAHAM, BRAJAC, 1997; BISGAARD, 2008). Esta integração não tem uma etapa inicial padrão, podendo ter seu início tanto no monitoramento quanto na experimentação (BISGAARD, 2008), de modo que cada situação específica naturalmente estabelecerá seu ponto de partida, visando atender um ciclo lógico. Outro ponto discutido nesta pesquisa trata-se do crescente papel econômico desempenhado por micro e pequenas empresas em vários países, em especial, no Brasil, onde se tem observado uma gama de resultados econômicos satisfatórios em virtude da atuação destas empresas. As mudanças que vêm ocorrendo nas últimas décadas no contexto das políticas em favor dos pequenos negócios têm atuado como um dos fatores responsáveis por esse desempenho favorável crescente na conjuntura econômica brasileira. Entretanto, vários fatores tem atuado com a mortalidade precoce destas empresas, dentre os quais, destaca-se uma gestão deficiente de melhoria de qualidade, potencializada pela falta de recursos e knowhow..

(16) 17. Tomando-se por base as considerações desenvolvidas para facilitar a compreensão do tema e do problema, surge a seguinte problemática: Como otimizar o processo de melhoria contínua de produtos e processos em empresas de pequeno porte, de modo a maximizar seu resultado, com menor gasto de recursos?. 1.2. OBJETIVOS. 1.2.1 Objetivo geral Este trabalho tem como objetivo geral propor uma abordagem de integração entre ferramentas de monitoramento e melhoria de processos. Mais especificamente, o monitoramento dos processos seria realizado via a utilização de gráficos de controle, já a melhoria dos processos seria trabalhada via planejamento experimental.. 1.2.2 Objetivos específicos . Sistematizar o conhecimento com base nos temas abordados nesta pesquisa;. . Desenvolver uma abordagem de integração entre as ferramentas de Planejamento de experimentos e Controle Estatístico de Processos, de modo que seja de fácil aplicação para micro e pequenas empresas;. . Aplicar o modelo conceitual proposto em uma pequena empresa, de modo a testar o modelo desenvolvido na prática, e avaliar os benefícios advindos da parceria “universidade-empresa”;. . 1.3. Realizar um diagnóstico acerca dos resultados gerados pelo estudo de caso;. ESTRUTURA DO TRABALHO. Este trabalho está estruturado em seis capítulos e as referências, distribuídos da seguinte forma: O presente capítulo apresenta a exposição do tema; a definição do problema; os objetivos; a justificativa e a estruturação da dissertação..

(17) 18. O segundo capítulo aborda o referencial teórico sobre os temas relevantes que servirão de base para o direcionamento desta pesquisa. O terceiro capítulo expõe a classificação da pesquisa, bem como a trajetória metodológica aplicada no decurso deste trabalho. O quarto capítulo apresenta a descrição detalhada do modelo conceitual proposto nesta pesquisa. O quinto capítulo elucida como se procedeu a aplicação deste modelo em uma empresa de pequeno porte, bem como os resultados gerados desta aplicação. O sexto capítulo traz as considerações finais, bem como as limitações encontradas no decorrer deste estudo e sugestões para pesquisas futuras..

(18) 19. CAPÍTULO 2 – REFERENCIAL TEÓRICO Neste capítulo são apresentados os fundamentos teóricos necessários acerca das abordagens de experimentação e controle estatístico de processos, a fim de servirem de base para o desenvolvimento de um modelo integrado destas ferramentas para impulsionar a melhoria da qualidade de produtos e processos em micro e pequenas empresas, destacando a importância da interação “universidade-empresa” durante esta implementação. Em face deste contexto, procura-se buscar na literatura os aspectos principais de cada uma das ferramentas citadas; relatos do uso integrado destas ferramentas e os aspectos relevantes da parceria entre universidades e empresas.. 2.1. EXPERIMENTAÇÃO O processo de experimentação é trazido por alguns autores (THOMKE, 1998;. CARLOMAGNO, SCHERER, 2009) como sendo uma das etapas fundamentais do processo de inovação tecnológica. Em meio a isso, será dada uma breve explanação acerca do processo de inovação antes de adentrar no estudo da experimentação, propriamente dita.. 2.1.1 Processo de inovação e experimentação. Atualmente, a crescente busca pela inovação vem impulsionando as atividades de pesquisa e desenvolvimento dentro das organizações. As empresas investem no processo de inovação visando o lançamento de novos produtos e serviços, desenvolvimento de novos processos ou novas configurações organizacionais e atuação em novos mercados (BUENO, BALESTRIN, 2012). Com isso, incrementando valor ao seu modelo de negócio. Entretanto, existem riscos que são inerentes a este processo, os quais variam de acordo com a tecnologia desenvolvida e com o contexto do mercado (consumidores e concorrentes) em que será inserida. Logo, torna-se essencial o emprego de um modelo estruturado para gerir o processo de inovação como forma de minimizar esse grau de incerteza. Para Carlomagno e Scherer (2009), uma inovaçãode sucesso está associada a um processo contínuo de gestão e planejamento de resultados..

(19) 20. Carlomagno e Scherer (2009) propõem um modelo que separa o processo de inovação em quatro fases: Idealização, Conceituação, Experimentação e Implementação. Ainda conforme os autores, a experimentação antecede a fase de implementação como uma ferramenta estratégica, reduzindo o percentual de incertezas e aumentando as chances de sucesso da ideia durante a fase de implementação. A Figura 1 expressa as funções de cada uma dessas fases dentro do processo de inovação.. Idealização • • • • •. Geração de novas ideias; Oportunidades e negócios; Insight de clientes; Análise de tendências; Reutilização de novas ideias.. Conceituação. •. Avaliação de potencial;. Experimentação. •. Prototipagem;. •. Redução de incertezas; Refinamento final; Alocação de recursos; Planejamento mais profundo.. •. Aprimoramento dos conceitos;. •. •. Acompanhamento e definição;. •. •. Polinização cruzada.. •. Implementação. •. Aceleração das iniciativas;. •. Escala de projetos;. •. Avaliação pós implementação.. Figura 1 - Fases do processo de inovação Fonte: Carlomagno e Sherer (2009). A experimentação trata-se de um processo de investigação científica, balizado pelo uso de técnicas estatísticas, o qual pode ser desenvolvido pelos funcionários do setor de pesquisa e desenvolvimento das organizações para dar suporte ao processo de inovação. Estas inovações podem ser tanto do tipo radical, que estão geralmente associadas a mudanças significativas em produtos, processos ou serviços (como o lançamento de um novo produto no mercado), quanto incremental (foco desta pesquisa), a qual está associada ao conceito de melhoria contínua de qualidade e também pode ser aplicada em produtos, processos ou serviços. Thomke (1998) afirma que à fase de experimentação são demandadas as maiores parcela de tempo e de recursos do total utilizado no processo de inovação. A engenharia da qualidade tem se refugiado na experimentação, como forma de incrementar melhorias ao produto e ao seu processo produtivo, de modo a minimizar os desvios das características que determinam a qualidade do produto, em torno de seu valoralvo. Como a variabilidade nessa situação é ocasionada por causas comuns ao processo, sua redução ou eliminação transcende as funções do controle estatístico de processos e deve ser realizada pelo uso da experimentação..

(20) 21. Parafraseando Werkema e Aguiar (1996), um experimento trata-se de um procedimento que atua manipulando as variáveis de entrada de um sistema, com vistas a avaliar as mudanças ocasionadas por estas alterações nas variáveis de respostas (saída), bem como as causas destas mudanças. Pierozan (2001) acrescenta que os experimentos, quando planejados, podem ser ferramentas importantes na identificação dos fatores que influenciam os itens de controle de um processo ou projeto. Face ao exposto, Lye (2005) categoriza o planejamento de experimentos (Design of Experiments – DOE) como sendo um dos métodos mais eficazes para aplicação sistematizada de técnicas estatísticas para o processo de experimentação. Galdamez e Carpinetti (2004) reafirmam a importância do uso de experimentos planejados e técnicas estatísticas durante a fase de experimentação, como forma de minimizar o uso de recursos ao longo do processo.. 2.1.2 Planejamento de experimentos (DOE). O DOE, de acordo com Montgomery (1991), trata-se de uma técnica sistemática de planejamento de experimentos, responsável por determinar os tipos de dados, a quantidade e em que condições estes dados devem ser coletados. Aranda et al. (2007) complementam esse conceito, acrescentando que o DOE busca basicamente satisfazer dois objetivos principais: maior precisão estatística possível nas variáveis de resposta e menor custo associado ao método de investigação. O DOE surgiu inicialmente em um contexto agrícola, cujo pioneiro foi o geneticista e matemático inglês Sir Ronald Fisher. O maior interesse de Fisher estava voltado ao estudo de sistemas complexos, cujo desempenho pode ser influenciado por um certo número de parâmetros (fatores), podendo cada um operar a um número de níveis (STUART, 1996; PIEROZAN, 2001). A principal contribuição de Fisher para a análise de experimentos foi atestar que é mais eficiente variar os níveis de vários fatores simultaneamente durante o desenvolvimento de um experimento, do que de apenas um fator por vez, indo de encontro à abordagem tradicional da experimentação (STUART, 1996). O planejamento de experimentos veio ampliar sua área de atuação após a segunda guerra mundial, sendo introduzido em indústrias químicas americanas e no oeste da Europa (PIEROZAN, 2001). Contudo, o uso de modelos estatísticos nas indústrias só ganhou força após empresas de eletrônicos norte-americanas implementarem os métodos de engenharia da.

(21) 22. qualidade defendidos pelo engenheiro japonês Taguchi (STUART, 1996). A filosofia de Taguchi alegava que um produto deve ser robusto em relação a todos os fatores perturbadores. Para tal, este deve ser projetado de modo a apresentar um desempenho funcional satisfatório com o mínimo de variabilidade. Na literatura encontra-se uma série de ferramentas que são utilizadas durante o desenvolvimento de experimentos planejados. A Tabela 1 resume as principais técnicas utilizadas. Tabela 1 - Descrição das principais técnicas de planejamento e análise de experimentos Ferramenta. Características. Planejamento fatorial. Utilizada quando todas as combinações dos níveis dos fatores de controle são realizadas.. Planejamento fatorial 2 k. Técnica com dois níveis e 2 k número de combinações de k fatores.. Planejamento fatorial fracionado 2 k-p. Utilizado quando há vários fatores de controle e não é viável economicamente para as empresas realizar todas as combinações dos experimentos.. Metodologia de superfície de resposta. Response surface methodology (MSR) é um conjunto de técnicas de planejamento e análise de experimentos usada na modelagem matemática de respostas. Ou seja, procura-se identificar o relacionamento que existe entre os parâmetros, representados por variáveis quantitativas, como tempo, velocidade, pressão, temperatura, etc., e as respostas do sistema analisado.. Planejamento fatorial 2k com pontos centrais. Esse método consiste em adicionar um ponto de experimentação no nível intermediário aos níveis investigados para os k fatores de controle.. Análise de variância. Bibliografia. Montgomery (1991), Devor et al. (1992), Chew (1957). Hill & Hunter (1996), Myers & Montgomery (1995). Analysis of variance (ANOVA), é uma ferramenta que permite estudar se há diferenças significativas entre as respostas experimentais. Os gráficos de efeitos principais ilustram a variação média das respostas em função da mudança no nível de um fator, mantendo os outros fatores constantes.. Gráficos. Os gráficos de efeitos de interação descrevem a variação média de um fator em função dos níveis de outros fatores. O gráfico de probabilidade normal é utilizado nas situações em que não é possível repetir um experimento e é importante obter uma estimativa independente do erro experimental para julgar a importância dos efeitos principais de interação.. Fonte: Galdamez e Carpinetti (2004). Montgomery (1991), Devor et al. (1992).

(22) 23. Para garantir o uso eficiente dos métodos estatísticos na análise de experimentos, a equipe envolvida deve ter um conhecimento detalhado acerca do estudo. Para tal, Montgomery (1991) lista uma sequência de procedimentos que devem ser seguidos a partir da coleta dos dados:. 2.2. . Reconhecimento e afirmação do problema proposto;. . Seleção da(s) variável(s) de resposta;. . Escolha do projeto experimental;. . Realização do Experimento;. . Análise dos dados;. . Conclusões e recomendações.. CONTROLE ESTATÍSTICO DE PROCESSOS Montgomery (2001) associa o CEP como sendo uma das áreas abordadas pelo. Controle Estatístico e Melhoria de Qualidade (CEQ), sendo este último trazido pelo autor como uma parte da estatística industrial que inclui, além do CEP, as áreas de inspeção por amostragem, planejamento de experimentos e análise de capacidade. O termo “qualidade” apresenta diversos conceitos associados a diferentes abordagens. Em geral, a qualidade deve estar associada a requisitos mínimos exigidos para a aceitação do item analisado. Entretanto, para o uso correto do termo em diferentes situações, é importante distinguir qualidade de projeto de qualidade de conformação. A primeira está associada às características ofertadas pelo produto ou serviço e é determinada na fase do projeto. Já a segunda baseia-se na capacidade deste produto ou serviço atender as especificações estabelecidas em seu projeto. O CEP foca no controle e manutenção da qualidade de conformação. Para tal, segue a linha de pensamento que associa esse conceito à análise da variabilidade de processos. Em meio a esse contexto, qualidade e variabilidade são tratadas como inversamente proporcionais. Confirmando essa afirmação, Montgomery (2001) define a melhoria da qualidade como sendo produto da redução da variabilidade em produtos e processos. Rungtusanatham et al. (1997) definem o CEP como sendo um conjunto de técnicas, estatísticas e cognitivas, para a resolução de problemas, cuja implementação eficaz traduz-se.

(23) 24. em efeitos positivos na melhoria da qualidade dos processos de fabricação ou prestação de serviços. Montgomery (2009) complementa o conceito dos autores, afirmando que o CEP se trata de um conjunto de ferramentas responsáveis por garantir a estabilidade dos processos, por meio da redução da variabilidade, culminando com a melhoria de sua capacidade. Neste contexto, os autores Woodall e Montgomery (2014) ressaltam a importância do processo de monitoramento para avaliar o estado atual de um processo e entender sua variação. Detalhando os conceitos expostos pelos autores citados, pode-se afirmar que o CEP parte da premissa que a qualidade de todo e qualquer bem produzido ou serviço prestado está intimamente relacionada à estabilidade de seus processos. Partindo dessa alegação, atividades voltadas para a melhoria da qualidade de produtos/serviços e processos devem estar associadas à redução da variabilidade existente nos processos, oriundas de causa especiais – fatores que alteram significativamente os parâmetros (média e dispersão) associados às distribuições de probabilidade das características críticas, as quais definem a qualidade do bem e/ou serviço produzido e/ou prestado. Em síntese, o objeto de interesse do CEP é o processo e sua principal finalidade é manter os processos-chave dentro dos seus limites de variações naturais (HARIDY et al., 2011).. 2.2.1 Evolução histórica do CEP. Os primeiros pensamentos acerca do CEP iniciaram-se por volta de 1920, dentro dos laboratórios da companhia Bell Telephone, nos Estados Unidos, por meio dos estudos do estatístico Walter A. Shewhart, o qual foi responsável pelo desenvolvimento de um sistema de controle estatístico de qualidade em processos industriais, permitindo, de forma simplista, que os trabalhadores monitorassem os efeitos da variabilidade inerentes aos processos (STUART et al., 1996; ALMAS, 2003; GOMES, 2004). Em 1924, Shewhart projetou o primeiro gráfico de controle (STUART et al., 1996). Ainda em meados da década de 20 do século passado, Harold Dodge desenvolveu os planos de aceitação por amostragem, técnica empregada para a avaliação dos produtos acabados em detrimento ao uso da inspeção a 100%, ocasionando uma economia de tempo e recursos para os avaliadores. O foco nos produtos já manufaturados traziam a essas ideias um comportamento reativo. Transcendendo às ideias de Dodge, Shewhart, transferiu o cerne destas análises ao processo, proporcionando ao gráfico de controle um comportamento.

(24) 25. proativo, visto que permite a detecção de falhas durante o processo produtivo, antes da elaboração do produto final (STUART et al., 1996). A aplicação do CEP em processos industriais ganhou destaque significativo na segunda guerra mundial, devido ao resultado satisfatório do uso de seus princípios nos processos de fabricação dos materiais de guerra (GOMES, 2004). Após este período, as ideias sobre o controle da qualidade de processos, inicialmente desenvolvidas por Shewhart, foram difundidas pelo estatístico William Edwards Deming - especialmente a respeito da importância do pensamento estatístico na resolução dos problemas de fabricação (STUART et al., 1996). Por meio de seus trabalhos, Deming teve grande influência no pensamento japonês sobre sistemas de qualidade. Contudo, seu conceito a respeito da qualidade ainda era bastante limitado, pois era associado apenas à conformidade com as especificações técnicas (GOMES, 2004). Este conceito recebeu as contribuições do engenheiro e consultor de negócios Joseph Moses Juran, que complementou a sua definição com uma perspectiva voltada para o cliente (GOMES, 2004). A implementação de novas ideias como o controle de qualidade total; just-in-time de fabricação; controle de qualidade off-line; entre outras, fez com que o Japão se tornasse uma importante força econômica por volta dos anos 70 do século passado, fato que impulsionou a indústria ocidental, alguns anos depois, a reimportar do Japão as ideias do pensamento estatístico e da gestão da qualidade (STUART et al., 1996). Outra abordagem que vem trazendo grandes influências, desde essa década até os dias atuais, sobre a prática do CEP, é a experimentação industrial, difundida pelo estatístico Genichi Taguchi (STUART et al., 1996). Este último acrescentou que o controle de qualidade deve iniciar na criação do produto – fase de projeto. Ao longo do século XX, até meados da década de 70, observam-se poucas publicações científicas nesta área. Embora este período tenha sido marcado por grandes avanços nesse tema, foram desenvolvidos por poucos pesquisadores e em locais demasiadamente restritos. As pesquisas científicas cresceram extraordinariamente dos anos 80 em diante1. Pierozan (2001) atribuiu a esse “boom” literário, a revolução da qualidade ocasionada pelo comércio internacional.. 1. Dados extraídos de consultas à base de pesquisa Google Acadêmico, acessada em 17 de Junho de 2015..

(25) 26. Apesar de sua origem nos Estados Unidos e crescimento nas indústrias japonesas, Rungtusanathan (2001) alegou em seu trabalho que o CEP já havia sido implementado em diversas empresas ao redor do mundo. Hodienarmente, os Estados Unidos se destacam como o responsável pelo maior número de pesquisas existentes nesta área, estando o Brasil entre os dez países que mais publicam este tema desde a década de 80 do século anterior.2. O CEP vem atuando em diversas áreas: engenharia, ciência da saúde, ciências sociais, ciências agrárias, economia, astronomia, entre outras. Contudo, o campo da engenharia ainda é a área mais utilizada para pesquisas científicas voltadas para a implementação do CEP².. 2.2.2 Caracterização do CEP. Para Woodall e Montgomery (2014), o controle estatístico de processos pode ser representado por três características principais: . Recolhimento dos dados em uma escala temporal;. . Rápida detecção de mudanças ocasionadas no processo por causas especiais, em geral representadas por mudanças nos parâmetros das distribuições de probabilidade das características de interesse do processo;. . Medição de desempenho do controle representado pela taxa de alarmes falsos ou outras métricas. A taxa de alarmes falsos mencionada pelos autores representa o percentual de vezes,. durante o monitoramento do processo, em que são detectados sinais equivocados de que o processo está fora de controle estatístico. A reincidência de alarmes falsos diminui a credibilidade do sistema de monitoramento, fazendo com que os usuários passem a ignorar os próximos sinais. Logo, o processo de monitoramento deve ser desenvolvido por métodos de controle que gerem o mínimo possível de alarmes falsos (ALENCAR et al., 2004; WOODALL; MONTGOMERY, 2014). De acordo com Woodall e Montgomery (2014), o processo de implementação do CEP ocorre em duas fases distintas. Em um primeiro momento, deve ser realizado um estudo detalhado do processo a fim de determinar as características de interesse e a ferramenta 2. Dados extraídos de consultas à base de pesquisa Scopus Database, por meio do portal <capes.ufrn.br>, acessada em 17 de Junho de 2015..

(26) 27. apropriada para o monitoramento. A seguir, deve-se analisar a estabilidade do processo, de modo a garantir que este esteja isento de causas especiais para, por fim, determinar os parâmetros de controle. Na segunda fase é realizado o monitoramento, propriamente dito, por meio de uma coleta sistemática dos dados para a análise das características críticas e posterior comparação com os parâmetros pré-estabelecidos. Alguns relatos foram encontrados na literatura a respeito de falhas nas aplicações do CEP. Lightburn e Dale (1992) chegaram a afirmar que os casos existentes não atribuíam as causas à metodologia do CEP, e sim a ineficácia no processo de implementação. Alguns anos antes, Bushe (1988) solicitou que este processo de implementação fosse tratado, por parte dos gestores, como uma questão não só tecnológica, mas de cunho social. Neste contexto, vale ressaltar o trabalho de Rungtusanatham (2001) que, com base nos casos que foram analisados em suas pesquisas, atesta que o CEP ao ser implementado e praticado de forma adequada dentro dos ambientes de produção, atua como fator motivacional para os operadores de processo, tornando-os mais satisfeitos com seu trabalho. Antony e Taner (2003) elucidam alguns dos problemas associados a um processo de implementação ineficaz. São estes: falha na interpretação dos padrões dos gráficos de controle; falta de conhecimento a respeito de produtos e processos, podendo levar a ações corretivas ineficazes, e ausência de foco nos recursos gastos na coleta dos dados e na análise das cartas de controle. Costa et al. (2004), seguindo a mesma linha de raciocínio dos autores citados anteriormente, atrelaram as falhas no uso do CEP como ferramenta de monitoramento, ao seu uso indiscriminado por operadores do “chão de fábrica” que, na maioria das vezes, não possuem um conhecimento estatístico adequado, ideal para entender o funcionamento do gráfico. Além disso, o autor também aponta para a necessidade de um conhecimento detalhado acerca do processo, para que seja realizada uma intervenção adequada, quando necessária.. 2.2.3 Gráficos de controle. As cartas ou gráficos de controle são as principais ferramentas do CEP, os quais atuam de modo a monitorar a variabilidade e a média dos processos, contribuindo para que permaneçam sob controle estatístico (PIEROZAN, 2001). A carta de controle categoriza o.

(27) 28. processo em análise sob a ótica da estatística por meio dos parâmetros de média e dispersão, partindo da premissa que o processo deve estar isento de causas especiais para traduzi-lo de forma fidedigna com a realidade (ALENCAR, 2004). Quanto maior o grau de precisão dos gráficos de controle, maior a velocidade de detecção de falhas e de intervenção no processo. Os sinais de desvios emitidos pelos gráficos podem levar a diferentes ações, dependendo do campo de aplicação (WOODALL; MONTGOMERY, 2014). Inclusive, muitas empresas desenvolvem planos de ação, os quais direcionam os operadores às ações que devem ser tomadas (WOODALL; MONTGOMERY, 2014). Maccarthy e Wasusri (2002) citam uma série de aplicações associadas aos gráficos de controle que transcendem o propósito convencional de monitoramento e controle de processos, são estes: planejamento - planos e/ou cronogramas podem ser gerados como produto da aplicação de gráficos de controle e ser utilizados para o agendamento de atividades de manutenção; avaliação do grau de satisfação do cliente e otimização de modelos de previsão, que ocorrem, em geral, por meio de aplicativos e vários tipos de software estatísticos.. 2.2.3.1 Carta de controle de Shewhart. O gráfico de controle desenvolvido por Shewhart foi uma importante contribuição para o controle e a melhoria da qualidade de processos industriais e tem sido amplamente utilizado, desde a época de sua criação até os dias atuais. Shewhart partiu de uma ideia surpreendentemente simples, que alegava que se um processo de fabricação for acompanhado regularmente pode-se prever como este processo deve se comportar e perceber quando isto não ocorrer (STUART et al., 1996). Como forma de pôr em prática sua ideação, Shewhart desenvolveu o gráfico de controle. A operacionalização dos gráficos de controle envolve a medição de um parâmetrochave de qualidade, o qual é observado em vários itens de cada vez compondo subgrupos que são avaliados em intervalos regulares de tempo. O valor médio de cada subgrupo é plotado em um gráfico de linhas limitado por dois limites de controle (limite superior e inferior), os quais foram determinados pela avaliação detalhada do processo sob condições estáveis. Cada.

(28) 29. um dos limites é calculado por meio de equações matemáticas, desenvolvidas com fundamento na teoria estatística (BORGES, 2009). Shewhart definiu estes limites como sendo espaçados a um nível de três desviospadrão a partir de uma linha central. Logo, a sinalização de desvios a partir da análise das características de um único subgrupo equivale a um teste de significância estatística, com um nível de significância de 0,0027 (STUART et al., 1996). Em testes de significância estatística é comum a utilização de um nível de significância de 5%. Stuart et al. (1996) atestam que caso esse nível de 5% fosse utilizado para estimar os parâmetros do gráfico de controle, gerariam limites espaçados a aproximadamente 2 desvios-padrão do valor-alvo, fato que culminaria com um número demasiadamente alto de alarmes falsos. Face ao que foi exposto, alguns autores classificam esses últimos como limites de advertência e os de Shewhart como limites de ação (STUART, 1996). A Figura 2 representa um exemplo de gráfico de controle de Shewhart, gerado com base em dados fictícios pelo software estatístico R.. Figura 2 - Modelo de gráfico de controle de Shewhart Fonte: Figura gerada pelo software R (2015). Os limites de controle tomam por base distribuições de probabilidade pertinentes (STUART et al., 1996). Em situações de estabilidade, normalmente as distribuições de.

(29) 30. probabilidade das características de interesse tomam a forma da distribuição normal (STAPENHURST, 2005). Os valores médios de cada subgrupo tendem a oscilar em torno de uma medida central, estabelecida como sendo a média do processo (valor-alvo). As causas dessas oscilações - variações ínfimas no processo - foram classificadas por Shewhart como causas comuns – devido a fenômenos aleatórios, os quais não podem ser evitados. Com base nesse contexto, é importante ressaltar que os parâmetros – média (μ) e desvio padrão (σ) - que categorizam o processo do ponto de vista estatístico, são estimados na realidade pela média amostral do processo e pelo desvio padrão amostral (COSTA, 2004). Shewhart também observou que em algumas situações a média dos valores coletados em cada subgrupo ultrapassavam os limites de controle do gráfico, representando um estado em que o processo está “fora de controle”, provavelmente devido à exposição de causas especiais, que de acordo com o autor poderiam ter sido evitadas por um sistema eficaz de gestão de qualidade. Ao analisar o gráfico da Figura 1 nota-se a presença de alguns pontos que transcendem os limites de controle, os quais, como dito anteriormente, sinalizam momentos de instabilidade no processo devido à provável presença de causas não aleatórias (especiais). Essa situação de instabilidade é caracterizada por alterações nos parâmetros das distribuições de probabilidade das características de interesse. Stapenhurst (2005) alega que essas distribuições podem variar de três maneiras distintas: na média, na forma e na dispersão. A Figura 3 ilustra as três possibilidades listadas pelo autor.. Figura 3 - Formas de variação na distribuição de probabilidade devido a uma causa especial Fonte: Adaptado Stapenhurst (2005). Stuart et al. (1996) alegaram que um dos principais benefícios advindos das informações emitas pelos gráficos de controle de Shewhart estavam na economia de tempo e recursos com investigação de causas de desvios no processo, quando este se encontrar sob controle estatístico, visto que estes não passam de desvios fortuitos inevitáveis. Por outro lado, estes autores afirmam que deve ser utilizado um método racional eficaz para uma rápida.

(30) 31. detecção e posterior correção dos desvios que geram instabilidade ao processo. Estas causas especiais (ou assinaláveis) são sinalizadas por um comportamento irregular da variabilidade (BORGES, 2009). Tal comportamento deve ser eliminado por meio de medidas corretivas a curto prazo, e ao processo devem ser instituídas medidas preventivas visando a não reincidência desta irregularidade. Borges (2009) ainda acrescenta que as cartas de controle de Shewhart são uma importante e poderosa ferramenta para a gestão e o monitoramento do processo produtivo. Segundo Borges (2009), o fenômeno da variabilidade pode ser traduzido, sob o ponto de vista estatístico, em algumas assertivas, as quais resumem o que foi explanado até o momento. A primeira afirmação trazida pelo autor assegura que a variabilidade está presente a todo momento. Em meio a isso, é preferível que tal variação tenha caráter aleatório, originada de várias fontes de pequena intensidade, a qual traz como característica a estabilidade e, consequentemente, a previsibilidade do processo. Dentro desse contexto, o autor afirma que a redução deste tipo de variabilidade estaria atrelada a mudanças em todo o processo produtivo. A segunda assertiva trazida por Borges (2009) expressa que a variabilidade que não possui caráter aleatório surge de pequenas fontes de grande intensidade, sendo responsável pela instabilidade e, consequentemente, a imprevisibilidade do processo. As cartas de controle podem ser classificadas em dois grupos, os quais diferem de acordo com a forma de avaliação das características de interesse do processo. Caso a caraterística seja avaliada numa escala pontual, geralmente caracterizada pela presença ou não de itens defeituosos, fala-se em gráficos de controle por atributos. Já em situações em que as características sejam mensuradas em uma escala contínua – medidas de altura, comprimento, volume, entre outros, tem-se um grupo que engloba os gráficos de controle para variáveis. Cada grupo mencionado apresenta uma gama de modelos de gráficos, que são utilizados em situações específicas. Detalhes acerca das especificidades de cada gráfico e o modo de operacionalização podem ser observados em Costa et al. (2004). A seleção dos parâmetros que serão monitorados costuma ser uma das etapas mais difíceis na implementação dos gráficos de controle. É importante que a determinação destes parâmetros estejam associadas à análise dos custos envolvidos, tanto durante o método de escolha, como nas falhas associadas às características selecionadas. Com base nisso, TanIntara-Art e Rojanarowan (2013) propõem um método para priorizar e selecionar os parâmetros do produto final para o controle. A priorização é baseada no custo de qualidade e criticidade técnica desses parâmetros..

(31) 32. 2.2.3.2 Abordagens mais recentes. As críticas existentes na literatura acerca dos gráficos de controle de Shewhart estão relacionadas à insensibilidade destes gráficos na detecção de pequenos desvios no processo (STUART, 1996), na ordem de 1,5 desvios-padrão. Complementando o que foi dito pelos autores, em trabalhos mais recentes, Walter et al. (2013) alegam que o grande fator impulsionador do uso abrangente dos gráficos de controle foi a simplicidade do seu método de operacionalização, cuja tomada de decisão se baseia apenas no último ponto observado, entretanto, em algumas situações, seu método se torna também sua principal desvantagem, visto que ignora qualquer informação disponibilizada pela sequência anterior dos pontos (WALTER et al., 2013). Traduzindo para a linguagem atual do CEP, Irianto e Juliani (2010) afirmam que o projeto do gráfico de controle de Shewhart é determinado de modo a evitar o risco do produtor (probabilidade de um lote bom ser rejeitado, devido à ocorrência de alarmes falsos). Ainda conforme os autores, a incapacidade de detecção de pequenos desvios – usualmente encontrados nos processos de fabricação atuais mais precisos - podem impulsionar o risco do consumidor (probabilidade de lotes de produtos não conformes serem considerados de boa qualidade), gerando um aumento no grau de insatisfação dos clientes. Como forma de reverter essa situação foram desenvolvidos os gráficos de controle de somas acumuladas (CUSUM) e média móvel ponderada (EWMA), cuja metodologia de análise leva em consideração as informações acumuladas das amostras anteriores, aumentando o grau de precisão da detecção de desvios no processo, bem como do momento exato em que ocorreram as mudanças (WALTER et al., 2013). Contudo, existe uma razoável resistência ao uso destes gráficos por serem mais difíceis de operacionalizar e interpretar, quando comparados às tradicionais cartas de controle de Shewhart. Conquanto, nenhum dos gráficos mencionados apresentarão um desempenho ideal para toda e qualquer situação. Uma solução possível, trazida pelos autores Walter et al. (2013), consistem na combinação de múltiplos gráficos para ampliar a abrangência das mudanças que são detectadas. Partindo dessa ideação, esse autores aplicaram um modelo que combinava os gráficos de Shewhart e CUSUM em um setor metal mecânico e analisaram as vantagens dessa combinação..

(32) 33. A fim de ampliar a capacidade dos gráficos de controle, outras alternativas foram propostas na literatura. Com essa finalidade, os autores Irianto e Juliani (2010) aprofundaram os estudos acerca de gráficos de amostragem dupla. Estes gráficos tomam por base as ideias de tamanhos de amostra e intervalos de amostragem variáveis, de modo autilizá-las de maneira combinada no monitoramento e na avaliação dos processos.. 2.3. CAPACIDADE DO PROCESSO. Avaliar a capacidade ou capabilidade dos processos consiste em estudar a eficiência de um dado processo produzir itens com base nas especificações do projeto. Tais requisitos podem ser estabelecidos com base nas exigências dos clientes, nos riscos de multas e/ou nas condições ideais para garantir a qualidade do produto durante o manuseio e transporte (PIEROZAN, 2001; COSTA, EPPRECHT, CARPINETTI, 2009). A medida de capacidade depende das próprias especificações determinadas no projeto e da variabilidade natural inerente ao processo, por sua vez, para o seu cálculo é essencial o conhecimento da distribuição da variável de interesse, bem como a média e a dispersão dos valores individuais (PIEROZAN, 2001; COSTA, EPPRECHT, CARPINETTI, 2009). Neste contexto, vale salientar que a comparação entre limites de especificação com limites de controle, comumente observado na prática, trata-se de uma atitude bastante equivocada (COSTA, EPPRECHT, CARPINETTI, 2009). Pierozan (2001) afirma que para realizar esta análise o processo deve estar em estado de controle estatístico. Para tal, o processo deve estar isento de perturbações oriundas de causas especiais e a distribuição da característica de interesse deve se aproximar da distribuição normal. Autores mais recentes como Woodall e Motgomery (2014) e Soni e Somkunwar (2016) ratificam esta afirmação ao mencionarem que a garantia da estabilidade deve preceder qualquer estudo de capacidade do processo. Ainda nessa perspectiva, Costa, Epprecht e Carpinetti (2009) acrescentam que, caso o processo esteja sob controle, o ideal seria que toda a distribuição da variável investigada estivesse entre os limites de especificação. Como forma de quantificar a capacidade do processo, a literatura traz algumas medidas adimensionais intituladas por índices de capacidade, sendo os mais usuais: Cp, Cpk e Cpm. De modo geral, quanto maior o valor do índice, maior será a capacidade de um dado.

(33) 34. processo de gerar valores da característica analisada, dentro das especificações. Costa, Epprecht e Carpinetti (2009) elucidam que os Cp e Cpm só podem ser utilizados em processos de especificação bilateral3. Quanto ao Cp, este ainda necessita estar centrado no valor médio. Outra desvantagem do uso do Cpm trazida pelos autores trata-se do fato deste índice ser mais sensível à ausência de centralidade do que ao número gerado de não conformidades. Na sequencia, estão descritas as fórmulas utilizadas para estimar esses índices.. Sendo LES e LIE os limites de especificação, superior e inferior; μ e σ, a média e o desvio padrão do processo; e d, o valor alvo. Como já foi abordado, não existe uma relação direta entre estabilidade e capacidade. Contudo, a presença de uma causa especial implica na redução da capacidade do processo. Desse modo, uma maior capacidade, se comporta como uma margem de segurança para o surgimento de causas especiais, reduzindo a necessidade de intervenções no processo e, consequente, o custo associado a estas intervenções (COSTA, EPPRECHT, CARPINETTI, 2009). A análise de capacidade é uma técnica bastante utilizada em vários tipos de processos, em especial, em operações industriais. Sua aplicação geralmente está associada ao emprego do controle estatístico de processos, podendo ser observada em vários estudos de caso (DÍAZ et al., 2009; ZENG et al., 2013; SONI e SOMKUNWAR, 2016) encontrados em publicações científicas.. 3. Quando uma característica de qualidade apresenta os dois limites de especificação (inferior e superior), diz-se que esta apresenta especificação bilateral; caso a característica citada apresente apenas um dos dois limites, a especificação será unilateral (COSTA, EPPRECHT, CARPINETTI, 2009)..

(34) 35. 2.4. USO INTEGRADO DE DOE E CEP. No tocante à melhoria da qualidade em processos industriais, tem sido reconhecido a importância do uso de métodos estatísticos, em especial, ferramentas como experimentos planejados (DOE) e controle estatístico de processos (CEP) (LEITNAKER, 2005). Neste contexto, embora enquadradas em um objetivo maior comum relacionado com o aprimoramento da qualidade de produtos e/ou processos, estas ferramentas tem sido, na maioria das vezes, aplicadas em operações industriais de forma separada. Não obstante, essa temática vem ganhando mais força recentemente, posto que, mesmo ainda prevalecendo na prática a aplicação separada destas abordagens, já constam na literatura vários registros do seu uso integrado em estudos de casos diversos; salientando que em algumas situações, essa combinação se deu também com outras ferramentas de melhoria de qualidade. Como exemplos4, tem-se os estudos de Pierozan (2001); Cherfi, Béchard e Boudaoud (2002); Nembhard e Valverde-Ventura (2003); Leitnaker e Cooper (2005); Thomas e Barton (2006); Díaz et al. (2009); Thomas, Barton e Chuke-Okafor (2009); Behmanesh e Rahimi, 2012; Zeng et at. (2013); Godoy (2014); Soni e Somkunwar (2016). Devido ao enfoque dado a esta pesquisa, a maioria dos casos citados foram aplicados em engenharia industrial. Entretanto, essa abordagem pode ser utilizada em várias áreas do conhecimento científico. Um exemplo disso pode ser observado no estudo de Mandal (2015), o qual fez uso combinado de gráficos de controle, projetos de experimentos, algoritmos de aprendizagem de máquina e processo de avaliação “multimethod” com vistas a aumentar a confiabilidade de um software usado para diagnóstico de transtornos na coluna - usando o sistema de diagnóstico médico - e reforçar a viabilidade do tratamento preciso.. 2.4.1 Evolução dos conceitos acerca deste tema. Montgomery (1992) já havia elucidado em sua publicação, a importância do uso combinado de ferramentas on-line e off-line de melhoria da qualidade. O autor ainda propõe um modelo conceitual que engloba as abordagens de controle estatístico de processos e controle de processos de engenharia visto que, de acordo com o autor, apesar de ambas objetivarem a redução da variabilidade, eram tratadas na realidade de forma isolada. 4. Para mais detalhes acerca destes estudos, consultar a Tabela 3 na seção 3.2.1..

(35) 36. Corroborando com os pensamentos de Montgomery (1992), Goh (2000) afirma que a eficácia destas ferramentas aumenta quando utilizadas de forma integrada. Expandindo os estudos acerca deste tema, o autor propõe três quadros os quais considera como norteadores para o alcance da excelência da qualidade. Dentre estes quadros é apresentada uma abordagem para uso combinado de várias ferramentas da engenharia estatística, contudo, não foi apresentada uma metodologia com as etapas para esta integração. He, Qi, Liu (2002) foram mais além em seus estudos nessa temática ao proporem um modelo conceitual que roteirizava o uso das ferramentas QFD, FMEA, DOE e CEP, desde a elaboração do projeto até a manufatura do produto, como forma de planejar, projetar e controlar todo o processo de criação de qualidade, reduzir sistematicamente os gargalos de qualidade e, por fim, alcançar a melhoria contínua da qualidade de produto/processo. Neste estudo, as atividades de melhoria contínua são separadas em projeto e fabricação, avaliados que os tipos de variáveis e a forma como deveriam ser monitoradas no controle on-line de qualidade, podem ser identificadas por meio de um planejamento de qualidade off-line. Os autores ainda destacam a importância para a eficácia desta integração, do uso de bancos de dados compartilhados para todas as ferramentas de qualidade envolvidas, os quais também seriam alimentados pelos requisitos dos clientes (VOC – Voz do Cliente) e dados de concorrentes (benchmarking). Ainda conforme o trabalho de He, Qi, Liu (2002), do ponto de vista estatístico, a função do CEP seria controlar a variação dos processos, enquanto o DOE busca reduzir esta variação, de modo a otimizar o produto/processo. Logo, o CEP detecta os gargalos e o DOE ajuda a eliminá-los, todavia, o DOE também pode ser utilizado para identificar as características de qualidade que devem ser controladas pelo CEP. Segundo estas afirmativas, nota-se uma ideia, trazida pelos autores, de comportamento cíclico do uso combinado destas duas ferramentas, sendo as variáveis de saída de uma, entradas no processo da outra (Figura 4)..

Referências

Documentos relacionados

Muitas são as proposições de Leôncio de Carvalho, porém deve-se destacar algumas para além das já citadas como: a coeducação de crianças de ambos os gêneros até dos dez anos,

Objetivo Geral:  Desenvolver e avaliar a qualidade do queijo tipo petit-suisse produzido a partir do leite de búfalas desnatado adicionado de lactobacilos com potencial

Estes sintomas podem ser explicados por um conjunto de fatores presentes na literatura, como presença de sarcopenia (11), fraqueza muscular respiratória (12), redução da

Mulheres e crianças, negros e índios, trabalhadoras domésticas ou retirantes da seca, lei e conflito, cultura e gênero, além de partidos e sindicatos, são hoje em

Com um caráter exploratório, este trabalho teve como objetivo verificar possíveis relações entre os IDHs longevidade, educação e renda com efetivo do rebanho bovino, produção e

Seus resultados dão margem a afirmar que, perante a complexidade de interações sociais compreendidas pela teoria da estruturação, os processos operados pela produtora

UNIVERSIDADE DE SÃO PAULO FACULDADE DE FILOSOFIA, LETRAS E CIÊNCIAS HUMANAS DEPARTAMENTO DE HISTÓRIA PROGRAMA DE PÓS-GRADUAÇÃO EM HISTÓRIA ECONÔMICA O cativeiro à sombra:

que o Teorema seja válido para todos os grupos cuja ordem do seu quociente pelo subgrupo de Fitting seja menor que |G/F (G)|... No entanto, como mostra a seguinte Proposição,