ABNT ISO/TR 10017: um guia para a utilização das técnicas estatísticas

Curto-Circuitos e Seletividade em Instalações Elétricas Industriais – Conheça as Técnicas e Corretas Especificações – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Segurança na Operação e Manutenção de Subestações e Cabines Primárias – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Sistemas de Informações Tecnológicas Target Gedweb

Proteção de Motores Assíncronos – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Para mais informações e se inscrever, clique no link do curso.

imagesCAEK34WWA estatística é uma ferramenta empregada em vários setores, inclusive o industrial, para medir a variabilidade existente em quaisquer processos. Para tanto, utilizam-se de técnicas estatísticas como o Controle Estatístico de Processo (CEP), Modelos de Regressão, Delineamento de experimentos, ou simples técnicas descritivas. O uso de técnicas estatísticas nas empresas tem como objetivos reduzir custos e aumentar a competitividade no mercado. Tais técnicas permitem que, por meio de pequenas amostras, há a possibilidade de se interferir no comportamento do lote em produção, tomando as ações que evitem a ocorrência de problemas, através da prevenção. Qualquer processo de produção está sujeito à variação, por mais que o processo seja perfeito.

Um produto ou serviço sempre esta sujeito à variabilidade. No Controle Estatístico de Qualidade, a variabilidade tem causas aleatórias, inerentes ao processo (ou comuns) e causas especiais (ou identificáveis) que podem ser identificadas. Quando o processo é dito sob controle estatístico, ele opera apenas sob as causas inerentes, que são causas essencialmente inevitáveis, as quais pouco ou nada se pode fazer para eliminar. Quando o processo é dito estar fora de controle estatístico, ele opera sob causas especiais (ou identificáveis). Essas causas devem ser descobertas e corrigidas para que o processo volte ao controle. As causas especiais podem ocorrer 22 devido a: mão de obra, método de trabalho, matéria prima, máquinas, meio ambiente e meios de medição,o qual foi conhecido como 6M. A falta de treinamento de funcionários, a falta de ajuste ou lubrificação da máquina são exemplos de causas especiais. Convém ressaltar que existe o erro de afirmar-se que o processo está sob controle, quando ele não está e vice-versa.

Um dos objetivos principais do Controle Estatístico de Qualidade é detectar as causas especiais, investigar e aplicar ações para correção, para que o processo não produza produtos fora das especificações acima do previsto. O objetivo é a eliminação da variabilidade (ou de quase toda) no processo. Para detectar causas especiais utilizasse a carta de controle. As cartas de controle são compostas de três linhas paralelas, a linha central (LC), o limite superior de controle (LSC) e o limite inferior de controle (LIC). Esses limites devem estar dentro dos limites de especificação de engenharia. Os limites das cartas de controle são determinados com base na média e no desvio padrão da distribuição da característica de qualidade da variável quando o processo está isento de causas especiais, isto é, as medidas individuais são provenientes de uma mesma população. A teoria estatística desenvolvida por Shewhart para cálculos do limites de controle, para uma estatística W qualquer, com distribuição normal, é calculada a partir dos valores amostrais, e que tenha média μ(w) e desvio padrão s(w) conhecidos, terá uma probabilidade próxima a um de estar no intervalo de μ(w) ± 3s(w),

Uma importante ferramenta para os gestores e administradores é a norma ABNT ISO/TR 10017, que é um guia sobre as técnicas estatísticas, ou seja, um relatório técnico para auxiliar as organizações a identificar técnicas estatísticas úteis em desenvolvimento, implementação, manutenção e melhoria do sistema de gestão da qualidade, de acordo com os requisitos da ABNT NBR ISO 9001. Nesse contexto, a utilidade das técnicas estatísticas segue a variabilidade observada no comportamento e na realização de praticamente todos os processos, mesmo sob condições de uma estabilidade aparente. Na verdade, as técnicas estatísticas ajudam na medição e na análise das variações, auxiliando as organizações a identificar técnicas estatísticas úteis em desenvolvimento, implementação, manutenção e melhoria do sistema de gestão da qualidade, de acordo com os requisitos da NBR ISO 9001. Nesse contexto, a utilidade das técnicas estatísticas segue a variabilidade observada no comportamento e na realização de praticamente todos os processos, mesmo sob condições de uma estabilidade aparente.

Essa variabilidade pode ser observada nas características quantificáveis de produtos e processos, assim como em vários estágios do ciclo de vida total de produtos, desde a pesquisa de mercado até o serviço ao consumidor e a sua disposição final. As técnicas estatísticas ajudam na medição, descrição, análise, interpretação e modelagem dessas variações, mesmo com uma quantidade de dados limitada. A análise estatística destes dados ajuda a formar uma compreensão melhor da natureza, da extensão e das causas da variabilidade. Isso pode ajudar a solucionar e até mesmo prevenir problemas que podem surgir da variabilidade. As técnicas estatísticas permitem, portanto, melhor utilização dos dados disponíveis na tomada de decisões, e, assim, auxiliam a melhoria contínua da qualidade de produtos e processos, para alcançar a satisfação do cliente. Essas técnicas são relevantes a um amplo espectro de atividades, como pesquisa de mercado, projeto, desenvolvimento, produção, verificação, instalação e fornecimento.

Dessa forma, o relatório técnico pretende guiar e auxiliar as organizações a considerar e selecionar técnicas estatísticas apropriadas às necessidades da organização. O critério para determinar a necessidade de técnicas estatísticas e a pertinência da técnica selecionada permanece uma prerrogativa da organização. A necessidade de dados quantitativos que pode ser razoavelmente associada com a implementação das seções e subseções da NBR ISO 9001 é identificada em uma tabela Uma ou mais técnicas estatísticas que poderiam ser um beneficio potencial à organização acham-se listadas junto com a necessidade de dados quantitativos identificadas quando apropriadamente aplicadas a tais dados. Importante observar que as técnicas estatísticas podem ser apropriadamente aplicadas aos dados qualitativos se tais dados puderem ser convertidos em quantitativos. Nenhuma técnica estatística é relacionada onde não existir uma necessidade de dados quantitativos imediatamente relacionada com uma seção ou subseção da NBR ISO 9001.As técnicas estatísticas citadas são limitadas àquelas amplamente conhecidas.

Cada uma das técnicas estatísticas relacionadas está descrita sumariamente na seção 4, para ajudar a organização a avaliar a pertinência e o valor das técnicas estatísticas citadas e ajudar a determinar se a organização deveria usá-las ou não em um contexto específico. As seguintes técnicas estatísticas, ou famílias de técnicas, que poderiam auxiliar uma organização a satisfazer suas necessidades, são identificadas na tabela citada: estatística descritiva; projetos de experimentos; ensaios de hipóteses; análise de medições; análise de capacidade do processo; análise de regressão; análise de confiabilidade; amostragem; simulação; gráficos de controle estatístico do processo (CEP); tolerância estatística; análise de séries históricas.

Entre as várias técnicas estatísticas relacionadas, cabe notar que a estatística descritiva (que inclui métodos gráficos) constitui um aspecto importante de muitas dessas técnicas. Os critérios usados na seleção das técnicas relacionadas acima são que estas técnicas sejam bem conhecidas e amplamente utilizadas, e que sua aplicação tenha resultado em benefícios dos usuários. A escolha da técnica e a maneira de sua aplicação dependerão das circunstâncias e do propósito do exercício, que diferirá caso a caso. Encontra-se em 4.2 a 4.13 uma breve descrição de cada uma das técnicas estatísticas, ou família de técnicas. As descrições procuram auxiliar um leitor comum a avaliar a aplicabilidade e os benefícios potenciais do uso de técnicas estatísticas na implementação dos requisitos de um sistema de gestão da qualidade.

A real aplicação de técnicas estatísticas citadas aqui exigirá mais orientação e conhecimento que os fornecidos nesse relatório técnico. Existe uma grande quantidade de informações sobre técnicas estatísticas disponíveis e ao alcance do público, como livros, revistas, relatórios, manuais de indústrias e outras fontes de informação, que podem auxiliar a organização no uso eficaz de técnicas estatísticas. No entanto, o escopo deste não inclui a citação dessas fontes e, portanto, a pesquisa deste tipo de informações será delegada à iniciativa individual.

Para comprar a norma, clique no link http://www.target.com.br/portal_new/Pesquisa/Resultado.aspx#[CarregarDetalhesProdutoAjax]16_37008_1

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Facebook: http://www.facebook.com/profile.php?id=100002095953440

Glossário Técnico Gratuito

Disponível em três línguas, a ferramenta permite procurar termos técnicos traduzidos do português para o inglês e para o espanhol. Acesse no link

http://www.target.com.br/portal_new/ProdutosSolucoes/GlossarioTecnico.aspx?ingles=1&indice=A

Anúncios

Limite de controle não é o limite de especificação

O controle do processo está diretamente associado ao comportamento da execução atual do processo. A capacidade do processo está diretamente associada aos requisitos do cliente. Nem sempre um processo controlado é um processo capaz de atender ao cliente. Cuidado!

 Marcelo Rivas Fernandes

 O objetivo desta matéria é alertar aos leitores que lidam com melhoria contínua para o perigo em se “acomodar” com algumas análises gráficas isoladas de comportamento de processos sem, entretanto, observar o contexto global do que está sendo analisado. Os gráficos de controle servem para sinalizar alguma anormalidade decorrente do comportamento do processo que está sendo executado, onde a partir da sua média podemos atribuir uma variação de +- 3 desvios padrões para determinar os seus limites superiores e inferiores de controle. A área interna de flutuação dos pontos (entre + 3 e – 3 desvios, incluindo a média) é chamada de região de variação de causa comum do processo, enquanto que a área externa (acima do limite superior ou abaixo do limite inferior de controle) é chamada de região de variação de causas especiais. A existência de pontos na região de variação de causas especiais significa dizer que o processo está descontrolado e que existem variáveis que necessitam de investigação tais como, mão de obra sem treinamento, máquinas com problemas, instrumentos de medição descalibrados, métodos ineficientes, influências negativas do meio ambiente ou material inadequado utilizado no processo.

Como exemplo de um gráfico de controle, observamos na figura 1 um processo  referente a peças de madeiras para telhado cujo comprimento médio é 322,13 cm. Ao determinar os limites de controle do processo superior e inferior (linhas vermelhas) verificamos que os cortes das peças não estão variando excessivamente (fora dos +- 3 desvios) . Logo, não temos nenhuma variação de causa especial neste processo. O processo é previsível e está controlado.     

Figura 1

Observem que os dados variam dentro da região de interesse de causa comum. Nenhum ponto ultrapassa as linhas vermelhas que denominamos de limites superior e inferior de controle, podendo assim concluírmos que o processo está controlado.

Porém, como sempre venho frisando, para que a metodologia Seis Sigma seja considerada lucrativa torna-se extremamente necessário que o seu conceito esteja voltado para o atendimento da plena satisfação dos clientes, onde os mesmos reconhecerão a qualidade do produto ou serviço como um diferencial e retribuirão sob a forma de fidelização e relacionamento saudável.

Atender a necessidade do cliente através da metodologia Seis Sigma significa dizer: Entregar produtos ou serviços sem defeitos, dentro do prazo acordado e no preço combinado com o cliente. Neste contexto, é necessário analisarmos como uma empresa poderá fazer isso:

Em primeiro lugar, precisamos ouvir a voz do cliente para sabermos: o que o cliente considera defeito em um produto adquirido ou um serviço executado? qual o prazo que ele considera ideal para a entrega do produto ou término do serviço? quanto ele está disposto a pagar pelo produto ou serviço considerando uma escala de associação e balanceamento com os ítens anteriores? (Melhores produtos/serviços + Entregas e conclusões pontuais = Maior valor de agregação)

Após conhecer os requisitos que satisfazem a necessidade do cliente é necessário que a empresa traduza-os em parâmetros para a linguagem de processos internamente. Os requisitos traduzidos são denominados de especificações, onde, através dos números, conheceremos por exemplo, o comprimento desejado de uma peça a ser produzida, o tempo esperado de entrega ao cliente e o valor agregado.

Com base nas especificações traçamos a curva da capabilidade do processo atual identificando a tolerância do cliente (diferença entre o limite superior de especificação e limite inferior de especificação LSE-LIE ) para medirmos a capacidade e o nível sigma deste processo e verificarmos se não existem produtos ou prazos que estão sendo entregues fora desses limites. Como exemplo citaremos os mesmos dados referenciados no gráfico de controle da figura 1 para calcularmos o gráfico da capacidade do processo, da figura 2, considerando, porém, que o cliente somente aceita peças de madeira que tenham comprimento entre 300 e 342 cm :

 

Figura 2

Podemos observar na figura 2 que apesar de termos um processo controlado, previsível e estável conforme demonstra a figura 1, o mesmo não está sendo capaz de atender as necessidades do cliente, pois está entregando atualmente 164.007,11 partes por milhão em defeitos, gerando um índice de capacidade do processo de 0,45 cpk e um nível sigma de 0,98 conforme demonstra a figura 2.

Agora suponha que existia uma peça da máquina que estava constantemente desregulando o processo de corte e que foi substituída por uma nova. O novo cálculo da capacidade do processo encontra-se na figura 3

Figura 3

Observe que após a melhoria, o processo está entregando somente 605,43 partes por milhão em defeitos,gerando um índice de capacidade de 1,10 cpk e um nível sigma melhorado para 3,24. Ao mesmo tempo, o controle estatístico do processo melhorado demonstra uma redução da variação dentro de +- 3 desvios mantendo o processo controlado, previsível e estável, sendo que desta vez, dentro da tolerância regida pelo cliente (>300<342) . Veja a figura 4.

Figura 4

Portanto, não vamos confundir Limite de Controle do Processo com Limite de Especificação do Cliente. Cada gráfico possui a sua finalidade apropriada. O Controle do Processo define a VOZ do processo, enquanto que a Capacidade do Processo define a VOZ do Cliente. Vamos controlar processos atendendo as necessidades do cliente!

Marcelo Rivas Fernandes é consultor Master Black Belt da White Martins/Praxair na América do Sul.  Formado pela Six Sigma Academy – USA, Lean Especialista – Formado pela Lean Enterprise Consulting Services and Lean Value Solutions – USA, Pós Graduado em Engenharia Econômica – pela Universidade Estácio de Sá – RJ, Especializado em Didática do Ensino Superior – pela Faculdades Jorge Amado – Salvador/Ba e Bacharel em Ciências Contábeis pela Fundação Visconde de Cayru – Salvador/Ba. Palestrante da Seis Sigma Summit 2007 e Gerenciamento de Processos 2008 pelo IQPC – Palestrante do Fórum de Convergências da Saúde e de Sustentabilidade em  2008 pela ANAHP – Palestrante da Six Sigma Technical Day Salvador e do Congresso Six Sigma Brasil em 2010 pela Six Sigma Brasil. Instrutor de Cursos para Champions, Black Belts, Green Belts, Yellow Belts, Lean Praticantes em grande empresas, tais como White Martins, Braskem, Ambev, Coca Cola, CSN, Eletrolux, Hospitais da Rede D’Or, Samaritano, Pró Cardíaco, etc. com mais de 600 treinandos. Experiência na implantação e criação de estrutura de produtividade em multinacional. Habilidade em desenvolvimento e suporte aos projetos Lean Seis Sigma – marcelorivas@uol.com.br

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

QUALIDADE ONLINE – LINKS PATROCINADOS

Curso: Gestão da Qualidade por Processos
Data: 21/07/2010
Horário: 8h30 às 17h00
Valor: R$ 380,00

Sistema de Informações Tecnológicas
Curso Gratuito
Dias 05 de agosto de 2010

Novo Fiat Uno
A revolução no conceito de carro popular!Veja o que a Fiat conseguiu
uno.fiat.com.br

Jogo da Responsabilidade Ambiental e Jogo da ISO 14001
Dois jogos divertidos, para treinar e conscientizar seus funcionários

Simulação Monte Carlo

Monte Carlo

Uma leitora diz que leu um texto que citava uma tal de Simulação Monte Carlo. O que seria isso, pergunta ela? Referindo-se a qualquer método analítico cuja intenção é imitar algum sistema real, principalmente quando outras análises são matematicamente complexas simulação descreve a distribuição e características dos possíveis valores de uma variável dependente, depois de determinados os possíveis valores e comportamentos das variáveis independentes a ela relacionadas. Em muitos casos, os modelos de simulação são utilizados para analisar uma decisão envolvendo risco, ou seja, um modelo no qual o comportamento de um ou mais fatores não é conhecido com certeza. Neste caso, estes fatores são conhecidos como variável aleatória e o seu comportamento é descrito por uma distribuição de probabilidade.

A simulação Monte Carlo é um modelo que utiliza a geração de números aleatórios para atribuir valores às variáveis que se deseja investigar. Os números podem ser obtidos por meio de algum processo aleatório (tabelas, roletas, etc.) ou diretamente do computador, através de funções específicas. Recebeu esse nome devido a Monte Carlo, em Mônaco, ser uma cidade onde os cassinos são a principal atração. Jogos como roleta, dados, etc. exibem um comportamento randômico.

Esse comportamento randômico de jogos é similar a forma como a simulação de Monte Carlo funciona. Por exemplo, quando se rola um dado, sabe-se que os possíveis valores são 1, 2, 3, 4, 5 e 6. No entanto, não se sabe qual vai ser o resultado do dado para uma jogada em particular. Da mesma forma acontece com as variáveis da simulação, onde se conhece a faixa de valores possíveis, mas não se sabe o valor específico para um dado tempo ou evento.

A simulação de Monte Carlo randomicamente gera inúmeros valores para variáveis consideradas incertas, simulando assim combinações de valores dessas variáveis que levam a resultados que são o foco da análise. No caso de análise de rentabilidade de projetos de investimento, cada simulação é como se o projeto tivesse sito executado e atingido uma determinada rentabilidade. As várias simulações então geram uma série de valores de possíveis rentabilidades que permitem ao tomador de decisão analisar o risco daquele projeto sob as condições que ele foi elaborado e modelado na planilha.

Em resumo, a simulação de Monte Carlo é um processo de amostragem cujo objetivo é permitir a observação do desempenho de uma variável de interesse em razão do comportamento de variáveis que encerram elementos de incerteza. Embora seja um conceito simples, a operacionalização desse processo requer o auxílio de alguns métodos matemáticos. Dentre os mais conhecidos e utilizados está o método da transformada inversa, que faz uso das propriedades dos números aleatórios e da função distribuição acumulada de uma variável aleatória.

Assim, a base para o processo de amostragem realizado nas simulações de Monte Carlo é a geração de números aleatórios. É a partir desse mecanismo que são produzidas as distribuições das variáveis de interesse, tomando por base as premissas e as distribuições associadas às variáveis de entrada, bem como a inter-relação entre elas. Um número aleatório, conforme já exposto, é definido como sendo um número uniformemente distribuído entre 0 e 1. No entanto, computadores não possuem a capacidade de gerar números realmente aleatórios, visto que fazem uso de um algoritmo para gerar uma seqüência de números.

Em razão disso, os números gerados são comumente chamados de números pseudo-aleatórios. Desse modo, é necessário escolher um algoritmo que forneça uma série de números que pareçam ser aleatórios. Um algoritmo aritmético gerador de números aleatórios deve satisfazer as seguintes condições: os números produzidos devem parecer uniformemente distribuídos entre 0 e 1 e não possuírem correlação entre eles; deve ser rápido na geração e consumir pouca memória; deve propiciar a reprodutibilidade da seqüência gerada. Portanto, previamente à execução da simulação, deve-se verificar se o gerador de números aleatórios a ser usado satisfaz as propriedades enunciadas acima, seja através de testes ou de referências que dêem suporte à sua utilização.

Esse tipo de simulação seleciona valores aleatoriamente de forma independente de acordo com a distribuição de probabilidade definida. Em outras palavras, o número aleatório utilizado em uma rodada não influencia os próximos números aleatórios a serem utilizados.

O método Hipercubo Latino seleciona valores aleatoriamente de forma dependente. Tal método divide a distribuição em intervalos com probabilidades iguais de sorteio e seleciona um valor aleatório pertencente a cada um dos intervalos. O método é mais preciso para a reprodução das distribuições de probabilidade escolhidas para as variáveis de entrada e, conseqüentemente, para o cálculo de estatísticas geradas pela simulação, uma vez que o intervalo da distribuição é utilizado de maneira mais equânime e consistente.

Desse modo, seu uso torna-se recomendado quando a preocupação principal está na acurácia das estatísticas da simulação. De forma alternativa, quando o objetivo principal for a geração de uma diversidade de cenários independentes, o método de Monte Carlo torna-se, por definição, mais adequado. Adicionalmente, o padrão de aleatoriedade propiciado por esse método pode ser conveniente para os casos em que as distribuições das variáveis de entrada são definidas sem a utilização de dados históricos.

Algumas etapas do processo de simulação incluem o desenvolvimento conceitual do modelo do sistema ou do problema a ser estudado: a construção do modelo de simulação: inclui o desenvolvimento de fórmulas e equações apropriadas, a coleta de dados necessários, a determinação das distribuições de probabilidades associadas às variáveis de entrada e, finalmente, a construção ou definição de uma forma para registrar os dados; a verificação e a validação do modelo: a verificação se refere ao processo de conferir se o modelo está livre de erros de lógica, ou seja, se o modelo faz aquilo que deveria fazer, e a validação tem por objetivo avaliar se o modelo construído é uma representação razoavelmente crível do sistema ou problema estudado; o desenho de experimentos com a utilização do modelo: tal etapa envolve a determinação de questões a serem respondidas pelo modelo com o intuito de auxiliar o decisor a alcançar o seu objetivo; a realização dos experimentos e análise dos resultados: finalmente, nessa última etapa, com base no desenho de experimento feito, as simulações são realizadas para que se obtenha o conjunto de informações especificado, que pode ser transmitido aos tomadores de decisão em forma de relatórios.

 Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

As ferramentas para as equipes do Seis Sigma

The Six Sigma Memory JoggerTM II

Uma publicação com muitas das ferramentas de qualidade comumente utilizadas em melhoria, planejamento e solução de problemas de processos, mas não continha informações específicas referentes a como e quando essas ferramentas poderiam ser usadas no suporte do Six Sigma. Para comprar clique no link http://www.qualistore.com.br/produto.asp?codigo=3985

PREÇO ESPECIAL PARA EQUIPES DE SEIS SIGMA: LIGUE (11) 5188-1516 – furukawa@epse.com.br

O ensino e o treinamento de aptidões na área de conhecimento devem permear as organizações que querem implementar ou já tenham iniciado o Seis Sigma. Os executivos líderes de Seis Sigma devem alocar tempo e recursos de pessoal significativos para seus projetos. Além de seus próprios investimentos na atuação, eles designam as pessoas mais capazes de uma empresa para se dedicarem em tempo integral à liderança de projetos Seis Sigma de desenvolvimento. O trabalho do executivo é remover as barreiras burocráticas aos avanços, de modo que os gerentes que tenham aptidões para implementar mudanças produtivas possam ter êxito.

É necessário selecionar as pessoas adequadas para o treinamento definindo claramente as expectativas de como este treinamento deve ser aplicado no local de trabalho assegurando que seja fornecido o suporte necessário para obter bons resultados. Deve-se estabelecer o monitoramento do desempenho individual após o treinamento e fornecer incentivos para que os treinados apliquem suas novas habilidades e seu conhecimento.

Os papéis da equipe Seis Sigma têm alguns de seus nomes iguais aos das artes marciais, pois seus idealizadores acham que ambos têm certas habilidades em comum: champion, master black belts, black belts e green belts

O Champion é o gerente sênior que supervisiona um projeto de melhoria. As equipes precisam de liberdade para tomar suas próprias decisões, mas também carecem de orientação dos líderes da empresa para direcionarem seus esforços. Ele deve definir as pessoas que irão disseminar os conhecimentos sobre o Seis Sigma por toda a empresa e liderar os executivos-chave da organização. Deve compreender as teorias, os princípios e as práticas do Seis Sigma, pois cabe a ele organizar e guiar o começo, o desdobramento e a implementação em toda a organização.

Quanto aos master black belts representam o nível mais alto de domínio técnico e organizacional. Estes profissionais necessitam ter o conhecimento dos black belts e entender a teoria no quais os métodos estatísticos se baseiam. Deve ser um expert em qualidade dedicado integralmente ao Seis Sigma. Ele é o mentor de um grupo de black belts e atua diretamente na formulação da estratégia de implementação, no treinamento dos participantes, na seleção, direcionamento e revisão de projetos. Este profissional equivale a um consultor interno sobre assuntos correlatos ao Seis Sigma, pois recebe uma preparação mais aprofundada sobre as técnicas e ferramentas para resolução de problemas.

Os black belts são profissionais treinados para utilizar ferramentas e técnicas para prevenção e resolução de problemas. Cabem, a esses profissionais, certas atividades gerenciais, mesmo desempenhando um papel mais operacional e fazendo com que a melhoria aconteça. Ele deve liderar vários projetos ao mesmo tempo, liderar times de trabalho, orientar os green belts, identificar as oportunidades de melhoria e auxiliar no treinamento dos demais envolvidos com a implementação dos projetos sob sua responsabilidade.

Os green belts são os profissionais parcialmente envolvidos com as atividades relacionadas com o Seis sigma. Em geral, são pessoas de nível operacional ou de média gerência que recebem treinamento simplificado sobre as ferramentas e técnicas para prevenção e resolução de problemas. Suas tarefas principais podem ser resumidas em auxiliar os black belts na coleta de dados e no desenvolvimento de experimentos e liderar pequenos projetos de melhoria em suas áreas de atuação. 

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Os conceitos básicos do Controle Estatístico de Processo (CEP)

Uma leitora diz que tem lido textos sobre o CEP, mas que ela não entende o que é e para o que serve. De forma bem resumida, apenas para os leitores entenderem, o CEP uma ferramenta com base estatística, de auxílio ao controle da qualidade, nas etapas do processo, particularmente no caso de processo de produção repetitivo. Atualmente, mais do que uma ferramenta estatística, o CEP é entendido como uma filosofia de gerenciamento (princípios de gerenciamento) e um conjunto de técnicas e habilidades, originárias da estatística e da engenharia de produção, que visam garantir a estabilidade e a melhoria contínua de um processo de produção.

Em resumo, visa o controle e a melhoria do processo. Os princípios fundamentais para implantação e gerenciamento do CEP são: pensar e decidir baseado em dados e fatos; pensar separando a causa do efeito, buscar sempre conhecer a causa fundamental dos problemas; reconhecer a existência da variabilidade na produção e administrá-la; usar raciocínio de prioridade (Pareto); girar permanente e metodicamente o ciclo de controle (Ciclo PDCA: Plan, Do, Check, Action), visando a melhoria contínua do desempenho; definir o próximo processo/etapa/posto de trabalho como cliente da etapa anterior, pois é ele que define a qualidade esperada; identificar instantaneamente focos e locais de disfunção e corrigir os problemas a tempo; educar, treinar e organizar a mão de obra visando uma administração participativa e o auto controle.

Dentre as ferramentas de apoio ao CEP, podem ser citadas:

  • Amostragem (Inspeção, Planos de Amostragem);
  • Folha de Verificação;
  • Histograma/Gráficos;
  • Diagrama de Pareto;
  • Diagrama de Causa e Efeito/6M/Espinha de Peixe;
  • Estratificação;
  • Gráficos de Controle (Gráficos de Shewhart);
  • Diagrama de Correlação.

Atualmente, a inovação fundamental em relação ao CEP é que essas técnicas devem ser compreendidas e aplicadas por todas as pessoas da organização e não apenas pelos técnicos e engenheiros da área de qualidade. Um dos pilares da estatística é a amostragem. Populações ou lotes em geral são grandes demais para ser analisadas em detalhes item por item.

Em muitos casos a inspeção a 100% é uma regra em muitas empresas de manufatura, mas na realidade este procedimento não funciona adequadamente. Imagine o operador que tem a responsabilidade de verificar o nível de preenchimento de um lote de garrafas de refrigerante. O lote tem 50.000 unidades. Depois de inspecionar apenas 100 garrafas, é muito provável que o operador já não está mais pensando em níveis de preenchimento, mas sim no próximo churrasco, na próxima oportunidade de tomar uma cerveja ou na próxima namorada.

No final, inspeção a 100% tem custos elevados e resultados péssimos. A seleção de amostras de tamanho muito menor que a população enxuga os custos e acaba representando melhor as características da população. A amostragem igualmente é necessária quando a inspeção necessita da destruição do item amostrado. Nesse caso, poucos itens vão para o laboratório para sofrer a verificação dos técnicos.

A aplicação do CEP também impulsiona os custos para baixo, pois o número e a percentagem de peças defeituosas produzidas na fábrica vão diminuir com as melhorias na linha de produção. Portanto, com menos refugo e menos retrabalho o custo por peça produzida vai diminuir. Enfatiza-se que existe somente uma razão para utilizar CEP em uma fábrica: aumentar o resultado financeiro, se possível no curto prazo, mas também no longo prazo. No entanto, CEP não é nenhum milagre e consequentemente ele deve ser abordado na empresa como qualquer projeto de investimento nos quais os custos são contabilizados e os benefícios previstos e medidos.

Já a inspeção de peças individuais tem como objetivo a eliminação de peças de baixa qualidade que não alcançam as expectativas do consumidor e não devem ser colocadas no mercado. Com constante inspeção do produto ao longo da linha de produção, a empresa pode identificar produto que precisa de retrabalho ou até mesmo rejeição total.

Nesse caso, a companhia está gastando desnecessariamente para corrigir erros os quais, numa fábrica melhor organizada, não aconteceriam com tanta freqüência. Numa fábrica melhor, é feita a coisa certa na primeira vez. Uma fábrica realmente eficiente não exige inspeção a toda hora porque tem muita confiança que o produto já está saindo dentro das especificações.

Assim, acaba sendo comum na indústria que a fabricação de peças não conformes ocorre porque os processos são instáveis a ponto de proporcionar produto fora das especificações. Em outras palavras, a fábrica não está controlando processo para melhorar constantemente a qualidade do produto.

Para controlar e estabilizar os processos, podem ser utilizadas as ferramentas do CEP necessitando apenas pequenas amostras sempre muito menores que os lotes. Assim, as investigações do gerente estarão em direção das grandes causas atrás das irregularidades da linha de produção. Cada vez que uma nova causa é identificada e documentada para análise e, portanto, eliminação, o processo de produção é estabilizado e qualidade garantida e melhorada.

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Termos estatísticos gerais e os usados em probabilidade

Previsto para cancelar e substituir a ABNT NBR 10536:1988, quando aprovado, a Associação Brasileira de Normas Técnicas (ABNT) está disponibilizando um projeto baseado na norma ISO 3534-1:2006 que será a Parte 1 dos termos estatísticos gerais e termos usados em probabilidade. As versões atuais da ABNT NBR ISO 3534-1 e ISO 3534-2 foram desenvolvidas para serem compatíveis e compartilham do objetivo comum de restringir seus níveis matemáticos respectivos aos níveis mínimos necessários para alcançar definições coerentes, corretas e concisas.

A Parte 1, referente aos termos usados em probabilidade e estatística, é fundamental, portanto por necessidade é apresentada em um nível matemático um tanto sofisticado. Reconhecendo que os usuários da ISO 3534-2 ou outras normas do TC 69 em estatística aplicada podem ocasionalmente consultar esta parte da ISO 3534 para a definição de determinados termos, muitos dos termos são descritos de uma maneira menos técnica nas notas e ilustrados com exemplos. Embora essas descrições informais não sejam um substituto para definições formais, podem fornecer uma definição operacional dos conceitos para leigos, assim servindo às necessidades de usuários múltiplos destas normas de terminologia. Para acomodar mais o usuário aplicado que estaria envolvido normalmente com normas tais como a ISO 3534-2 ou a ISO 5725, por exemplo, notas e exemplos são oferecidos para fazer esta parte da ISO 3534 mais acessível.

Um conjunto bem definido e razoavelmente completo de termos de probabilidade e estatística é essencial ao desenvolvimento e ao uso eficaz de normas estatísticas. As definições fornecidas aqui devem ser suficientemente exatas e matematicamente sofisticadas para permitir que desenvolvedores das normas de estatística evitem ambigüidades. Naturalmente, explicações mais detalhadas dos conceitos, dos seus contextos e dos seus campos de aplicação podem ser encontradas em livros introdutórios de probabilidade e estatística.

Os diagramas conceituais são fornecidos em um anexo informativo para cada grupo de termos estatísticos gerais (Anexo B) e os termos usados em probabilidade (Anexo C). Há seis diagramas conceituais para termos estatísticos gerais e quatro para os termos relativos à probabilidade. Alguns termos aparecem em diagramas múltiplos para fornecer uma ligação de um conjunto de conceitos a outro. O Anexo D fornece uma breve introdução aos diagramas de conceito e à sua interpretação.

Curso: C.E.P. – CONTROLE ESTATÍSTICO DO PROCESSO
Como utilizar e garantir que o processo de fabricação está sob controle. Os conceitos e a metodologia para monitorar e controlar processos através de técnicas estatísticas.
Data: 26/05/2010
Horário: 8h30 às 17h30
Valor: R$ 380,00

Estes diagramas foram instrumentos na elaboração desta revisão, pois ajudam a delinear as interdependências dos vários termos. Estes diagramas são também provavelmente úteis na tradução da norma para outros idiomas. Como um comentário geral no que diz respeito a grande parte da norma, salvo indicação em contrário, as definições se relacionam ao caso unidimensional (univariada). Desta forma, elimina-se a necessidade de se mencionar o âmbito unidimensional para a maioria das definições.

O escopo do projeto define os termos estatísticos gerais e termos usados em probabilidade que podem ser utilizados na elaboração de outras Normas. Além disso, define símbolos para um número limitado destes termos. Os termos são classificados como: estatísticos gerais (Seção 1); e os usados em probabilidade (Seção 2). O Anexo A apresenta uma lista de símbolos e abreviaturas recomendados para esta parte 1. Os termos desta parte 1 são organizados em associação com os diagramas de conceito mostrados nos Anexos B e C.

Para participar dando a sua opinião no projeto acesse http://www.abntonline.com.br/consultanacional/default.aspx

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Modelo de Experimento de Superfície de Resposta (SR): mais uma ferramenta estatística

O SR ainda é desconhecido por boa parte do pessoal que trabalha com estatítica, seja pelo seu conceito ou pela sua operacionalidade. No texto abaixo, Marcelo Rivas Fernandes (marcelorivas@uol.com.br) afirma que a finalidade dessa metodologia é produzir uma equação matemática otimizada e robusta, validando para a próxima fase de Controle os poucos fatores (x) vitais e altamente influenciadores no resultado do processo (y).

O Modelo de Experimento de Superfície de Resposta (SR) é uma ferramenta estatística bastante poderosa, porém, pouco utilizada na fase de Implementação de Melhorias em um projeto Seis Sigma. A sua finalidade é produzir uma equação matemática otimizada e robusta, validando para a próxima fase de Controle os poucos fatores (x) vitais e altamente influenciadores no resultado do processo (y).

Na edição nº 3 desta revista descrevemos sobre a relação Y=f(x) como uma linguagem mundialmente conhecida que expressa a base da utilização da metodologia Seis Sigma, onde o “Y” representa a saída do processo, um produto ou serviço, a variável dependente de “x” que por sua vez, representa a entrada do processo, as variáveis independentes, ou seja, todos os fatores que irão compor e afetar o Y . Este conceito deriva todos os modelamentos matemáticos encontrados na metodologia Seis Sigma através do uso das ferramentas estatísticas que irão servir para determinar as variáveis do processo, porém eles divergem em propriedade e importância explanadas a seguir. Vamos supor que iremos analisar a influência da distância (x1) e o volume descarregado (x2) nos tempos de abastecimento (Y)* de um centro distribuidor . A tabela 1 contém os dados de dez abastecimentos.

 

Tabela 1

(x1)Km  (x2)Toneladas (Y)Minutos
92 40 230
78 37 180
67 31 120
72 34 148
84 38 215
71 33 135
81 36 211
74 34 155
77 36 170
68 32 122

 

A definição operacional para o tempo de abastecimento é considerada a partir da saída do caminhão em direção ao cliente até o descarregamento total da carga. O primeiro modelo é o básico, amplamente utilizado em ferramentas estatísticas de Regressão e que por sua simplicidade na sua execução determina a força da corelação existente entre os eixos (x) e  (y). A sua representação está descrita nos gráficos 1 e 2.

 

Y=b0 + X1 + X2…+ Xn

Onde o “Y” representa a saída do processo, b0 representa a constante e X1, X2, Xn representa os fatores que estão sendo analisados. Observem que este modelo analisa os efeitos principais dos fatores em relação ao Y, individualmente.

 

Gráficos 1 e 2

O modelo matemático preditício seria o seguinte:

Regression Analysis: (Y)Minutos versus (x1)Km; (x2)Toneladas

 The regression equation is

(Y)Minutos = – 222 + 4,51 (x1)Km + 1,32 (x2)Tonelada

 Substituindo a equação na primeira linha da tabela teremos: Para cada 4,51 km percorridos com 1,32 toneladas descarregadas iremos gastar 245,72 minutos.

O segundo modelo é utilizado em Delineamento de Experimentos para tratamento de combinações entre os fatores. A sua representação acrescenta os termos interagindo:

Y=b0 + X1 + X2…+ X1*X2

Onde o “Y” representa a saída do processo, b0 representa a constante, X1, X2…, representa os fatores que estão sendo analisados e X1*X2… representa os fatores interagidos (Gráfico 3). Este modelo possui um grau de robustez maior do que o anterior pois ele acrescenta os termos de interação existentes entre os fatores que irão influenciar no resultado do processo.

Gráfico 3

 

Observem que o tempo gasto para efetuar um abastecimento de 40 toneladas, obviamente é maior que o tempo gasto para efetuar um abastecimento de 31 toneladas em uma distância comum de 92 quilômetros. Porém, o tempo gasto para efetuar um abastecimento de 40 toneladas NÃO é maior que o tempo gasto para efetuar um abastecimento de 31 toneladas em uma distância comum de 67 quilômetros. Daí a importância do modelo interagido.

O modelo matemático preditício seria o seguinte:

Estimated Coefficients for Minutos using data in uncoded units

 Term          Coef

Constant 130,622

Km              0,355

Ton            -8,560

Km*Ton      0,111  çTermo interagido (km * ton)

 Substituindo a equação na primeira linha da tabela teremos:

Y=130,62  + 32,66 – 342,40 + 408,48 => Y= 229,36 minutos

O terceiro modelo é utilizado em Superfície de Resposta. Ele analisa, a possibilidade dos fatores se auto-influenciarem no resultado do processo, além das interações entre eles . A sua representação acrescenta os termos quadráticos. (Gráfico 4)

Y=b0 + X1 + X2…+ X1*X2 +X12 + X22

Onde o “Y” representa a saída do processo, b0 representa a constante, X1, X2…, representa os fatores que estão sendo analisados, X1*X2… representa os fatores interagidos e X12 , X2representa os fatores auto-influenciadores no resultado do processo

Este modelo possui um grau de robustez maior do que o anterior pois ele acrescenta os termos quadráticos, considerando através de uma forma tri dimensional todas as possibilidades de variação existentes nos fatores que irão influenciar no resultado do processo.

 Gráfico 4

 

O modelo matemático preditício seria o seguinte:

Response Surface Regression: Minutos versus Km; Ton

The analysis was done using uncoded units.

Estimated Regression Coefficients for Minutos

Term         Coef 

Constant  1565,66 

Km              -38,29  

Ton               -2,44   

Km*Km          0,27    çTermo quadrático (km * km)

Substituindo a equação na primeira linha da tabela teremos:

Y=1.565,66 – 3.522,68 – 97,6 + 2.285,28    =>  Y= 230,66  minutos

Agora vamos comparar os resultados dos três modelos em relação ao primeiro abastecimento:

(x1)Km (x2)Toneladas (Y)Minutos
92 40 230

 

Regressão………245,72 minutos

  DOE (+ Interação)……229,36 minutos

SR (+ Quadrático)……..230,66  minutos

Podemos verificar que os resultados dos modelos matemáticos gerados pelo DOE e SR representam a maior proximidade em relação a amostra do primeiro abastecimento, tornando-os mais robustos em relação ao modelo de regressão. Para decidir qual o modelo matemático optar entre o DOE e SR devemos considerar neste exemplo que ambos produziram  resultados quase parecidos, porém, o SR foi o que mais aproximou-se da amostra mesmo tendo que acrescentar o termo quadrático, o que nos leva a conclusão  que houve uma “varredura” da superfície. Portanto, na hora de decidir qual o modelo matemático que poderá ser utilizado na fase de implementação de melhorias, considere que com poucas execuções você poderá desenvolver análises de um maior número de combinações de fatores possíveis para tornar os seus resultados mais robustos.

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.