O líder da Qualidade Total

progressLembrando Armand V. Feigenbaum, o integrador da gestão de qualidade organizacional

Gregory H. Watson

Armand Vallin Feigenbaum, ou “Val” para os seus muitos amigos, nasceu em uma época diferente. Em sua juventude, ele trabalhou como ferramenteiro na General Electric (GE) e se aproveitou dos benefícios educacionais excepcionais da GE para ganhar um diploma de bacharel em engenharia pela Union College em Schenectady, NY, seguido de um mestrado e doutorado em engenharia econômica do Instituto de Tecnologia de Massachusetts em Cambridge.

Seu início de carreira foi impulsionado pela falta de engenheiros durante a Segunda Guerra Mundial, e ele subiu rapidamente na estrutura de gestão da GE até se tornar diretor de fabricação e qualidade, cargo que ocupou por dez anos antes de fundar a General System com o seu irmão, Donald.

Feigenbaum é mais conhecido pelas várias edições do seu livro clássico Controle da Qualidade Total (Total Quality Control), que foi uma expansão de um artigo que escreveu para a Harvard Business Review em 1956. Feigenbaum faleceu em 13 de novembro com a idade de 94.

Pioneiro da Qualidade

Entre suas principais reconhecimentos são a outorga da Medalha Nacional de Tecnologia pelo presidente George W. Bush, a eleição para a Academia Nacional de Engenharia, três doutorados honorários, e a seleção como membro honorário da ASQ e da International Academy for Quality (IAQ). Feigenbaum contribuiu com muita energia para o movimento da qualidade desde o seu início. Ele era um membro pioneiro da ASQ e foi a única pessoa que foi seu presidente por dois mandatos.

Como funcionário da GE, procurou reconstruir suas operações na Europa após a II Guerra Mundial, Feigenbaum focou seus esforços na reconstrução da fabricação e na qualidade pela Europa, onde ele foi um catalisador na criação da European Organization for Quality (EOQ).

Junto com seus colegas internacionais de qualidade, Kaoru Ishikawa (Union of Japanese Scientists and Engineers – JUSE e Walter A. Masing (representando a EOQ), Feigenbaum foi um dos três indivíduos que são creditados como fundadores do IAQ. Feigenbaum em toda a sua vida serviu como um modelo de total compromisso com a qualidade.

GE: um ambiente intelectual estimulante

No início de sua carreira, Feigenbaum teve o privilégio de trabalhar em uma empresa que não só respeitava a educação, mas também a incentivava fortemente. Naquela época, a GE tinha um ambiente excepcionalmente rico, onde a busca da melhoria contínua permeava tudo. Esta cultura estimulou a inovação centrada no desenvolvimento de métodos de engenharia para a produção e seus sistemas de suporte relacionados.

Depois de seu trabalho no gerenciamento de projetos, Feigenbaum passou a ser um executivo chave no desenvolvimento do centro de aprendizagem da GE em Crotonville, NY. Neste ambiente altamente inspirador, os contemporâneos de Feigenbaum também contribuiram com idéias que se fundiram em sua perspectiva de qualidade total.

Ralph E. Wareham (1914-2006) se considerava um engenheiro de qualidade. Depois de receber um diploma de bacharel em matemática pela Universidade de Iowa, Wareham juntou-se à GE e trabalhou em qualidade. Ele estudou com Walter A. Shewhart por meio de um programa de intercâmbio que a GE mantinha com a AT & T Bell Laboratories.

Wareham foi o autor de um dos capítulos sobre Controle Estatístico do Processo que está incluído no livro de Feigenbaum de 1951: Quality Control (este livro foi o núcleo inicial do livro de Feigenbaum: Total Quality Control ou Controle da Qualidade Total, publicado pela primeira vez em 1961). Wareham foi um dos seis instrutores para o curso de controle estatístico do processo que foi desenvolvido por Eugene L. Grant para as empresas de manufatura nos Estados Unidos durante os anos de guerra.

Wareham foi o segundo presidente da ASQ. Ele demonstrou total compromisso com a qualidade, permanecendo ativo na ASQ até sua morte. A ênfase de Wareham em métodos estatísticos para controlar a qualidade foi um dos elementos chave da abordagem de Feigenbaum da qualidade total.

Harry A. Hopf (1882-1949) se considerava um engenheiro de gestão. Ele aplicou os princípios da gestão científica para o trabalhadores de colarinho branco e, em 1953, a GE publicou uma coleção dos seus trabalhos que ele escreveu nas décadas de 1930 e 1940 como New Perspectives in Management ou As Novas Perspectivas em Gestão.

A coleção de documentos de Hopf ilustra a aplicação de princípios de gestão científica para negócios de seguro de vida da GE. É interessante notar como ele enfatizou a construção de um sistema de medição de som e gestão participativa para orientar os processos das organizações, como métodos estatísticos e as relações humanas são pilares do movimento moderno de qualidade.

“O poder de tomada de decisão deve ser colocado tão perto quanto possível do ponto de onde se origina a ação”, escreveu Hopf. Nesta ênfase, ele ecoa Mary Parker Follett (autor de The Creative Experience) e Chester I. Barnard (autor de The Functions of the Executive).

A extensão dos princípios da administração científica e a integração com idéias participativas de Hopf contribuiram com dois elementos para a abordagem de Feigenbaum na qualidade total.

Lawrence D. Miles (1904-1985) se considerava um engenheiro de valor. Ele trabalhou na GE no setor de compras e atuou para melhorar a produtividade e os custos de material fornecido, descrevendo seu método em Techniques of Value Analysis ou Técnicas de Análise de Valor.

A abordagem de Miles e a engenharia de valor aplicadas às ferramentas de criatividade, como o brainstorming, foi muito popularizada por Alex F. Osborne (autor de Applied Imagination ou Imaginação Aplicada) para desenvolver alternativas, de baixo custo, para fornecer a mesma funcionalidade dos produtos por meio do uso de material diferente ou alterações de design. Atualmente, a engenharia de valor é necessária em todos os principais contratos do Departamento de Defesa dos EUA.

A ênfase de Miles na relação custo eficácia das operações e materiais também enriqueceu a idéia de Feigenbaum para a qualidade total. Em uma entrevista em 2006 à Quality Progress (QP), Feigenbaum reconheceu que a engenharia de valor estava fazendo uma grande contribuição para o kit ferramenta utilizada para a melhoria da qualidade total.

Misturando uma abordagem de sistemas coerentes

As idéias de Feigenbaum também foram estimuladas por uma variedade de pares dentro da comunidade de qualidade pós-Segunda Guerra Mundial. Muitos foram os pioneiros na criação da American Society for Quality Control (ASQC), o nome original da American Society Quality – ASQ), e vários envolvidos na criação do IAQ.

Estas pessoas foram: Leon Bass, Charles A. Bicking, Paul C. Clifford, Simon Collier, W. Edwards Deming, George D. Edwards, Eugene C. Fisher, Joseph M. Juran, E. Jack Lancaster, Sebastian B. Littauer, Julius Y. McClure, Thomas C. McDermott, R. Ellis Ott, William R. Pabst, Leslie Simon e Shewhart. Eles foram ativamente engajados no desenvolvimento do núcleo do conhecimento da moderna qualidade (QBoK), e seus engajamentos evoluíram a partir de atividades que foram relacionadas com o apoio das indústrias de guerra.

Antes do desenvolvimento de Feigenbaum dos conceitos da qualidade total, havia duas escolas de pensamento dominantes sobre qualidade:

  1. Durante a primeira metade do século passado, Deming, Harold F. Dodge, Grant, Ott, Harry Romig e Shewhart estavam focados na utilização de métodos estatísticos para conseguir produtos de alta qualidade por meio de uma combinação de testes de aceitação e controle estatístico de processo.
  2. No início de 1950, Deming, Juran e Peter Drucker enfatizaram os sistemas baseados em gestão para melhorar o desempenho da fabricação e as práticas de negócios com forte ênfase nos aspectos das relações humanas.

Feigenbaum serviu como um integrador intelectual de sistemas para o pensamento da qualidade. Ele avançou na gestão de tecnologia por meio da definição de uma nova abordagem de qualidade baseada na economia e na engenharia industrial, que incluiu a disciplina de engenharia emergente relacionada com sistemas e ciência da administração. Ele combinou isso com os conhecimentos estatísticos preexistentes e de gestão, e essa integração resultante foi chamada de qualidade total.

Contribuição intelectual pessoal

As principais contribuições por Feigenbaum foram documentadas em seu livro de 1961, Total Quality Control ou Controle da Qualidade Total, que passou por atualizações em três edições para se manter em moda durante os últimos 50 anos. De acordo com Feigenbaum, a qualidade deve ser enfatizada por causa de três fatores:

  1. Os clientes continuam a aumentar sua exigência para o desempenho em qualidade dos produtos e serviços. Isso amplia muito a concorrência para a ganhos de market share, oferecendo maior valor percebido do que está disponível a partir de outros fornecedores de produtos ou serviços semelhantes.
  2. Devido ao aumento da demanda por produtos de maior qualidade, as abordagens tradicionais, práticas e técnicas para entregar resultados de qualidade tornaram-se obsoletas, e o desempenho de qualidade já não pode ser considerado como valor agregado. Em vez disso, tornou-se uma qualificação de base em concorrência comercial.
  3. Os custos da qualidade não são visíveis, mas escondido nos relatórios financeiros de gestão da maioria das organizações. Estes custos são muitas vezes maior do que o lucro alcançado pelos produtos. Para algumas organizações, estes custos podem ser tão altos a ponto de comprometer a sua posição competitiva no mercado.

Feigenbaum disse que se estes são os fatores que motivam a gestão para desenvolver uma capacidade forte de qualidade, o controle da qualidade total (Total Quality Control – TQC) é a resposta para assegurar uma organização com um sistema robusto que ofereça qualidade em todas as áreas de suas operações de negócios. Então, o que ele quis dizer com TQC?

Controle da qualidade total

Feigenbaum definiu o TQC como: “Um sistema eficaz para integrar os esforços de desenvolvimento, manutenção e de melhoria da qualidade dos vários grupos em uma organização, de modo a permitir produtos e serviços com níveis mais econômicos que permitam a plena satisfação do cliente” Considere cada palavra na frase “controle da qualidade total” e o que ela contribui para a definição global do TQC:

Total: Feigenbaum acreditava que o engajamento total de uma organização é necessário para garantir a qualidade. Por isso, ele quis dizer que todos, em todas as camadas da estrutura organizacional e em todas as áreas funcionais, têm o dever de garantir a qualidade do seu trabalho e os resultados fornecidos para os clientes externos.

Desta forma, a qualidade não é delegada só aos trabalhadores do chão de fábrica, pois o resto da organização deve ser capaz de realizar o seu trabalho para entregar o valor consistentemente elevado que satisfaça os clientes. Feigenbaum identificou este esforço como “a principal responsabilidade da gestão geral e das operações de marketing, engenharia, produção, relações industriais, finanças e serviços, bem como a própria função de controle de qualidade”.

Qualidade: Feigenbaum disse que “Qualidade é, em sua essência, uma forma de gerir a organização”, A ideologia central de abordagem sistemática de Feigenbaum é resumida usando os seguintes conceitos de qualidade:

  • Qualidade é um processo organizacional.
  • Qualidade é o que o cliente diz que é.
  • Qualidade e custo são uma soma, não a diferença.
  • Qualidade requer fanatismo individual e trabalho em equipe.
  • A qualidade é uma forma de gerir.
  • Qualidade e inovação são mutuamente dependentes.
  • Qualidade é uma ética.
  • Qualidade requer melhoria contínua.
  • A qualidade é a rota do capital intensivo menos rentável para a produtividade.
  • Qualidade é implementada como um sistema total ligado aos clientes e fornecedores.

A Qualidade de Feigenbaum enfatiza as atividades orientadas para o cliente da organização e exige que as atividades internas sejam conduzidas de forma disciplinada para que o resultado do controle da qualidade seja mantido no nível de expectativa do cliente.

Controle: Feigenbaum definiu controle como “um processo de delegação de responsabilidades e autoridades para a atividade de gestão, mantendo os meios de garantir resultados satisfatórios”. Ele descreveu quatro medidas para desenvolver o controle em um processo:

  1. Definir padrões.
  2. Apreciar a conformidade.
  3. Atuar quando necessário.
  4. Planejar para as melhorias.

O desenvolvimento de Feigenbaum da ideia da qualidade total foi influenciado por líderes individuais, bem como a atmosfera do pós-guerra após a Segunda Guerra Mundial.

Precursores intelectuais para a Qualidade Total

Em uma carta de 1675 a Robert Hooke, Sir Isaac Newton comentou: “Se vim mais longe, é porque eu estava sobre os ombros de gigantes”. Isso também é verdade para o desenvolvimento do pensamento de qualidade. Muitas pessoas contribuíram para o desenvolvimento da atmosfera intelectual e o diálogo gerencial a partir do qual Armand V. Feigenbaum criou seu conceito de controle da qualidade total (TQC) no final de 1950.

Feigenbaum é mais conhecido pelas várias edições do seu livro clássico, Total Quality Control (Controle da Qualidade Total), que foi construído sobre um livro anterior de 1951 sobre o controle da qualidade, que foi baseado um artigo que ele escreveu para a Harvard Business Review em 1956. Para entender de forma abrangente a ideia da qualidade total, é necessário aprender alguma coisa sobre esses precursores intelectuais e líderes de pensamento da época.

O pensamento histórico e o capital intelectual atual que foram discutidos durante os anos de formação de Feigenbaum como um estudante no Massachusetts Institute of Technology, onde estudou engenharia econômica, deram a forma ao seu desenvolvimento do conceito da qualidade total. Algumas ideias, em seguida, na vanguarda do pensamento de gestão, tiveram uma influência sobre o ambiente contemporâneo porque os livros dos líderes do pensamento foram leitura obrigatória para executivos bem informados.

As seguintes contribuições são apresentadas na ordem em que os conceitos foram entregues para consumo do público através de suas publicações principais:

Harrington Emerson (1853-1931), em seu livro, The Twelve Principles of Efficiency (Os 12 princípios da eficiência), apresentou um conjunto de características que devem ser incluídas como princípios e levar a um funcionamento mais eficaz de qualquer organização. Emerson foi um praticante do que foi chamado de “gestão científica”, embora ele não fosse particularmente alinhado com as ideias de Frederick W. Taylor (1856-1915), que havia se especializado no estudo de como os trabalhadores poderiam agilizar o trabalho. (Em seu livro, The Principles of Scientific Management – Os Princípios da Administração Científica, Taylor popularizou a tarefa de estudar o trabalho para aumentar a eficiência sem degradar a qualidade).

Emerson tinha uma perspectiva mais ampla de eficiência, e ele incluiu alguns aspectos que foram incorporados ao conceito de qualidade total de Feigenbaum. Emerson recomendou:

  • Ideais e objetivos claramente definidos.
  • Uso de bom senso.
  • Ouvir os conselhos de profissionais competentes.
  • Exercício da disciplina no local de trabalho.
  • Fornecer um acordo justo para os funcionários.
  • Manter registros de trabalho adequados, fiáveis ​​e imediatamente disponíveis.
  • Expedição ou controlar o tempo de trabalho nas organizações.
  • O estabelecimento de padrões de trabalho e cronogramas para o desempenho.
  • A padronização das condições de trabalho.
  • A padronização de operações de processos de trabalho.
  • Documentar as práticas como as instruções de trabalho.
  • Ligar a eficiência de desempenho aos sistemas de recompensa e compensação.

Henri Fayol (1841-1925) escreveu General and Industrial Management para descrever um processo sistemático de gestão: planejamento, organização, coordenação, comando e controle. Ele também introduziu muitas inovações gerenciais em sua organização como um executivo da indústria de mineração: análise estratégica por meio do planejamento de longo prazo (em um horizonte de dez anos), utilizando cenários alternativos, bem como programas de saúde e de aptidão do empregado.

Fayol observou que “a experiência é um professor caro” e que a gestão é uma “atividade que está espalhada por todos os membros da pessoa jurídica”. Ele imaginou o negócio como um sistema e disse que a gestão era responsável por manter a disciplina nos processos de trabalho, enquanto a manutenção era uma “busca constante de melhorias que podem ser introduzidas em cada esfera de atividade”.

Fayol incentivou os profissionais, membros da equipe técnica, a verificar que o “trabalho pessoal estava concluído” antes de apresentar quaisquer recomendações para a gerência sênior tomar as decisões. Assim, Fayol estimulou uma grande quantidade de pensar sobre os temas que viriam a se tornar elementos centrais do pensamento de qualidade total. Sua obra foi escrita em francês, e por isso só ficou amplamente disponível após a sua tradução para o inglês em 1949, apesar de suas ideias serem amplamente discutidas nos meios acadêmicos.

Mary Parker Follett (1868-1933) foi chamado de “O Profeta da Gestão” por Peter F. Drucker. Em seus livros, The New State e The Creative Experience (A experiência criativa), ele enfatizou a organização do grupo e reconheceu que, em uma organização, a autoridade não só corre verticalmente através de linhas estruturadas de autoridade, mas também pode fluir lateralmente através de processos informais que alcançam o reconhecimento através do “autoridade de sua experiência.”

Parker Follett cunhou a frase “liderança transformacional” e é considerado o criador do desenvolvimento organizacional e métodos de gestão participativa. Ela acreditava que o processo de controle deve se concentrar em fatos, e não em controlar as pessoas.

Afirmou que a coordenação das atividades representa uma terceira via para a gestão através de sistemas de integração e interfuncional que compartilham uma responsabilidade conjunta para as operações. Isso, ele acreditava, devem ser feito com todos no processo de gestão.

Eugene L. Grant (1897-1996) é talvez mais conhecido por seus ensinamentos relacionados com as ideias de Walter A. Shewhart sobre o controle estatístico do processo (statistical process control – SPC). Uma década antes, no entanto, ele foi um pioneiro no desenvolvimento de uma compreensão econômica das atividades dos engenheiros.

O livro de Grant, Principles of Engineering Economy (Princípios da Engenharia Econômica), explica os princípios relacionados com a aquisição de bens e equipamentos de apoio às operações de fabricação. Aborda as questões relacionadas com o custeio das instalações de produção e faz a análise de seu desempenho para garantir um retorno adequado ao investimento inicial dentro de um prazo razoável. O trabalho de Grant foi a base para Feigenbaum expandir seus conceitos relacionados com os efeitos econômicos da má qualidade e mudou a conversa a partir de considerações de orçamento de capital para um problema de gestão operacional.

Walter A. Shewhart (1891-1967) escreveu The Economic Control of Quality of Manufactured Product (O Controle Econômico da Qualidade do Produto Manufaturado), que pode ser considerado o começo da época da qualidade. Neste livro, ele identificou uma teoria de controle, que abrangeu os níveis de interpretação caótica ingênua do universo com as leis exatas de ciência.

A estabilidade de métodos de produção permite uma base de probabilidade para prever o desempenho futuro com base no domínio das condições causais que são identificadas e que alteram o desempenho e o resultado da qualidade do processo. Além da criação do SPC, Shewhart fez uma contribuição ainda maior que só foi parcialmente realizado: o desenvolvimento do capital intelectual para o movimento da qualidade pelo seu posicionamento dentro do fluxo do pensamento humano.

A filosofia pragmática que permeava os Estados Unidos naquele momento estava focada na aplicação dos métodos de controle estatístico. A urgência da necessidade de tais métodos que foi estimulado pela II Guerra Mundial fez com que muitos de suas ideias mais profundas passassem desapercebida até tempos recentes.

G. Elton Mayo (1880-1949) realizou os experimentos de Hawthorne na Western Electric no final de 1920 e documentou suas descobertas no livro The Human Problems of an Industrial Civilization (Os Problemas Humanos de uma Civilização Industrial). Mayo estudou os problemas de cansaço e monotonia na execução do trabalho repetitivo na produção. Em um resultado inesperado de seu estudo, ele descobriu que o aumento da motivação resultou de uma mudança percebida na ordem social, e isso teve um grande efeito nos aspectos de higiene do ambiente de trabalho.

Na verdade, a percepção de mudanças em um grupo de trabalhadores com a administração fez alterações tanto positivas como negativas para o seu ambiente. Em reconhecimento a essa observação, Mayo iniciou o estudo da motivação dos funcionários como um fator significativo para a melhoria da produtividade e lançou as bases do pensamento para futuros estudos de motivação por Frederick Herzberg e I. Abraham H. Maslow.

Chester I. Barnard (1886-1961) escreveu o livro mais influente sobre o tema da liderança, The Functions of the Executive (As Funções do Executivo). Barnard foi presidente da AT & T New Jersey e, em seguida, ocupou diversos cargos executivos importantes. Em seu livro, ele mudou a forma como a eficiência foi definida a partir de um estudo que foi o foco da abordagem científica de Taylor para gerenciar o trabalho a partir de uma definição mais ampla focada na construção de cooperação no âmbito da organização para atingir o seu objetivo global.

A eficiência do processo de trabalho, no âmbito do regime de Barnard, é apenas um aspecto da eficácia (isto é como uma pequena eficiência que está focada no trabalho e nas tarefas, o que denota que Barnard não utilizou esta nomenclatura de “little e” e “big E “que são usados ​​em um contexto semelhante ao utilizado por Joseph M. Juran de “little q” e ” Big Q” para a identificação de diferentes maneiras que a qualidade é aplicada em organizações), em comparação com eficiência ao nível estratégico (tipo “big E” de eficiência, o que aumenta a capacidade de a organização atingir o seu objetivo global).

Este tipo “Big E” de eficiência é alcançado através da obtenção de cooperação entre os processos informais da organização (com uma citação para a influência de Parker Follett) e por encontrar “zonas de indiferença” dentro de motivação dos trabalhadores. Estas zonas de conflitos internos dentro das organizações, muitas vezes, inibem a cooperação (um “nós contra eles” na divisão entre grupos funcionais) para a resolução de problemas em áreas onde os sentimentos dos subgrupos conflitantes são menos intensivos. Neste esquema de pensamento, a função mais importante do executivo é a comunicação de uma forma que promova a cooperação interna.

Herbert A. Simon (1916-2001) foi vencedor do Prêmio Nobel no campo da economia em 1978 e também recebeu vários prêmios em ciência da computação, inteligência artificial e psicologia cognitiva. Em seu livro mais importante, Administrative Behavior (Comportamento Administrativo), abordou muitos conceitos em torno da tomada de decisão organizacional e do conceito de racionalidade limitada.

Ele disse que a tomada de decisão requer três etapas:

1. Identificação e descrição de todas as alternativas.

2. Compreender as potenciais consequências de cada alternativa.

3. Comparar os resultados potenciais destas decisões.

A racionalidade limitada significa que as decisões devem ser tomadas no contexto das restrições impostas à organização. Simon descreveu duas maneiras de ver as aplicações da ciência  pela primeira vez como uma construção teórica, como fez em seu livro, e em um segundo plano como práticas pragmáticas administrativas das organizações para melhorar.

Feigenbaum não se concentra nos aspectos teóricos da ciência administrativa. Em vez disso, ele optou por se concentrar na abordagem pragmática de melhorar totalmente uma organização, criando a participação de um grupo inteiro para alcançar o nível de cooperação que Follett, Barnard e Simon descreveram como o ingrediente essencial para a criação da eficácia organizacional. (GHW)

Referências bibliográficas

Armand V. Feigenbaum, Total Quality Control, McGraw-Hill, 1961, 1983 and 1991.

Armand V. Feigenbaum, “Total Quality Control,” Harvard Business Review, November-December 1956, pp. 93-100.

Harrington Emerson, The 12 Principles of Efficiency, Engineering Magazine, 1912.

Frederick W. Taylor, The Principles of Scientific Management, Harper & Brothers, 1911.

Henri Fayol, General Industrial Management, paperback edition, Martino Fine Books, 1916.

Mary Parker Follett, The New State, 1918, paperback edition, Kessinger Publishing, 2009.

Mary Parker Follett, The Creative Experience, Longmans, Green and Co., 1924.

Eugene L. Grant, Principles of Engineering Economy, fifth edition, Ronald Press, 1970.

Walter A. Shewhart, Economic Control of Quality of Manufactured Product, ASQ Quality Press, 1931.

G. Elton Mayo, The Human Problems of an Industrial Civilization, reprint edition, Routlege, 2003.

Chester I. Barnard, The Functions of the Executive, 30th anniversary edition, Harvard University Press, 1971.

Herbert A. Simon, Administrative Behavior, fourth edition, Free Press, 1997.

Resultados consistentes exigem liderança

Feigenbaum recomendou que os líderes empresariais façam a abordagem de melhoria de qualidade utilizando um conjunto de imperativos para focar os esforços de melhoria e dirigir ações de que eles enfatizam como a inovação de gestão baseada no princípio de que tudo o que você faz para fazer uma melhor qualidade torna tudo mais melhor. Essa visão de melhoria a partir de um ponto de vista de gestão de liderança envolve:

  • Fazendo liderança de qualidade como uma peça central de negócios para o crescimento da receita e da força competitiva.
  • Entrega de valor para os clientes como a motivação para a ação de melhoria.
  • Alcançar a satisfação do cliente completa, o que impulsiona a aceitação do comprador.
  • Desenvolver um fornecedor eficaz e outras parcerias de qualidade empresarial.
  • Maximizar a eficácia dos dados de qualidade.
  • Acelerar as vendas e os lucros de crescimento através de gestão dos custos de qualidade.
  • Formando um sistema integrado de qualidade que constrói os relacionamentos entre clientes, produtores e fornecedores.
  • Incentivar a utilização de ferramentas e recursos para criar uma ênfase a melhoria da qualidade individual.
  • Reconhecer que a qualidade é uma linguagem internacional de negócios.
  • Garantir a liderança de qualidade é a base para o comportamento ético de sucesso.

Infelizmente, os sistemas de medição, muitas vezes, escondem o verdadeiro impacto da perda de qualidade quando se examina a administração, pois os métodos de alocação de prática contábil não conseguem identificar as fontes de problemas de custo excessivo e obscurecem a relação causal para ações que são os resultados de respostas à má qualidade.

A qualidade total requer que todos assumam a responsabilidade para o efeito de seu trabalho sobre o nível ou grau de qualidade que é percebida pelo cliente, não só a qualidade do desempenho de um produto, mas também o grau em que se realiza o atendimentos às necessidades do cliente.

Custo da Qualidade

Usando a linguagem das finanças e introduzindo o conceito de custo de qualidade, Feigenbaum enfatizou que a qualidade deve ser gerida de forma ativa e ter visibilidade nos mais altos níveis de gestão. Quando Shewhart introduziu o conceito do custo econômico em seu livro de 1931, Economic Control of Quality of Manufactured Product (Controle Econômico da Qualidade do Produto Manufaturado), ele estava focando o custo da sucata e o retrabalho que ocorre quando os produtos não são produzidos certo da primeira vez.

Feigenbaum estendeu essa ideia de incluir a soma dos custos diretos e indiretos de fazer negócios de uma forma que cria a insatisfação do cliente. Essa ênfase era totalmente nova e não encontrada nas obras anteriores de Grant ou Shewhart. Philip B. Crosby mais tarde se tornou conhecido pela sua expansão sobre o custo da não conformidade e o custo da má qualidade, mas ele creditou à Feigenbaum a origem deste conceito. Posteriormente, Genichi Taguchi estendeu o conceito de Feigenbaum para incluir os custos incorridos pela sociedade que depois é liberado para a sociedade.

A colaboração da atmosfera durante a guerra

Outra influência significativa sobre Armand V. Feigenbaum foi o esforço coletivo que os americanos colocaram na produção em apoio à II Guerra Mundial. Um dos participantes nos esforços do tempo de guerra para apoiar a indústria americana no seu papel de “fábrica do mundo” foi Arthur M. Squires (1916-2012), autor de The Tender Ship: Governmental Management of Technological Change, que descreveu a sua experiência e os conhecimentos da forma como o governo usou as “técnicas dos mestres” para gerir a mudança.

Squires era um engenheiro químico que trabalhou no Projeto Manhattan. As técnicas dos mestres que Squires descreveu incluiu os cientistas do Projeto Manhattan, professores do Operations Evaluation Group (OEG) e professores de estatísticas industriais do War Production Board. As percepções desses grupos foram capturadas em uma série de publicações do pós-guerra que criaram as profissões de engenheiro da qualidade e de analista de operações de qualidade, entre outras.

Enquanto o Projeto Manhattan é familiar para a maioria das pessoas, e a maioria dos profissionais de qualidade estão cientes dessas realizações estatísticas industriais, nem todo mundo pode estar familiarizado com o OEG. Ele foi estabelecido como um centro de pesquisa e de recrutamento para o envio de matemáticos e cientistas nos navios de guerra durante a Segunda Guerra Mundial, para estudar a guerra e determinar como melhorar as operações navais. Este grupo foi responsável pelo desenvolvimento de operações de investigação como uma disciplina para a melhoria dos processos através da modelagem matemática.

Outra lição aprendida com o esforço de guerra foi o valor da construção de organizações profissionais civis de gestão. Isso encorajou os criadores da American Society for Quality Control (ASQC), nome anterior da ASQ, com base nos grupos locais que, agrupados em torno de cidades que estavam profundamente envolvidas no esforço de defesa, foram formados para expandir o uso dos métodos de qualidade.

O estímulo para a criação da qualidade total incluiu uma dose saudável de inspiração a partir da aplicação do pensamento científico de problemas para melhorar o estado de guerra durante a Segunda Guerra Mundial e de transferir a competência técnica na qualidade alcançada durante os anos de guerra para a próxima geração dos Estados Unidos. Um dos principais ingredientes tinha sido a aplicação maciça dos métodos estatísticos para melhorar a qualidade dos sistemas de produção de guerra americanos de uma indústria que a General Electric (GE) e o jovem Feigenbaum apoiaram profundamente.

Feigenbaum era um gerente de programa em tempo de guerra na na unidade GE Aircraft Engines desenvolvendo os primeiros motores para os jatos de combate que foram usados ​​no F-80 Shooting Star da Força Aérea. Este projeto de transição, desde a concepção até o voo do protótipo em apenas 143 dias, mais tarde foi modificado para se tornar no F-84 Starfire, que voou durante a Guerra da Coréia.

Depois de liderar esses projetos, a GE atribuiu a Feigenbaum como gerente de projeto para desenvolver o motor para o primeiro caça a jato de propulsão nuclear usando o motor da GE de ciclo de ar direto. O programa foi cancelado antes que um protótipo fosse foi desenvolvido. No entanto, a atribuição mostrou à alta administração da GE os esforços realizados por Feigenbaum. Tal era o ambiente intelectual no momento em que a ideia para a qualidade total cristalizou na mente de Feigenbaum.

Feigenbaum tinha a mente certa, no momento certo para integrar o capital intelectual de sua época e forjar uma abordagem abrangente de gestão. A qualidade total foi um resultado natural das forças intelectuais se formando naquela época, mas era necessário uma pessoa de grande visão para transformar os elementos divergentes em um método abrangente. (GHW)

Referência bibliográfica

Arthur M. Squires, The Tender Ship: Governmental Management of Technological Change, Birkhäuser de 1986.

Fábrica oculta

Uma contribuição relacionada com Feigenbaum foi o seu conceito de “fábrica oculta” que gera desperdício e custos de qualidade. Isso acontece quando o trabalho extra é realizado para corrigir os erros de produção e é devido a:

  • Ordens mal formuladas que não recebem os requisitos certos do cliente.
  • Tempo que é desperdiçado em busca de peças perdidas ou substituição de peças de má qualidade.
  • Atividades necessárias para acelerar o desempenho quando os horários não são cumpridos por várias razões.

Ao considerar todas essas atividades, Feigenbaum estimou que até 40% da capacidade de produção ideal de uma planta podem ser perdidos porque as coisas não são feitas corretamente. Ele identificou essa perda com o que chamou de “fábrica oculta”, uma “fábrica” ​​que perde dinheiro dentro da fábrica que manufatura os produtos.

A ideia da fábrica oculta ainda existe hoje e pode ser observada no processo de perda de capacidade produtiva. Nas plantas em que os esforços para reduzir o desperdício através de métodos de qualidade e métodos Lean não eram praticados, e esta perda ainda pode ser tão alta estiamda em 40% da capacidade de produção projetada. O conceito da planta oculta ajuda a cristalizar a perda que ocorre quando a qualidade não está certa, principalmente do ponto de vista do cliente consumidor e do acionista.

Evoluindo o conceito de Qualidade Total

O conceito de qualidade total cresceu para fora da pesquisa acadêmica em estudos de doutoramento de Armand Feigenbaum, bem como de sua experiência prática e treinamento interno na General Electric (GE). Foram publicados os sistemas iniciais de gestão da qualidade entre 1922 e 1950 por George S. Radford, Egon Pearson, Leslie E. Simon e Paul Peach.

Somados a estes desenvolvimentos da aplicação de qualidade para as operações de fabricação, Feigenbaum inicialmente concentrou no desenvolvimento de um sistema de qualidade para a GE, que serviu suas necessidades e ele finalmente foi promovido a diretor de fabricação e organizador geral da qualidade.

O primeiro livro de Feigenbaum foi publicado em 1951 sob o título: Quality Control: Principles, Practice and Administration (Controle de Qualidade: Princípios, Práticas e Administração). Em 1951, Joseph M. Juran publicou seu Quality Control Handbook (Manual de Controle de Qualidade) com uma descrição abrangente do controle de qualidade. Este livro foi traduzido para o japonês e publicado sob o título de Total Quality Control (Controle da Qualidade Total). Não há evidências de que Feigenbaum estava ciente desta tradução, porque ele não tinha atividades no Japão e não tinha conhecimento do idioma japonês.

Em 1956, no entanto, Feigenbaum publicou um breve artigo na Harvard Business Review, que introduziu o conceito do controle total da qualidade no mundo ocidental. Este artigo descreveu o conceito de Feigenbaum e introduziu este tema, que ficou completamente formado em 1961 quando Feigenbaum publicou o seu livro baseado nesse artigo de 1951 e se tornou a sua principal contribuiçõa: Total Quality Control (Controle de Qualidade Total). (GHW)

Referências bibliográficas

George S. Radford, The Control of Quality in Manufacturing, The Ronald Press Co., 1922.

Egon Pearson, The Application of Statistical Methods to Industrial Standardization and Quality Control, British Standards Institute, 1935.

Leslie E. Simon, An Engineer’s Manual of Statistics, John Wiley & Sons, 1941.

Paul Peach, Industrial Statistics and Quality Control, Edwards and Broughton, 1943.

Armand V. Feigenbaum, Quality Control: Principles, Practice and Administration, McGraw-Hill, 1951.

Joseph M. Juran, Quality Control Handbook, 1951.

Izumi Nonaka, “The Recent History of Managing for Quality in Japan,” which appeared in Joseph M. Juran, ed., A History of Managing for Quality, ASQ Quality Press, 1995, p. 539.

Armand V. Feigenbaum, “Total Quality Control,” Harvard Business Review, November-December 1956, pp. 93-100.

Armand V. Feigenbaum, Total Quality Control, McGraw-Hill, 1961, 1983 and 1991.

O legado de Feigenbaum

O legado de Feigenbaum vem da integração dos conceitos de qualidade em um sistema de gestão de uma organização. Em seu livro, What is Total Quality Control? The Japanese Way (O que é o Controle da Qualidade Total? A maneira japonesa), Ishikawa creditou as idéias de Feigenbaum para o estímulo da abordagem japonesa de qualidade. O sistema japonês para a Total Quality Control (TQC) integrou os ensinamentos de Deming, Juran, Drucker em seus conceitos, juntamente com as ideias motivacionais de Frederick Herzberg I. e Abraham Maslow, todos interpretados dentro do contexto da tradição e cultura japonesas.

A abordagem sistêmica de Feigenbaum também pode ser observada no quadro criado para os critérios do Malcolm Baldrige National Quality Award, que codificou a sua abordagem global da qualidade como uma questão de negócios. Embora nenhuma ferramenta específica possa ser atribuída a Feigenbaum, ele entregou para a nossa comunidade algo talvez mais rico: a maneira mais ampla de pensar sobre o nosso trabalho e sua importância nas atividades da humanidade. De todos nós, obrigado, Val.

Referencias bibiográficas

Armand V. Feigenbaum, Total Quality Control, McGraw-Hill, 1961, 1983 and 1991.

Armand V. Feigenbaum, “Total Quality Control,” Harvard Business Review, November-December 1956, pp. 93-100.

Armand V. Feigenbaum, Quality Control, McGraw-Hill, 1951.

Feigenbaum, Total Quality Control, see reference 1.

Harry A. Hopf, New Perspectives in Management, Hopf Institute of Management/General Electric Co., 1953.

Mary Parker Follett, The Creative Experience, Longmans, Green and Co., 1924.

Chester I. Barnard, The Functions of the Executive, Harvard University Press, 1938.

Lawrence G. Miles, Techniques of Value Analysis, third edition, Lawrence G. Miles Value Foundation, 1989.

Alex F. Osborne, Applied Imagination, Bombay, 1961.

Thomas M. Kubiak, “Feigenbaum on Quality: Past, Present, and Future,” Quality Progress, November 2006, pp. 57-62.

Feigenbaum, Total Quality Control, see reference 1.

Walter A. Shewhart, Economic Control of Quality of Manufactured Product, ASQ Quality Press, 1931.

Kaoru Ishikawa, What is Total Quality Control? The Japanese Way, Prentice-Hall, 1988.

Bibliografia

Feigenbaum, Armand V., “Changing Concepts and Management of Quality Worldwide,” Quality Progress, December 1997, pp. 45-48.

Feigenbaum, Armand V., “How to Manage for Quality in Today’s Economy,” Quality Progress, May 2001, pp. 26-27.

Feigenbaum, Armand V., “Is It Any Surprise? World Class Companies Are Remarkably Similar!” Journal of Quality and Participation, March 1992, pp. 10-12.

Feigenbaum, Armand V., “Raising the Bar,” Quality Progress, July 2008, pp. 22-27.

Feigenbaum, Armand V., “The Power Behind Consumer Buying and Productivity,” Quality Progress, April 2002, pp. 49-50.

Feigenbaum Armand V. and Donald S. Feigenbaum, “The Future of Quality: Customer Value,” Quality Progress, November 2004, pp. 24-29.

Stratton, Brad, “Connecting With Customers and Other Sage Advice,” Quality Progress, February 1996, pp. 58-61.

Watson, Gregory H., “Feigenbaum’s Enduring Influence,” Quality Progress, November 2006, pp. 51-55.

Watson, Gregory H., “Total Quality—Total Commitment,” Quality Progress, November 2008, pp. 20-26.

Gregory H. Watson é presidente da Business Excellence Solutions Ltd., na Finlândia. Ele é um membro da ASQ e um ex-presidente e membro honorário da International Academy for Quality.

Fonte: Quality Progress/2015 January

Tradução: Hayrton Rodrigues do Prado Filho

Planos de amostragem e inspeção por atributos

É importante saber que a inspeção da qualidade é o processo de medir, ensaiar e examinar a unidade de produto ou comparar suas características com as especificações. A inspeção por atributos é aquela segundo a qual a unidade de produto é classificada simplesmente como defeituosa ou não (ou o número de defeitos é contado) em relação a um dado requisito ou conjunto de requisitos.

A unidade de produto é o elemento de referência na inspeção. Pode ser um artigo simples, um par, um conjunto, uma área, um comprimento, uma operação, um volume, um componente de um produto terminado ou o próprio produto terminado. A unidade de produto pode ou não ser igual à unidade de compra, de fornecimento, de produção ou de expedição.

A relação dos possíveis defeitos da unidade de produto pode ser classificado segundo sua gravidade. Um defeito da unidade de produto é a falta de conformidade a qualquer dos requisitos especificados. Os defeitos serão normalmente agrupados em uma ou mais das classes mencionadas a seguir, as quais podem ser desdobradas em subclasses.

O defeito crítico pode produzir condições perigosas ou inseguras para quem usa ou mantém o produto. É também o defeito que pode impedir o funcionamento ou o desempenho de uma função importante de um produto mais complexo. O defeito grave é considerado não crítico, mas pode resultar em falha ou reduzir substancialmente a utilidade da unidade de produto para o fim a que se destina. O tolerável não reduz, substancialmente, a utilidade da unidade de produto para o fim a que se destina ou não influi substancialmente no seu uso efetivo ou operação.

Há duas normas técnicas sobre o assunto. A NBR 5426 de 01/1985 – Planos de amostragem e procedimentos na inspeção por atributos estabelece planos de amostragem e procedimentos para inspeção por atributos. Quando especificada pelo responsável, deve ser citada nos contratos, instruções ou outros documentos, e as determinações estabelecidas devem ser obedecidas.

Os planos de amostragem podem ser utilizados, além de outros, para inspeção de: produtos terminados; componentes e matéria-prima; operações; materiais em processamento; materiais estocados; operações de manutenção; procedimentos administrativos e relatórios e dados. A NBR 5427 de 01/1985 – Guia para utilização da norma NBR 5426 – Planos de amostragem e procedimentos na inspeção por atributos fixa as instruções detalhadas e exemplos ilustrativos para aplicação e administração dos procedimentos de amostragem por atributos estabelecidos pela NBR 5426.

Deve-se afirmar que os planos de amostragem de inspeção por atributos da NBR 5426 têm, entre outros, os seguintes campos de aplicação: produtos terminados – os produtos terminados que podem ser inspecionados antes ou após embalagem e expedição para embarque ou armazenagem; componentes e matérias-primas – esses materiais podem ser inspecionados na origem, onde são fabricados, próximo à recepção no ponto de montagem, ou em qualquer lugar conveniente ao longo do processo de montagem, onde são formados os produtos terminados; operações – as operações de trabalho podem ser inspecionadas por amostragem para determinar se as máquinas de produção e operadores estão desempenhando satisfatoriamente o trabalho; materiais em processamento – os materiais podem ser inspecionados por amostragem para se determinar a qualidade após qualquer fase ao longo da linha de produção, bem como para se determinar a extensão do dano ou deterioração durante armazenagem temporária entre fases de produção, ou a qualidade antes do produto continuar até a próxima etapa do processo de produção; materiais estocados – os procedimentos e as tabelas de amostragem da NBR 5426 podem ser usadas para determinação da qualidade, de materiais estocados; operações de conserto – estas operações são normalmente executadas em materiais recuperáveis para restaurá-los à condição de poderem prestar serviços, pois se faz a inspeção por atributos, depois de tais operações terem sido executadas para determinar a qualidade do produto após conserto; procedimentos administrativos – se os resultados de procedimentos administrativos puderem ser medidos na base de atributos, os planos de amostragem e os procedimentos previstos na NBR 5426 poderão ser aplicados para sua avaliação e controle; dados ou relatórios – os procedimentos de inspeção por amostragem por atributos podem ser usados sempre que forem processadas grandes quantidades de dados (por exemplos: registros contábeis, dados de custo, pedidos, contas de fretes, etc.) como uma base para determinação da precisão e outras medidas da qualidade dos dados ou registros. No quadro abaixo há uma sequência típica de operações, quando se usam os procedimentos de amostragem e as tabelas de inspeção por atributos da NBR 5426.

CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO

atributo

A definição, a escolha e a aplicação do Nível de Qualidade Aceitável (NQA) podem ser discutidos. Por exemplo, na porcentagem defeituosa e defeitos por 100 unidades existem 16 valores específicos de NQA dados nas tabelas de amostragem da NBR 5426, variando de 0,01 a 10,0, que podem ser expressos tanto em “porcentagem defeituosa” quanto em “defeitos por cem unidades (DCU)”. Estão previstos ainda dez valores específicos de NQA de 15 a 1000 que devem ser expressos somente em termos de “defeitos por cem unidades”. Os valores de NQA foram escolhidos de tal forma que cada um é aproximadamente 1,5 vez maior do que o precedente.

Os tamanhos de amostra dependem, de um certo modo, do valor do NQA. O efeito do valor do NQA pode ser observado ao se examinar a Tabela 2 da NBR 5426 onde são mostradas uma série de flechas apontando para baixo e uma série de flechas apontando para cima. Sempre que uma flecha estiver apontando para baixo é usado o primeiro plano de amostragem abaixo da flecha. Sempre que uma flecha apontar para cima é usado o primeiro plano de amostragem acima da flecha.

tabela 2

Este procedimento é ilustrado com os seguintes exemplos:

a) usando-se a Tabela 2 da NBR 5426 e um NQA de 0,10%, o menor tamanho de amostras que pode ser escolhido é 125 unidades, não importa se aplica qualquer dos códigos literais de tamanho de amostra de A a J, conforme determinado na Tabela 1 da NBR 5426. Para um NQA de 1,0%, o menor tamanho de amostra é de 13 unidades.

b) usando a Tabela 2 da NBR 5426 e um NQA de 15 DCU, o maior tamanho de amostra pedido é de 80 unidades. Para um NQA de 1,0% com código literal de tamanho de amostra F, flecha aponta para cima para um tamanho de amostra de 13 unidades e número de aceitação zero.

Geralmente, à medida que o valor do NQA aumenta, os tamanhos mínimo e máximo de amostra diminuem. À medida que o NQA diminui, os tamanhos mínimo e máximo de amostra aumentam. Os valores do NQA dados nas tabelas da NBR 5426 são conhecidos como NQAs preferenciais. Não se aplicam estas tabelas se, para qualquer produto, for designado um NQA diferente dos NQAs preferenciais. Com isso, pretende-se limitar a quantidade de planos de amostragem a um número prático.

Para que se possa utilizar as tabelas é necessário igualar o NQA não preferencial ao valor próximo mais baixo de um NQA preferencial. Exemplo: suponha que o NQA especificado seja 5%. O valor do NQA preferencial de 4,0% é o que deverá ser designado se forem utilizados os planos de amostragem e os procedimentos da NBR 5426. Esta mudança para um valor mais baixo de NQA garantirá uma qualidade de produto tão boa ou melhor que a qualidade originalmente desejada.

A NBR 5426 estabelece três níveis gerais de inspeção e quatro níveis especiais de inspeção. Estes sete níveis permitem ao usuário equilibrar o custo de inspeção e a proteção da qualidade requerida. Os níveis gerais de inspeção de I a III são comumente usados em inspeção tipo não-destrutiva. Os níveis especiais S-1 a S-4 são comumente usados em inspeções tipicamente destrutivas ou de custo elevado onde são adequados pequenos tamanhos de amostra. Antes de se especificar o nível de inspeção, deve-se fazer uma detalhada análise dos seguintes fatores, de modo a melhorar a relação custo-risco. A análise deve incluir (não se limitando apenas a isso) o seguinte: a) as curvas características de operação (CCO) para avaliar as propriedades técnicas dos vários planos; b) o risco do fornecedor e a discriminação oferecida pelos vários níveis de inspeção; c) o conhecimento do processo de produção; d) o conhecimento da capabilidade do processo e a história do desempenho passado da qualidade; e) complexidade do item; f) o custo e a importância do exame ou ensaio, principalmente quando o ensaio é caro, demorado ou de caráter destrutivo; g) a importância das diversas características da qualidade que estão sendo examinadas, isto é, a gravidade das falhas geradas em casos de não conformidade; h) análise do risco do consumidor.

A NBR 5426 prevê três tipos de amostragem; simples, dupla e múltipla. Na norma são dadas informações gerais sobre estes tipos de planos de amostragem. As maiores diferenças entre esses tipos de planos de amostragem são ilustradas pelos exemplos que se seguem para os quais foram supostos os seguintes valores: a) tamanho de lote – 1.500 unidades; b) nível geral de inspeção – II; c) na Tabela 1 da NBR 5426, o código literal do tamanho de amostra é “K”; d) inspeção normal; e e) NQA de 1%.

Mapeamento do Fluxo de Valor

GLOSSÁRIO TÉCNICO GRATUITO

Selecione o idioma que deseja ordenar os termos técnicos:

de Português para Inglês

de Português para Espanhol

de Inglês para Português

de Espanhol para Português

Cristiano Bertulucci Silveira

“Se há um produto para um cliente, existe um fluxo de valor. O desafio consiste em vê-lo” Lean Enterprise Institute

Um fluxo de valor pode ser definido como o conjuntos de passos (valor agregado ou não) necessários para se ter um produto ou serviço. Abrange desde o estado de matérias-primas até a entrega do produto e satisfação do cliente. O Mapeamento do Fluxo de Valor (VSM) baseia-se na elaboração de um “mapa” que mostra como é o fluxo de materiais ou informações. Este mapa tem início na cadeia de fornecedores, passa pela empresa e finaliza no cliente, percorrendo todo o caminho do processo de transformação da matéria prima. Através da análise do mapa do fluxo de valor é possível entender  quais são as etapas agregam e retiram valor do produto, propor melhorias de processos e visualizar onde é possível aplicar ferramentas para redução de desperdícios e aumento de eficiência produtiva.

1 – Definição

Mapeamento do fluxo de valor

Figura 1- Mapeamento do fluxo de valor, favorece mentalidade enxuta :: Fonte:FreeDigitalPhotos.net

O VSM é uma ferramenta estratégica do negócio que possibilita enxergar o macro da produção. Por este motivo, ela é capaz de mostrar oportunidades de melhorias em cada etapa de produção. O mapeamento de fluxo de valor também é utilizado para identificar gargalos e atrasos nos processos produtivos. Assim é possível entender quais são as etapas que não agregam valor no produto final e então  criar uma linguagem comum do estado presente (retrato do que a empresa é hoje)  e estado futuro do processo (onde pretende-se chegar).

No mapeamento do fluxo de valor, os processos são divididos de três maneiras:

  • Aqueles que efetivamente geram valor;
  • Aqueles que não geram valor, mas são importantes para a manutenção da qualidade;
  • Processos que não geram valor e que devem ser evitados ou eliminados.

É importante reforçar que o mapeamento do fluxo de informações é tão importante quanto o mapeamento do processo. É natural que estes dois fluxos estejam interligados e o mapeamento deve contemplar ambos. Outrossim, é raro ter em uma empresa alguém que conheça todo o fluxo de valor de um produto. Assim, a análise detalhada do processo com a junção das informações é sempre necessária para que ações eficazes sejam articuladas visando atingir resultados ótimos globais.

2 – Componentes

Em um diagrama de VSM você encontrará:

  • O processo de controle global;
  • Fornecedores e os métodos de entrega;
  • Insumos dos fornecedores;
  • Os processos de trabalho (incluindo armazéns de estoque) através do qual os materiais se movimentam;
  • Desperdícios e saídas;
  • Os clientes e os métodos de entrega;
  • O fluxo de informação que coordena as etapas de processo;
  • Os tempos médios necessários em cada processo: tempo real de trabalho e tempo de sobrecarga;
  • A quantidade de pessoas envolvidas no trabalho.

3 – Como desenhar uma mapa de fluxo de valor?

Como a maioria das ferramentas relacionadas ao Lean e ao Six Sigma, há alguns passos gerais a seguir quando deseja-se criar mapas de fluxo de valor. Vejamos:

a – Identifique a família de produto e o processo a ser mapeado

Identifique claramente qual a família de produtos realmente é importante mapear. Lembre-se que é fundamental focar os esfoços em áreas mais críticas primeiramente.

b – Desenhe o processo atual

Reúna os gestores e os funcionários da linha de frente para desenhar o processo. É muito importante o envolvimento todos. Identifique as etapas envolvidas, pontos de início e fim do processo, informações de fornecedores, clientes externos, tempos envolvidos, etc. Identifique as etapas que consomem uma maior parcela dos recursos da organização ou que agreguem mais valor ou lucro. O mesmo deve ser feito para etapas que não agregam valor. Importante ressaltar que esta fase tem como premissa retratar o atual momento do processo e não o processo idealizado.

c – Avalie o fluxo de valor atual

Nesta avaliação, algumas perguntas básicas deverão ser respondidas. São elas:

  • Esta etapa do processo agrega valor ao cliente?
    • levantar quais processos de fabricação, medidas e tratamentos que agregam valor
  • Quais desperdícios estão sendo gerados?
  • Quanto e quais recursos estão sendo utilizados?
  • Qual é o tempo de espera entre os processos de fabricação?
  • Como posso eliminar ou reduzir os gargalos dentro do processo?
  • Como podemos implementar mudanças?
d – Crie o estado futuro do mapa do fluxo de valor

Agora que existe uma melhor compreensão do estado atual, estamos prontos para projetar como gostaríamos que fosse o processo. Normalmente, o objetivo é fazer o produto fluir melhor reduzindo a quantidade de inventário ou de espera entre etapas. Esta fase é onde deve-se imaginar e se esforçar para criar a imagem de como seria o fluxo ideal de trabalho. Novamente a participação de toda a equipe é fundamental.

e – Crie o plano de ação

Visto que todos sabem de que forma os processos estão funcionando hoje e como gostariam que ele fosse no futuro, é hora de formatar um plano de ação. Há uma grande variedade de modelos disponíveis para isto. Podem ser utilizadas as ferramentas Kaizen, Pensamento A3, 5Ws, DMAIC. Enfim, o intuito nesta fase é fazer com que a equipe entenda exatamente quais as ações importantes e o momento em que elas devem acontecer para que haja um movimento do estado atual para o estado desejado.

4 – Mapeamento do Fluxo de Valor (VSM) – Exemplo prático:

Vamos analisar um exemplo prático de indústria de manufatura onde o produto é acessórios de metal para portas e janelas. A fábrica é composta por 5 processos produtivos denominados: fundição, usinagem, polimento, pintura e montagem. A empresa também possui um sistema integrado de PCP (Planejamento e Controle da Produção) que gerencia todo o processo produtivo. Vejamos na Figura 2 abaixo como o VSM foi representado para este produto:

VSM - fluxo de valor

Figura 2 – Exemplo de um mapeamento do fluxo de valor para indústria de acessórios de metal

Visualizando a Figura 2, podemos entender como funciona o processo de produção de acessórios de metal para portas e janelas. Veja abaixo algumas conclusões:

  1. Existe uma cadeia de fornecedores de matéria-prima que realizam suas entregas via transporte rodoviário. Entre o pedido e o recebimento da matéria-prima, leva-se 1 dia (24h representados na linha do tempo) para que a entrega seja realiza;
  2. Quando a matéria prima chega, ela vai direto para a Fundição. Neste setor, temos 3 operadores trabalhando. O tempo de trabalho necessário para que o produto fique fundido (OCT) é de 24 horas. Existe ainda um  tempo de set-up (tempo de valor não agregado necessário para converter uma configuração de uma linha de produto para outra linha) de 1hora. Sabe-se também que o OEE (Overall Equipment Effectiveness), que representa o produto dos indicadores de disponibilidade x performance x qualidade é de 0,8;
  3. Após sair da Fundição, o produto possui um tempo de processo que não agrega valor de 12 horas devido a resfriamento (necessário para manter a qualidade), transporte interno e inspeção. Somente após este tempo, ele está pronto para ser usinado. Na Usinagem, tem-se 4 operadores realizando um trabalho de 2 horas(OCT) com tempo de set-up de 10 minutos e OEE de 0,6;
  4. Após sair da usinagem, novamente o produto possui um tempo de processo que não agrega valor de 1 hora (tempo de transporte de um setor ao outro. Após este tempo, ele segue para o Polimento. No Polimento, por sua vez temos 2 operadores realizando um trabalho de 2 horas(OCT) com tempo de set-up de 20 minutos e OEE de 0,6.
  5. Antes do produto chegar na Pintura, ele possui 1 hora de tempo não agregado referente a transporte interno. Uma vez na Pintura, 1 operador  realiza a pintura dispendendo um tempo de 3 horas(OCT), com set-up de 10 minutos e OEE de 0,8. Após a pintura, o produto tem que secar por um período de 8 horas para manter a qualidade (tempo de valor não agregado, porém necessário);
  6. Finalmente, na Montagem, o produto é montado e embalado. Neste setor, 3 operadores gastam um tempo de 5 horas(OCT) com set-up de 10 minutos e OEE de 0,7.
  7. Com o produto pronto, é hora de entregar aos clientes. O transporte é terrestre rodoviário e gasta-se 2 dias para ser entregue ao cliente final;
  8. O cliente por sua vez, responde questões de pesquisa de satisfação e envia informações eletronicamente para um sistema gerencial da empresa (representado por uma seta em forma de raio no mapa). Estas informações são reunidas com informações de pesquisa de mercado que alimenta todo o sistema.
  9. O PCP (Planejamento e controle da Produção) por sua vez, baseando-se nas informações de mercado, elabora o planejamento anual de produção que informa aos seus fornecedores a demanda prevista;

O setor de PCP, responsável pelo gerenciamento de toda a produção, possui um sistema informatizado que emite ordens de produção diárias e semanais (setas em formato de raio no mapa). Somando-se os tempos de valor agregado e não agregado, podemos obter o tempo que o produto leva para ser produzido, o famoso Lead Time (tempo de processamento de um pedido, desde o momento que é colocado na empresa até o momento em que o produto é entregue). Neste exemplo ele foi calculado com base na linha do tempo (região inferior do mapa), nos fornecendo um tempo total de 129 horas. Pela linha do tempo também obtemos o valor total agregado (em tempo) que o produto possui. Somando as “regiões de vale” da linha do tempo, obtemos um V/A de 35 horas.

No mapa foram utilizados vários termos e símbolos. Na Figura 3 abaixo é possível visualizar alguns símbolos bastante aplicados na elaboração do VSM e seus significados:

simbolos fluxo de valor

Figura 3 – Símbolos utilizados na elaboração de um mapa de fluxo de valor.

Além dos símbolos, existem vários termos também utilizados na elaboração do mapa. Podemos visualizar estes termos na tabela abaixo:

tabela

Toda a análise que foi feita no exemplo representa o estado atual dos processos e não o estado desejado. Entendendo o estado desejado é possível enxergar falhas e detectar pontos de melhorias. Vamos listar alguns pontos de análise neste exemplo:

  1. Na Fundição, gasta-se muito tempo para produzir (OCT). É possível reduzir este tempo? Podemos envolver menos operadores ou gastar menos tempo de set-up?
  2. As linhas de Usinagem e Polimento possuem um OEE muito baixo (0,6 e 0,5). Qual o motivo? O que está impactando mais? Será a disponibilidade, a performance ou a qualidade? Como podemos melhorar este indicador? é possível aplicar automação industrial para melhorar os apontamentos?
  3. Os tempos gastos para o transporte interno entre Usinagem e Polimento e entre Polimento e Pintura são muito altos. É possível reduzi-los? Como fazer isto? Podemos melhorar o layout da planta? Podemos implantar um Kanban? É possível aplicar o JIT (Just-in-time)? e o Kaizen?
  4. Na Montagem, o tempo para produzir (OCT) é muito alto. É possível reduzir este tempo? Se colocarmos mais operadores, o tempo diminui? Se sim, qual o impacto no Lead Time? Vai melhorar a produtividade? Qual o impacto financeiro?
  5. Os processos que não agregam valor, mas são necessários devido a qualidade (resfriamento na Fundição e secagem na Pintura) podem ser melhorados? Podemos aplicar alguma tecnologia que mantém a qualidade e reduz este tempo, melhorando o Lead Time?
  6. A entrega do produto final ao cliente demora 2 dias e é realizada via transporte rodoviário. Podemos melhorar este prazo de entrega? Como? O transporte rodoviário é a melhor alternativa?
  7. O PCP pode melhorar a programação? Tem que ser semanal na Fundição? Por que ela é diária nos outros setores?

Veja que em um simples exemplo, foi possível levantarmos várias questões que por sua vez, podem alimentar um bom plano de ação. Lembre-se: temos o estado atuado, visualizamos o estado desejado e então deselvolvermos as ações para buscar o estado desejado.

5 – Principais vantagens de realizar o mapeamento de fluxo de valor

Como percebemos, as vantagens são muitas em realizar o mapeamento e análise de fluxo de valor. Podemos citar algumas:

  • Possibilita a visualização macro e individual dos processos (eficiência individual e eficiência sistêmica);
  • É a base para o plano de implantação do Lean Manufacturing;
  • Contribui para identificar fontes de desperdícios;
  • Facilita na tomada de decisões;
  • Possibilita visualizar a relação entre o fluxo de informação e fluxo de material.

Por fim, os efeitos dos processos derivados da criação de um fluxo de valor podem ser percebidos na redução do tempo da produção, menor desperdício de materiais, na diminuição dos estoques e na qualidade da produção. É importante que todos aqueles que fazem parte da cadeia de fluxo de valor entendam o processo como um todo e possam juntos criar alternativas para aumentar o valor do fluxo.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti

Planilhas para o desenvolvimento de processos

Desenvolvidas pelo William, do Projeto Qualidade, essas planilhas são um conjunto de indicadores de desempenho para ajudar a monitorar seu processo. Trata-se de um pacote com nove planilhas em Excel 2007 ou superior que, ao comprar, serão enviadas para o seu e-mail já desbloqueadas para usar e podendo fazer qualquer modificação que desejar e precisar. Os envios são realizados sempre após às 17h30 já tendo a confirmação do pagamento.

- Conjunto de 4 Cartas de CEP por atributo;
– Planejamento Mensal de Atividades – Diagrama de Gantt;
– Planilha – Controle de Instrumentos – Requisito 7.6 NBR ISO 9001/2008;
– Dashboard 2 – Avaliação de Fornecedores;
– Dashboard 1 – Estatísticas da Qualidade – índice porcentagem;
– Dashboard 5 – Indicador Mensal da Produção.

As planilhas:

Conjunto de 4 Cartas de CEP por atributo

Desenvolvendo algo voltado às estatísticas do processo, foi elaborado um conjunto de cartas utilizando meu material de CEP da Estatcamp que ajudam muito a dissolver problemas de defeitos em produtos na empresa. Muitas características da qualidade não podem ser expressas em termos de valores numéricos. Por exemplo, dizer se uma peça é ou não defeituosa. Características deste tipo são denominadas atributos. Este tipo de gráfico é usado quando o controle se dá por número de defeitos. As amostras são coletadas observando-se uma frequência, examinando-se toda a amostra em busca de defeitos. No caso de serviços, os dados importantes são os números de reclamações ou devoluções, por unidade de serviço. As Cartas de atributo podem ser de 4 tipos: Carta C ; Carta U ; Carta NP e Carta P.

Existem quatro tipos de carta de atributos:
a) carta p para fração de não-conformes (as amostras podem ser de tamanhos diferentes);
b) carta np para número de unidades não-conformes (as amostras devem ter o mesmo tamanho);
c) carta c para número de não-conformidades (as amostras devem ser do mesmo tamanho);
d) carta u para número de não-conformidades por unidade (as amostras podem ser de tamanhos diferentes)

Custo das 4 planilhas R$ 45,00

Planejamento Mensal de Atividades – Diagrama de Gantt

Trabalhando um pouco em uma planilha de planejamento, essa auxilia no cronograma de suas atividades. A planilha está de início focada em clientes, mas pode ser utilizada sem problemas com fornecedores ou internamente. Que informações você colocará no diagrama?

- Nome dos clientes;
– Atividades a serem desenvolvidas;
– Data de início e fim das atividades

Com estas informações, o diagrama de cor será automaticamente preenchido de acordo com a data de início e fim das atividades.

Custo da planilha R$ 30,00

Planilha – Controle de Instrumentos – Requisito 7.6 NBR ISO 9001/2008

Essa matriz auxilia no controle e monitoramentos dos instrumentos de medição, conforme o requisito 7.6 da NBR ISO 9001/2008. Quais informações disponíveis nesta planilha?

- Código do Instrumento;
– Descrição do Instrumento;
– Faixa de Medição;
– Resolução;
– Unidade de Medida;
– Setor que se encontra;
– Usuário;
– Data Calibrada;
– Data próxima calibração;
– Quantos dias faltam para vencer a calibração.

Custo da planilha R$ 30,00

Dashboard 2 – Avaliação de Fornecedores

Mais um indicador bem completo para todos. Desta vez, é um indicador para monitoramento da performance dos fornecedores da empresa. Este indicador é perfeito para empresas que são certificadas com a ISO TS 16949, ou para as que querem ter um monitoramento mais efetivo, pois trabalha com índices bem completos para monitoramento. Quais índices são monitorados nesta Dashboard?

- Índice de Qualidade do Produto
– Índice de Qualidade de Entrega
– Paradas de linha no cliente
– Índice de Qualidade do Sistema
– Índice de Qualidade de Assistência
– PPM
– Índice de Qualidade do Fornecedor, etc.

A planilha onde ficam os gráficos está pré-configurada no formato A3 para que possam ser agrupados todos os gráficos, sem que ficassem difíceis de visualizar devido ao tamanho da fonte.

Custo da planilha R$ 30,00

Dashboard 1 – Estatísticas da Qualidade – Índice de Refugos em Porcentagem

Diferente da outra planilha igual a esta que está a venda, essa foi editada para que o índice de refugos não seja em PPM (usado na indústria automotiva) e sim em porcentagem facilitando para quem é fora da área automotiva, já tendo a planilha adaptada. Esta Dashboard é muito boa para ser usada como indicador de Índice de Refugos e CNQ (custo da não qualidade). Ela é bem interessante, pois mostrará seus gráficos mês a mês por uma barra de rolagem utilizando a mesma planilha. Além do gráfico de CNQ e Índice de Refugos mensal (no canto esquerdo da imagem) também mostrará os top 15 CNQ e Índice de Refugos em curva ABC junto com seus valores (ao centro da imagem) e no canto direito terá o histórico mês a mês dos resultados. Na parte superior terá a informação da média de Índice de Refugos do mês, o total de CNQ do mês, a meta do Índice de Refugos, o Índice de Refugos acumulado e o CNQ acumulado. A Dashboard já vem programada para controle de 300 itens.

Custo da planilha R$ 35,00

Dashboard 5 – Indicador Mensal da Produção

Esse produto é um indicador de desempenho da produção. Quais índices são monitorados nesta Dashboroard? Ao todo são controlado 4 índices e são eles:

Interno

- Desempenho diário (Mostra graficamente dia após dia);
– Produção total por turno;
– Porcentagem de cada turno em relação a produção total
– Eficiência mensal dos turnos

Essa planilha funciona na versão 2007 do office devido à configuração empregada.

Custo da planilha R$ 35,00

Pacote de planilhas

- Conjunto de 4 Cartas de CEP por atributo;
– Planejamento Mensal de Atividades – Diagrama de Gantt;
– Planilha – Controle de Instrumentos – Requisito 7.6 NBR ISO 9001/2008;
– Dashboard 2 – Avaliação de Fornecedores;
– Dashboard 1 – Estatísticas da Qualidade – índice porcentagem;
– Dashboard 5 – Indicador Mensal da Produção.

O valor deste conjunto é R$ 205,00, com desconto de 15%: R$ 174,00.

Para comprar: pague pelo PagSeguro (https://pagseguro.uol.com.br/) na conta de hayrton@uol.com.br

Envie o seu e-mail e a planilha comprada para hayrton@uol.com.br

Depois da confirmação do pagamento, o produto será enviado para o seu e-mail.

Cp e Cpk – Índices de Capacidade de um processo

Nova NR 10 – Segurança no Sistema Elétrico de Potência (SEP) e em suas proximidades – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 554,02 (56% de desconto)

Inspetor de Conformidade das Instalações Elétricas de Baixa Tensão de acordo com a NBR 5410 – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 320,57 (56% de desconto)

Interpretação e Aplicações da Norma Regulamentadora Nº 13 (NR-13) do MTE (Inspeção de Segurança de Caldeiras e Vasos de Pressão) – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Instalações Elétricas em Atmosferas Explosivas – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Cristiano Bertulucci Silveira

A capacidade de um processo pode ser definida como sendo a capacidade inerente de um processo para a produção de peças idênticas, por um longo período de tempo sob um determinado conjunto de condições. Ela objetiva demonstrar se  um processo de fabricação específico é ou não viável e sustentável. É a partir desta avaliação rigorosa que um fabricante pode analisar todas as características do produto e então, decidir se quer continuar com a produção, alterar especificações ou cancelar o projeto. Avaliar a capacidade de um processo é bastante importante, uma vez que permite quantificar a forma de como um processo pode produzir produtos aceitáveis. Como resultado, os gerentes e engenheiros de uma fábrica podem priorizar melhorias necessárias e identificar os processos que não precisam de atenção imediata.

Avaliação da Capacidade do Processo

A avaliação da capacidade de um processo é realizada através de uma estrutura chamada de análise de capacidade do processo (ACP).  A ACP pode ser definida como um método de melhoria em que uma característica do produto é medida e analisada objetivando determinar a capacidade do processo que satisfaça as especificações para a característica em estudo. Embora a capacidade possa ser avaliada através de várias medidas e métodos, tais como tolerância percentual consumida por capacidade ou a partir de um gráfico de controle ou análise de histograma, a maneira mais comum de fazer isso é através dos índices de capacidades (IC). ICs são medidas específicas que comparam a saída do processo real com os limites de especificação para uma determinada característica. Em outras palavras, eles mostram a capacidade de um processo para satisfazer as suas necessidades por meio de um estudo numérico padrão. Entre os ICs existentes, os mais populares são o Cp (capacidade de processo) e Cpk (índice de capacidade de processo).

Medição do Cp e Cpk

O Cp e Cpk são índices que  apontam se o processo está fabricando produtos dentro de uma faixa de especificação e assim indicam se a produtividade está o suficientemente aceitável. Estes índices são muito importantes na fase do desenvolvimento de produto, pois nesta fase inicial, a análise do histórico dos índices de capacidade de peças similares podem permitir que sejam escolhidos processos e especificações coerentes que sejam eficazes estatisticamente. Adicionalmente, eles também se fazem importantes durante a homologação do processo, pois podem revelar processos problemáticos antes da entrada de produtos na linha de produção.

Para fazer o estudo de capacidade e performance, é necessário medir e identificar as diferentes fontes de variabilidade do processo, ou seja, é necessário que o processo esteja sob controle estatístico de processo. Os conceitos de estatística deverão ser utilizados para separar os efeitos da variabilidade das chamadas “Causas Comuns” (inerentes ao processo)   das “Causas Especiais” (derivadas de variáveis específicas e controláveis).

Cálculo do Cp e Cpk

Para calcular os índices, é necessário que primeiro seja definida uma característica a ser medida. Após isto, é necessários colher amostras de medições desta característica. Por exemplo, para uma linha de produção de latas, podemos definir uma característica medida como sendo o diâmetro da lata. Sendo assim, adotamos limites inferiores e superiores para o diâmetro da lata que devem ser cumpridos para que não tenhamos produtos fora de especificação. Seria algo do tipo: o diâmetro não pode ser menor do que 40mm e maior do que 42mm. Com o LSE e LSI definidos, basta agora colher amostras de medições e calcular os índices Cp e Cpk.

O Cp foi o primeiro índice proposto na literatura e é utilizado para avaliar a largura da amplitude do processo em comparação com a largura da especificação. Ele pode ser calculado utilizando a seguinte fórmula:

CP = cp

sendo:

  • LSE: Limite Superior de Especificação
  • LIE: Limite Inferior de Especificação
  • σ : Desvio-padrão calculado a partir da amostragem de medições.

Simplificando, quanto maior for o índice Cp, menor a probabilidade da característica de qualidade medida  estar fora das especificações, o que indica que haveriam menos produtos defeituosos durante o processo produtivo. Na tabela 1, é possível visualizarmos a relação entre o valor de Cp, a quantidade de produto defeituoso e quais as ações corretivas normalmente adotadas.

Tabela 1 – Relação entre o índice CP e a porcentagem de produtos defeituosos
 Valor de CP Produto Fora da Especificação Ação típica adotada
  <1.0  >=5 % Aumento de controle de processo, triagem, retrabalho, etc.
 1.0  0.3 % Aumento de controle de processo, inspeção.
 1.33  64 ppm Inspeção reduzida e utilização de cartas de controle.
 1.63  1 ppm Verificação pontual e utilização de cartas de controle.

 

Como explicado, o Cp é muito importante para que seja avaliada a largura da amostragem com relação à faixa dos limites de especificação, mas uma limitação deste índice é que ele só incide sobre a dispersão do processo estudado, não considerando a centragem do referido processo. O índice Cp apenas considera a variabilidade do processo (σ). Com o intuito de analisar o processo considerando-se a centragem das amostragens, criou-se o índice Cpk. O Cpk foi criado em 1986 com o objetivo de medir a distância entre o limite de especificação mais próxima do valor esperado a partir da característica de qualidade estudada, de modo a relacionar a metade desta distância da amplitude do processo natural, 3σ. De um ponto de vista prático, o índice Cpk é mais avançado do que o Cp, porque pode ser utilizado para medir as características de qualidade, onde apenas um limite de especificação é importante. Este índice é obtido a partir da fórmula seguinte:

CPK =   cpk

sendo:

  • LSE – Limite Superior de Especificação
  • LIE -Limite Inferior de Especificação
  • Χ – Mediana da característica medida
  • σ – Desvio-padrão calculado a partir da amostragem de medições.

Na prática, quanto maior for o índice Cpk, menor será a probabilidade da característica de qualidade medida estar fora de especificação, o que também significa que a curva gaussiana (traço mais fino em vermelho que delimita o histograma da Figura 1 abaixo) mantém uma posição aceitável de centragem no que diz respeito aos limites. Por outro lado, o aumento do valor do Cpk pode exigir uma alteração na média do processo, no desvio padrão, ou em ambos. É importante ressaltar que em alguns processos pode ser mais fácil aumentar o valor de Cpk, alterando o valor médio, talvez através de um simples ajuste do objetivo do processo, do que reduzir o desvio padrão investigando as muitas causas da variabilidade. Na Figura 1, é possível visualizar de forma gráfica alguns cenários para os índices Cp e Cpk e a denominação para o processo quando analisados nestes cenários.

índices de capacidade de processo cp e cpk

Figura 1 – índices de capacidade de processo Cp e Cpk

Como é possível verificar, a razão para que um cliente possa necessitar saber qual o Cp ou Cpk do processo de um fornecedor é simples: na prática ele deseja conhecer a probabilidade de ele adquirir produtos fora da especificação. Como vimos, se o índice Cpk de um processo for menor que 1, é provável que o cliente deseje outro fornecedor pois as especificações não estão sendo cumpridas com certa frequência. O ideal é que o Cpk seja maior que 1 sendo que tipicamente é desejado o valor de 1,33 que significa 64 ppm de produtos fora de especificação.

Além do benefício de fidelizar um cliente com a utilização e o aprimoramento destes índices de performance, constata-se que eles refletem diretamente em outro indicador bastante utilizado na indústria, o OEE (Overall equipment effectiveness). Isto porque um bom valor de Cp e Cpk impactam diretamente no fator de qualidade do produto que é utilizado no cálculo do OEE.

Os softwares para controle estatístico de processo (CEP) podem ser uma ferramenta muito útil para a análise do processo. Atualmente, é fácil encontrar estas ferramentas que são capazes de analisar processos em tempo real, permitindo aos operadores e gerentes a rápida tomada de decisões de forma a impedir a produção de peças ruins. Usando softwares de CEP em tempo real é possível tomar medidas preventivas de forma a garantir que tudo esteja no controle. Obviamente, quando o processo permanece sob controle e os parâmetros estão dentro das especificações do cliente, então é possível colher os benefícios do CEP.

Com o custo da má qualidade como uma métrica visível nas empresas, que não desejam ter custos de falhas internas,  os softwares CEP podem atuar na prevenção de sucatas, retrabalhos e outros custos de qualidade interno. Estas ferramentas impedem custos externos de qualidade, tais como devoluções, garantia. Há ainda uma questão fundamental que cada empresa deve fazer: “Quantas peças ruins são produzidas antes que possamos saber que peças ruims estão sendo produzidas? “Esta é a razão pela qual uma ferramenta de análise em tempo real pode ajudar muito na redução de custos.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti

Cartas de Controle

Cristiano Bertulucci Silveira

Dentre as sete ferramentas da qualidade, a carta de controle é sem dúvida a mais utilizada nas empresas e indústrias. Nenhuma outra ferramenta capta melhor as informações de um processo como esta. A carta de controle é utilizada ​​para determinar se o processo está operando em controle estatístico e basicamente é representada por um gráfico em execução que inclui estatisticamente limites de controle superior e inferior. Neste artigo, será apresentado como as cartas de controle podem contribuir para aperfeiçoar o processo de fabricação e assim aumentar a competitividade da sua empresa.

O que é e para que serve a carta de controle?

Controle estatístico de processo | Carta Controle

Figura 1 – Controle estatístico de processo | Automação Industrial

O objetivo de uma carta de controle é detectar quaisquer alterações indesejadas em um processo, sendo que quando ocorrerem mudanças, estas serão sinalizadas por pontos anormais em um gráfico.

Para obter informações de um processo, primeiramente é necessário entender os conceitos de população e amostras, que podem ser definidos da seguinte forma:

  • População: lote de produtos/serviços ou período de tempo que se quer analisar.
  • Amostra: quantidade de valores observados pertencentes ou representativos de uma população.

amostra-estatistica-controle-populacao

Figura 2 – Conceito de amostra e população

Na Figura acima é possível observar bem a definição de população e amostra. Quando é desejado mensurar as características de uma determinada população, podemos fazê-la medindo as características de cada indivíduo que compõe esta população e com base nas informações obtidas, entender como ela é delineada. No entanto, na maioria das vezes, a população é muito grande e medir cada indivíduo que a compõe torna-se oneroso e em alguns casos praticamente impossível. Imagine por exemplo entrevistar todos os 140 milhões de eleitores brasileiros para sabermos quem será o novo ganhador de uma disputa pela presidência. Por este motivo, surgiram ferramentas, como a estatística, que são capazes de tratar informações coletadas de amostragens e subsidiar conclusões sobre uma população com uma precisão tão próxima quanto se fossem estudados cada indivíduo da população.

A partir dos conceitos acima, foi possível aplicar a ferramenta estatística na indústria, com o objetivo de estudar melhor os produtos e ocorrências de não conformidades nos processos de fabricação. E ainda, o criador das cartas de controle, Dr. Shewhart, demonstrou que se fossem definidos limites superiores e inferiores a três vezes o desvio padrão (mais e menos, respectivamente) de uma quantidade de amostras, estaríamos garantindo que 99,73% da variação de causas comuns cairiam dentro desses limites estabelecendo então a definição de controle no processo. Pode-se dizer portanto que um processo está em controle estatístico quando as medições do processo variarem aleatoriamente dentro dos limites de controle.

Importante ressaltar que os limites superiores e inferiores não são o mesmo que tolerância ou limite de especificação. Nas suas definições, limites de controle são uma função da forma de como o processo realmente se comporta ao longo do tempo. Por outro lado, limites de especificação ou tolerância são uma função que diz respeito ao projeto do processo para que ele desempenhe algo e não necessariamente tem qualquer relação direta com o desempenho real do mesmo.

Como utilizar as cartas de controle

Primeiro, é importante determinar o que será controlado (diâmetro de um cilindro, altura de uma haste, etc.). Após isto, é necessário definir o tamanho da amostra que será coletada e de quanto em quanto tempo serão realizadas as amostragens (1 hora, 1 dia, 1 semana, etc). Por último, basta definir o limite superior e o limite inferior da carta controle.

a – Escolha do tipo de carta

Devemos determinar qual o tipo de carta de controle deverá ser utilizada. As cartas de controle podem conter dois tipos de dados: dados variáveis ou dados tipo atributos. Em geral, se for desejado utilizar dados variáveis, é necessário adotar medidas em unidades, tais como comprimento, temperatura, etc. Por outro lado, os dados do tipo atributos exigem uma decisão: “passa/não passa”, “aceitável/não aceitável”, “conforme/não conforme”, “sucesso/insucesso”.

Caso os dados forem do tipo atributo, é necessário ainda decidir se os dados são defeitos ou defeituosos. Basicamente o defeito é um subconjunto de defeituoso. Um defeito não significa necessariamente que o produto ou serviço seja defeituoso. A título de exemplo, vamos considerar uma haste cilíndrica como um produto final. Os defeitos possíveis são: quebra, dureza, tolerância dimensional, etc. Neste caso, uma haste defeituosa poderá ter um ou mais defeitos e o fato da haste conter defeitos não necessariamente caracteriza ela como defeituosa, pois o produto será considerado defeituoso somente quando ele possuir defeitos que não são tolerados pelo cliente.

Com os conceitos claros, podemos utilizar o fluxograma abaixo para definir a carta de controle mais adequada para cada situação.

fluxograma-decisao-carta-de-controle-estatistico-processo

Figura 3 – Fluxograma para decisao sobre a utilização do tipo de carta de controle.

b – construção da carta

Neste artigo iremos construir dois tipos de cartas, ambas por variáveis para exemplificar como funcionam. Para a construção das cartas de controle por variáveis, a análise deve ser feita aos pares, observando a centralização e a dispersão. Sendo assim, dois gráficos são construídos para cada tipo:

  • Gráfico de média e o de desvio padrão (X – S)
  • Gráfico de média e o de amplitude (X – R)

Abaixo na figura pode ser observado um resumo passo a passo de como construir uma carta de controle.

formulas-tipos-carta-controle

Figura 4 – Fórmulas aplicáveis à carta de controle por variável.

Os passos para a construção podem ser descritos da seguinte forma:

1 – Coleta dos dados: Nesta etapa são definidos o tamanho adotado para as amostras, que deverá ser constante, bem como a quantidade de amostras e a frequência de amostragem. A frequência de amostragem dependerá da quantidade de produtos defeituosos. Se houver bastante incidência de produtos defeituosos, a frequência deverá ser maior (de hora em hora, etc.). Por outro lado, se forem poucos defeituosos, a frequência poderá ser menor, com intervalos maiores. Costuma-se adotar também uma relação entre a quantidade de amostras (k) com o tamanho da amostra (n), sendo k*n > 100.
2 – Cálculo das médias das amostras. A título de exemplo, vamos pegar uma quantidade pequena de amostras para demonstrar como fazer este cálculo. Ex.: Supondo uma medição do diâmetro de uma haste em 1 dia, onde tem-se 6 amostras, contendo 5 itens, coletadas de 4 em 4 horas, temos: A1 (32,30,31,34,32), A2 (30,33,32,31,31), A3 (34,32,31,33,30), A4 (29,33,32,30,31), A5 (30,33,29,31,33), A6 (33,30,32,31,30). A média da primeira amostragem será: X1 = (32+30+31+34+32)/5 = 31.8. Portanto teremos: X1=31.8, X2=31.4, X3=32, X4=31, X5=31.2 e X6=31.2.
3 – Cálculo da média do processo. Para o nosso exemplo, esta média será: X = (X1 + X2 + X3 + X4 + X5 + X6)/6 = 31.43.
4 – A partir da quarta etapa, os tipos de carta já se diferenciam, partindo para o cálculo do desvio padrão de cada item da amostra (X-S) ou amplitude (X-R). No nosso exemplo, o tamanho da amostra (n) = 5. Sendo assim, o ideal seria utilizar a carta de amplitude (X-R), porém vamos obter as duas cartas para exemplificar as diferenças entre um e outro.

tabela-desvio-padrao-amplitude

Figura 5- Tabela com os cálculos do exemplo

5 – Agora, com os valores obtidos para cada amostra, o desvio padrão médio e a amplitude média deverão ser calculados. Utilizando as fórmula do item 5 da Figura x, tem-se: s=(1,48+1,14+1,58+1,82+1,91+1,47)/6 = 1,56 e r=(4+3+4+4+4+3)/6=3,66.

6 – No sexto passo, vamos obter os limites de controle para as cartas de média. A partir daqui é necessário utilizar uma tabela contendo as constantes (A2, A3, B3, B4, D3, D4), conforme Figura abaixo:

tabela-constantes

Figura 6 – Tabela com constantes aplicáveis nas fórmulas da Figura 4

Com a tabela de constantes e as fórmulas descritas no passo 6 da Figura 4, podemos obter os valores para média utilizando a tabela da Figura 6. Teremos então:

  • Média (X-S)          LSC=31,43+1,427*1,56=33,656;      LIC=31,43-1,427*1,56=29,20;
  • Média (X-R)         LSC=31,43+0,577*3,66=33,542;      LIC=31,43-0,577*3,66=29,32;

7 – No sétimo passo, finalmente serão calculados os limites de controle para as cartas de desvio padrão e amplitude:

  • Desvio Padrão (X-S) LSC=2,089*1,56 = 3,259;                   LIC=0*1,56=0;
  • Amplitude (X-R) LSC=3,66*2,114 = 7,737;                    LIC=3,66*0=0;

8 – Finalmente, agora é necessário desenhar os gráficos.

grafico-media-desvio-padrao-amplitude

Figura 7 – Gráficos obtidos para média, desvio-padrão e amplitude.

c – identificação e eliminação de quaisquer causas especiais ou atribuíveis de variação

Para determinar se existem causas de variação em um processo utilizando a carta de controle, é muito importante observar sete “sinais” ou regras básicas que demonstram variabilidade neste processo. A probabilidade de alguns destes sete eventos ocorrerem aleatoriamente é muito pequena. Este é o motivo pelo qual estes sinais indicam alguma mudança no processo.

As sete regras são:

  1. Um ou mais pontos fora dos limites de controle;
  2. Sete ou mais pontos consecutivos acima ou abaixo da linha central
  3. Seis pontos consecutivos em linha ascendente ou descendente continuamente;
  4. Quatorze pontos consecutivos alternando acima e abaixo;
  5. 3 pontos consecutivos sendo 2 deles do mesmo lado em relação a linha central e fora de 2/3 em relação à linha central;
  6. Quinze ou mais pontos consecutivos contidos em um intervalo de 1/3 em relação à média;
  7. 8 pontos em ambos os lados da região central com nenhum deles dentro do limite de 1/3 em relação à linha central

Elas podem ser visualizadas na figura abaixo:

regras-controle-estatistico-processo

Figura 8 – Regras aplicadas ao Controle Estatistico de Processo

d – Redução da variabilidade global

Após eliminar todas as causas especiais, é importante trabalhar no sentido de reduzir as variabilidades que restam no processo. Isto requer, usualmente, mudanças fundamentais no processo, sendo que estas mudanças, na maioria das vezes requerem uma assistência gerencial. Para atingir um processo de melhoria contínua, é essencial reduzir a variabilidade.

Vantagens de utilizar cartas de controle

  • Conhecer as causas raízes dos problemas ocorridos no processo;
  • Registro formal das ocorrências, podendo ser utilizado como histórico posterior;
  • Registra o esforço aplicado pela equipe para controlar o processo;
  • As cartas de controle colaboram para aperfeiçoar o processo;
  • Fornece aos operadores um controle para o processo;
  • Melhoria na qualidade, custo por unidade e eficiência.

Um ponto importante que deve ser observado é com relação a utilização cada vez mais frequente de softwares para controle estatístico de processo na indústria. Estes sistemas possibilitam agilidade na realização de análises e tomada de decisões fornecendo um alto nível de qualidade nos processos. Facilitam ainda a coleta e análise das informações, que podem ser realizadas em um sistema centralizado. Por isto é sempre importante analisar a possibilidade da automatização e os ganhos que poderão ser alcançados com tais ferramentas.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti

Dorian Shainin: uma abordagem profissional para a resolução de problemas

PRÓXIMOS CURSOS TARGET (Clique no curso para mais informações e fazer a sua inscrição)

Armazenamento de Líquidos Inflamáveis e Combustíveis – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Instalações Elétricas em Atmosferas Explosivas – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Ferramentas MASP – Metodologia de Análise e Solução de Problemas – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Sistemas de Gestão Ambiental – A Transição para a Sustentabilidade – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

ShaininDorian Shainin trabalhou mais de 60 anos para melhorar a abordagem profissional para resolver problemas industriais. Ele é mais conhecido por suas técnicas Shainin, ferramentas práticas que ele desenvolveu para ajudar os fabricantes de resolver problemas, incluindo problemas que tinham sido considerados insolúveis. As técnicas de Shainin são delineamentos de experimentos muito úteis na investigação de causas raízes de efeitos estudados. Dentre as diversas técnicas, destaca-se o Components Search na determinação de uma causa raiz quando há inúmeros componentes potenciais do efeito observado. A técnica consiste em listar todos os componentes que podem influencia a ocorrência de um determinado efeito para, então, testar a influencia de cada um deles isoladamente, ou então a influencia de mais de um deles simultaneamente (interação de fatores). Os testes de Components Search são experimentos práticos de desempenho realizado com pelo menos cinco pares de produtos, cujos efeitos observados entre cada par sejam opostos e com a máxima intensidade possível. Assim, um dos produtos do par é nomeado como BOB (best of best), enquanto que o outro é considerado WOW (worst of worst). O primeiro deve apresentar um efeito favorável máximo (melhor produto), enquanto que o segundo deve apresentar um efeito desfavorável na máxima intensidade possível (pior produto).

Para verificar a influencia de um ou mais fatores no efeito estudado, deve-se inverter o (s) mesmo (s) fator (es) entre os pares BOB e WOW e testá- los para medir o efeito. Se os efeitos dos produtos também forem invertidos, significa que o(s) parâmetro(s) em teste interfere(m) no efeito estudado e, portanto, podem ser considerados causa raiz do problema. Se os produtos BOB e WOW continuarem a apresentar os mesmos efeitos de quando antes da troca de componentes, significa que o (s) componente (s) não são capaz (es) de alterar o efeito observado no produto. Neste caso, deve-se repetir o procedimento para todos os outros componentes listados inicialmente.

Desta forma, é possível eliminar uma série de componentes potenciais do efeito em análise, reduzindo-se bastante o universo de componentes e características dos mesmos a serem medidas e avaliadas. Portanto, essa técnica é usada principalmente em casos em que se deseja reduzir o número de variáveis potenciais da causa de um problema. Após uma exaustiva e cuidadosa análise da (s) causa (s) raiz, deve-se quantificar as oportunidades de melhoria encontradas. Portanto, deve-se quantificar as diferenças de desempenho do processo atual e o desempenho esperado do processo após uma melhoria. A partir daí, projeções superficiais de ganhos financeiros podem ser calculadas e avaliadas.

Através de seu trabalho com mais de 900 organizações, Shainin desenvolveu uma disciplina chamada de engenharia estatística. Ele se especializou em criar estratégias que permitam aos engenheiros “conversar com as partes” e resolver “insolúveis” problemas. A disciplina tem sido usada com sucesso para o desenvolvimento de produtos, melhoria de qualidade, problema de análise de problemas, redução de custos de fabricação, a confiabilidade do produto, a prevenção de responsabilidade do produto, e pesquisa e desenvolvimento.

Depois de ganhar uma licenciatura em engenharia aeronáutica pelo Massachusetts Institute of Technology em 1936, Shainin foi empregado pela United Aircraft Corp (agora United Technologies Corp) como engenheiro e mais tarde foi responsável pelo controle de qualidade da empresa. Depois de 16 anos, tornou-se consultor de gestãoi na Rath e Strong. De 1950 a 1983, Shainin estava na faculdade da Universidade de Connecticut, onde ele conduziu o programa de educação continuada para trabalhadores industriais. Em um de seus seminários, os diretores médicos de dois hospitais de Connecticut o convenceram a trabalhar em alguns dos seus problemas críticos. Como resultado, o Hospital Infantil Newington (agora parte do Centro Médico da Criança de Connecticut) o nomeou consultor estatístico para a equipe médica de 1957-1994. Assim, ele teve a oportunidade de adaptar diversas de suas técnicas para os problemas da etiologia das enfermidades, principalmente as crianças com deficiência.

No início dos anos 1960, Shainin atuou na Grumman Aerospace como consultor de confiabilidade para o módulo lunar da NASA do projeto Apollo. Os componentes do módulo lunar protótipo e sistemas foram testados empiricamente utilizando o ambiente de múltiplos Shainin overstress sistema de testes de sonda para ser estatisticamente certeza de que mesmo o modo mais fraco falha tinha uma margem de segurança estatística. NASA inicialmente adjudicado o contrato para Grumman, porque nenhuma proposta aeroespacial outras competitivo demonstrado que a capacidade de segurança. Shainin escreveu mais de 100 artigos e foi o autor ou co-autor de vários livros, incluindo Manpower Gestão em Meio Ambiente Industrial; Engenheiros Ferramenta Manual; Quality Control Handbook, Nova Tomada de Decisão Ferramentas para Gestores; Controle de Qualidade para Engenheiros de Plásticos; Manufacturing, planejamento e estimativa Handbook; e Estatística In Action. Shainin, que morreu em 2000, teve um impacto significativo para a qualidade e confiabilidade e ganhou o reconhecimento e a estima de outras organizações profissionais e de muitas pessoas que ele influenciou através do seu envolvente, inteligente e instigante estilo.

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Linkedin: http://br.linkedin.com/pub/hayrton-prado/2/740/27a

Seguir

Get every new post delivered to your Inbox.

Junte-se a 1.935 outros seguidores