O controle da qualidade do concreto reforçado com fibras

A NBR 16938 de 02/2021 – Concreto reforçado com fibras – Controle da qualidade estabelece os procedimentos para a qualificação inicial do concreto reforçado com fibras (CRF) e para o controle tecnológico durante a produção deste concreto, incluindo os critérios para a sua aceitação na obra. Aplica-se ao concreto reforçado com fibras destinado às estruturas, incluindo ou não armaduras (passivas ou ativas). Não se aplica ao controle da qualidade do concreto projetado reforçado com fibras.

Confira algumas questões relacionadas a essa norma GRATUITAMENTE no Target Genius Respostas Diretas:

Como devem ser os lotes para controle tecnológico de estruturas com CRF em conjunto com armaduras, considerando o tipo de elemento?

Quais são os critérios para aceitação do CRF para controles de produção tipos A e B – controle de produção?

Por que realizar o ensaio de Grubbs?

Qual deve ser a aparelhagem para a determinação do teor de fibra da mistura de concreto no estado fresco?

As estruturas de concreto reforçado com fibras (CRF) podem ser classificadas em função de sua moldagem, podendo-se dividi-las em estruturas de concreto moldado no local, pré-moldadas ou de concreto projetado. Cada um desses sistemas de moldagem tem especificidades, principalmente no que diz respeito à adição de fibras ao concreto e, também, ao seu controle.

No caso das estruturas moldadas de forma convencional (moldadas no local ou pré-moldadas utilizando CRF de consistência plástica ou fluida), pode-se dividi-las em dois grupos, conforme a NBR 16935, onde são abordadas as duas possibilidades. Por sua vez, as fibras utilizadas como reforço estrutural são abordadas nas NBR 15530, NBR 16941 e NBR 16942. Este conjunto de documentos normativos foi elaborado considerando as estruturas moldadas no local e as pré-moldadas.

As fibras a serem utilizadas como reforço estrutural devem ser qualificadas previamente de acordo com as seguintes normas: fibras de aço: NBR 15530; fibras de vidro álcali-resistentes (AR): NBR 16941; fibras poliméricas: NBR 16942. No caso do CRF, os ensaios prévios definidos nessa norma são de especial importância para a escolha das fibras a serem utilizadas e suas dosagens.

A qualificação do CRF deve considerar os seguintes ensaios: tração na flexão: resistências (LOP) e residuais fR1m, fR2m, fR3m e fR4m, conforme a NBR 16940; resistência à compressão, conforme a NBR 5739; duplo puncionamento (opcional): resistências à tração e residuais fR0,5m, fR1,5m, fR2,5m, fR3,5m, conforme a NBR 16939. Em alguns casos, devem ser realizados ensaios aos 28 dias em no mínimo oito corpos de prova, de acordo com os procedimentos estabelecidos nas NBR 16940 e NBR 16939. Para cada resistência, o método para identificação de valores atípicos (discrepantes), conforme o Anexo A, pode ser aplicado para eliminar até dois resultados.

As resistências devem ser calculadas como a média aritmética de pelo menos seis corpos de prova, sendo que o valor do coeficiente de variação de cada série de corpos de prova ensaiados não pode ser superior a 25%. Caso isso ocorra, deve-se repetir o ensaio em uma série de seis corpos de prova, calculando a média com base em pelo menos 12 corpos de prova das duas séries ensaiadas.

Não pode ocorrer qualquer possível modificação na matriz de concreto ou da fibra (marca, tipo e dosagem) em relação ao que foi previamente estabelecido, até que se comprove o desempenho da fibra com base nos ensaios prévios estabelecidos antes do início da execução da estrutura. Excepcionalmente, a critério do projetista, quando existem informações documentadas referentes às algumas propriedades, essas informações podem ser aceitas para a qualificação do material.

A avaliação do concreto fresco compreende a verificação da consistência pelo abatimento do tronco de cone, que deve ser feita conforme a NBR 16889, ou do espalhamento do concreto, conforme a NBR 15823-2, em função do tipo de concreto previamente especificado. Os ensaios de consistência devem ser realizados em todos os caminhões, no caso de concreto dosado em central.

Quando as fibras são adicionadas ao concreto na usina, o controle do teor de fibras no concreto fresco, com os procedimentos indicados no Anexo B, deve ser realizado por amostragem total (todos os caminhões), conforme a NBR 12655. A resistência à compressão do CRF deve ser determinada conforme a NBR 5739. A formação de lotes e os critérios de aceitação ou rejeição dos lotes devem seguir os procedimentos da NBR 12655.

Para estruturas de CRF pré-moldadas, adicionalmente devem ser consultados os procedimentos da NBR 9062. Para o controle da resistência à tração do CRF, devem ser realizados ensaios de tração na flexão, limite de proporcionalidade (fL) e resistências residuais fR1, fR2, fR3 e fR4, conforme a NBR 16940.

A critério do projetista, o ensaio de duplo puncionamento, conforme a NBR 16939, pode ser utilizado para a determinação da resistência à tração (fissuração) (ft) e das resistências residuais (fR0,5, fR1,5, fR2,5 e fR3,5) no controle tecnológico do CRF, desde que, na etapa de qualificação do compósito, seja estabelecida a correspondência com as resistências determinadas no ensaio de tração na flexão, conforme a NBR 16940.

Consideram-se dois tipos de controle de resistência à tração do CRF: o controle para aplicações tipo A e o controle para aplicações tipo B. O tipo A deve ser adotado para aplicações com controle básico do CRF, considerando os critérios para formação de lotes, amostragem e sua aceitação, indicados nessa norma.

O tipo B deve ser adotado para aplicações que realizam ensaios preliminares de desempenho de pelo menos dois elementos estruturais, produzidos para verificar os parâmetros de projeto, e um controle rigoroso de produção do CRF certificado por terceira parte. Os critérios de formação de lotes para as resistências à tração na flexão, LOP e residuais, de estruturas produzidas apenas com CRF, estão indicados na tabela abaixo.

No caso de placas com interface com o meio elástico e a critério do projetista, o lote pode ser formado por um volume de concreto de 100 m³ e tempo de concretagem de dois dias, quando for realizada a determinação do teor de fibras no concreto fresco, com os procedimentos indicados no Anexo B, ou o controle documentado da adição de fibras na obra. A quantidade mínima de corpos de prova por exemplar para a determinação das resistências LOP e residuais (fR1, fR2, fR3 e fR4) ou para o controle tecnológico com o ensaio de duplo puncionamento, deve ser de dois corpos de prova. Para cada resistência, o método para identificação de valores atípicos (discrepantes), conforme o Anexo A, pode ser aplicado para eliminar até dois resultados.

Os ensaios gerais em equipamentos eletromédicos

Sempre que possível, convém que as normas contenham as especificações de ensaio para a verificação completa e clara da conformidade com os requisitos técnicos.

A ABNT IEC/TR 62354 de 10/2020 – Procedimentos de ensaio gerais para equipamentos eletromédicos é aplicável aos equipamentos eletromédicos (conforme definido nas Subseções 3.63 da NBR IEC 60601-1:2010 e 2.2.15 da NBR IEC 60601-1:1994), doravante denominados Equipamentos EM. O objetivo deste Relatório Técnico é fornecer orientação sobre os procedimentos de ensaio gerais, de acordo com a NBR IEC 60601-1:1994 (incluindo a norma colateral da NBR IEC 60601-1-1:2004), assim como com a NBR IEC 60601-1:2010 e a NBR IEC 60601-1:2010/EMENDA 1:2016.

Acesse algumas questões relacionadas a essa norma GRATUITAMENTE no Target Genius Respostas Diretas:

Quais os requisitos para uma conexão a uma fonte de alimentação separada?

Quais os requisitos gerais para o equipamento de medição e de ensaio?

Quais são as especificações para a exatidão da faixa de medição?

Quais as grandezas fora do sistema SI de unidades que podem ser utilizadas?

O IEC/TR 60513, (Fundamental aspects of safety standards for medical electrical equipment), publicada pelo subcomitê 62A da IEC, forneceu a base para a inclusão dos métodos de ensaio para o EQUIPAMENTO EM nas normas de segurança. “Requisitos técnicos e métodos de ensaio são elementos inter-relacionados das normas de produto e convém que sempre sejam considerados de forma conjunta.

Convém que as normas de produto identifiquem quando os julgamentos médicos informados são requeridos para decidir se um requisito em particular é aplicável. Sempre que possível, convém que as normas contenham as especificações de ensaio para a verificação completa e clara da conformidade com os requisitos técnicos. Em alguns casos, a declaração de conformidade, como “inspeção visual”, “ensaio manual” ou similar, é adequada para este propósito, se tal método fornece uma avaliação exata.

Convém que seja fácil reconhecer quais métodos de ensaio são aplicáveis a cada requisito técnico. Convém que títulos apropriados designem o ensaio apropriado e que uma referência seja feita à seção que contém o requisito. Isso também é aplicável às referências feitas a outras normas de ensaio relevantes.

Foi considerado necessário fornecer suporte à NBR IEC60601-1, com orientações para PROCEDIMENTOS de ensaio gerais para EQUIPAMENTOS ELETROMÉDICOS. Quando do desenvolvimento dos PROCEDIMENTOS de ensaio, as recomendações presentes no IEC/TR 60513 e no ISO/IEC Guide 51 foram consideradas conforme a seguir. Convém que os resultados de ensaio sejam reprodutíveis dentro dos limites especificados. Quando considerado necessário, convém que o método de ensaio incorpore uma declaração quanto ao seu limite de incerteza. Quando a sequência de ensaios puder influenciar os resultados, convém que a sequência correta seja especificada. Há, também, um apoio crescente à ideia de que convém que todos os PROCEDIMENTOS de ensaio para o EQUIPAMENTO EM sejam encontrados em uma única norma internacional.

A NBR ISO/IEC 17025, Requisitos gerais para a competência dos laboratórios de ensaio e calibração, enfatiza a necessidade para uma única série de requisitos que abranja os PROCEDIMENTOS de ensaio. O IEC/TR 60513 inclui um novo princípio essencial com relação aos ensaios: “Ao especificar os requisitos mínimos de segurança, uma provisão é feita para avaliar a adequação do PROCESSO de projeto, o que fornece uma alternativa apropriada à aplicação dos ensaios em laboratório com critérios específicos de aprovação/reprovação (por exemplo, ao avaliar a segurança de novas tecnologias, como sistemas eletrônicos programáveis)”.

Os “ENSAIOS DE TIPO” são requeridos para a verificação da SEGURANÇA BÁSICA e do DESEMPENHO ESSENCIAL do projeto do produto. Os ensaios descritos neste Relatório Técnico também podem ser utilizados pelo FABRICANTE para garantir a qualidade do produto e do PROCESSO de fabricação. Ver Anexo I. Um ensaio não precisa ser realizado, se a análise mostrar que a condição sendo ensaiada foi adequadamente avaliada por outros ensaios ou métodos.

Convém que os resultados da ANÁLISE DE RISCO sejam utilizados de forma adicional para determinar qual (is) combinação (ões) de falhas simultâneas convém que sejam ensaiada (s). Os resultados de ensaio podem fazer com que seja necessário revisar a ANÁLISE DE RISCO. Ao ensaiar o EQUIPAMENTO EM, convém que as informações relevantes fornecidas pelo FABRICANTE nas instruções para utilização sejam levadas em consideração.

Antes do início do ensaio, convém que o EQUIPAMENTO EM sob ensaio (o equipamento sob ensaio ou ESE) seja desconectado da REDE DE ALIMENTAÇÃO ELÉTRICA. Se isto não for possível, convém que precauções especiais sejam tomadas para prevenir DANO ao pessoal que executa os ensaios e as medições ou a outras pessoas que possam ser afetadas.

Conexões, como linhas de dados ou condutores de aterramento funcionais, podem atuar como CONEXÕES DE ATERRAMENTO PARA PROTEÇÃO. Essas CONEXÕES DE ATERRAMENTO PARA PROTEÇÃO adicionais, mas não intencionais, podem levar a erros de medição. A menos que especificado de outra forma na NBR IEC 60601-1, o EQUIPAMENTO EM deve ser ensaiado nas condições de trabalho menos favoráveis. As condições de trabalho são especificadas nos DOCUMENTOS ACOMPANHANTES.

As condições de trabalho menos favoráveis devem ser documentadas para cada ensaio onde elas são aplicáveis. Considerando a temperatura, a umidade e a pressão ambiente indicadas na descrição técnica, convém que os ensaios sejam executados nos extremos de pior caso, dependendo do ensaio e dos efeitos destes parâmetros nos resultados de ensaio. Se o ensaio não for impactado por esses parâmetros, então o ensaio pode ser conduzido em qualquer ponto dentro da faixa especificada.

Convém que tampas e invólucros sejam abertos somente: se requerido nas instruções para utilização do EQUIPAMENTO EM, ou se especificado neste Relatório Técnico, ou se houver uma indicação de PERIGO ou SITUAÇÃO PERIGOSA. Convém que seja dada atenção especial ao seguinte: convém que todos os fusíveis acessíveis externamente sejam marcados (tipo, classificações) no EQUIPAMENTO EM ou marcados por referência e especificados nos DOCUMENTOS ACOMPANHANTES; convém que as marcações sejam legíveis e completas; qualquer dano.

Convém que ACESSÓRIOS relevantes sejam avaliados juntamente com o EQUIPAMENTO EM (por exemplo, CABOS FLEXÍVEIS DE ALIMENTAÇÃO REMOVÍVEIS ou FIXOS, cabos do PACIENTE, tubulação etc.). Convém que toda a documentação requerida, tal como as instruções para utilização, estejam presentes e completas e reflitam a revisão atual do EQUIPAMENTO EM.

Alguns ensaios especificados neste documento são conduzidos na CONDIÇÃO NORMAL, enquanto outros são conduzidos nas CONDIÇÕES ANORMAIS SOB UMA SÓ FALHA. A CONDIÇÃO NORMAL e as CONDIÇÕES ANORMAIS SOB UMA SÓ FALHA estão descritas tanto na NBR IEC 60601-1:1994 quanto na NBR IEC 60601-1:2010. Os ENSAIOS DE TIPO são executados em uma amostra representativa do item sendo avaliado. Múltiplas amostras podem ser utilizadas simultaneamente, se a validação dos resultados não for significativamente afetada.

A menos que declarado de outra forma, os ensaios neste Relatório Técnico devem ser sequenciados de uma maneira que os resultados de qualquer ensaio não influenciem os resultados de outros ensaios. Convém que os ensaios, se aplicável, sejam executados na sequência indicada no Anexo A, a menos que indicado de outra forma pelas normas específicas. Entretanto, isso não exclui a possibilidade de conduzir um ensaio que possa levar a uma falha, segundo sugerido pela inspeção preliminar.

Os ensaios para PERIGOS de radiação, biocompatibilidade, USABILIDADE, sistemas de alarmes, SEMP e compatibilidade eletromagnética podem ser executados independentemente dos ensaios especificados neste documento. Convém que os ensaios especificados para SISTEMAS EM sejam executados na mesma sequência que os ensaios para EQUIPAMENTOS EM. Convém que as seguintes condições gerais de ensaio descritas a seguir sejam aplicadas. Após o ESE ter sido ajustado para a UTILIZAÇÃO NORMAL, os ensaios são realizados nas condições de trabalho menos favoráveis, as quais são especificadas nos DOCUMENTOS ACOMPANHANTES.

O ESE deve estar blindado contra outras influências (por exemplo, correntes de ar) que possam afetar a validação dos ensaios. Nos casos em que as temperaturas ambientes não puderem ser mantidas, as condições de ensaio devem ser, consequentemente, modificadas, e os resultados ajustados de forma apropriada. Estes ensaios devem ser executados por pessoal qualificado. As qualificações incluem treinamento sobre o assunto, conhecimento, experiência e familiaridade com as tecnologias e regulamentações relevantes.

Convém que o pessoal responsável seja capaz de avaliar a segurança e reconhecer possíveis consequências e PERIGOS que possam surgir do EQUIPAMENTO EM não conforme. Convém que os ACESSÓRIOS para o EQUIPAMENTO EM, os quais podem afetar a segurança do ESE ou os resultados das medições, sejam incluídos nos ensaios. Os ACESSÓRIOS incluídos nos ensaios devem ser documentados. Todos os ensaios devem ser executados de tal maneira que não seja apresentado RISCO algum ao pessoal responsável pelo ensaio, aos PACIENTES ou a outras pessoas.

Se não indicado de outra forma, todos os valores para corrente e tensão são valores eficazes (r.m.s.) ou valores cc, conforme apropriado. Convém que todos os ensaios executados sejam documentados de forma completa. Convém que a documentação contenha pelo menos os seguintes dados: a identificação do organismo de ensaio (por exemplo, organização, departamento); os nomes dos responsáveis pela execução dos ensaios e da (s) avaliação (ões); a identificação do EQUIPAMENTO EM (por exemplo, tipo, número de série, número do inventário) e dos ACESSÓRIOS ensaiados; as medições (valores medidos, método de medição, equipamento de medição, condições ambientais); a data e a assinatura do responsável pela execução da avaliação; e, se aplicável, convém que o EQUIPAMENTO EM ensaiado esteja marcado/identificado de forma apropriada.

Além dos ENSAIOS DE TIPO, o FABRICANTE do EQUIPAMENTO EM pode estabelecer o intervalo e a extensão do ensaio para inspeção periódica, e deve disponibilizar essas informações nos DOCUMENTOS ACOMPANHANTES. Ao estabelecer o intervalo dos ensaios, convém que as seguintes considerações sejam levadas em conta: o nível de RISCO do EQUIPAMENTO EM, conforme descrito no ARQUIVO DE GERENCIAMENTO DE RISCO, a frequência de sua utilização, o ambiente operacional, o tipo do EQUIPAMENTO EM (ESTACIONÁRIO, MÓVEL, de emergência), e a frequência de ocorrência de falhas no produto.

Se os DOCUMENTOS ACOMPANHANTES não trouxerem informações sobre o intervalo de ensaio para a inspeção periódica (por exemplo, para um EQUIPAMENTO EM mais antigo), ele pode ser estabelecido por uma pessoa competente. Ao especificar o nível de RISCO, convém que os fatores e as recomendações do FABRICANTE acima sejam levados em consideração. O intervalo de ensaio para a inspeção periódica pode estar na faixa de 6 a 36 meses.

Em caso de necessidade de reparos ou modificações após uma falha ou a probabilidade de ocorrência de uma falha durante a sequência de ensaios, o laboratório de ensaio e o fornecedor do EQUIPAMENTO EM podem entrar em acordo sobre a utilização de uma nova amostra na qual todos os ensaios relevantes sejam realizados novamente ou, preferencialmente, sobre a realização de todos os reparos ou modificações necessárias, depois das quais somente ensaios relevantes sejam repetidos. A menos que especificado de outra forma na NBR IEC 60601-1, o EQUIPAMENTO EM deve ser ensaiado nas condições de trabalho menos favoráveis.

As condições de trabalho são especificadas nos DOCUMENTOS ACOMPANHANTES. As condições de trabalho menos favoráveis devem ser documentadas para cada ensaio ao qual elas se aplicam. O EQUIPAMENTO EM com valores operacionais que podem ser ajustados ou controlados pelo OPERADOR é ajustado, como parte dos ensaios, para valores menos favoráveis para o ensaio relevante, mas de acordo com as instruções para utilização.

Se os resultados de ensaio forem influenciados pela pressão e fluxo de entrada ou pela composição química do líquido de resfriamento, o ensaio deve ser realizado dentro dos limites para essas características, conforme requerido na descrição técnica. Quando a água de resfriamento for requerida, deve ser utilizada água potável. Exceto em casos especiais, como suportes do PACIENTE e colchões d’água, supõe-se que o contato com o EQUIPAMENTO EM seja feito com: uma mão, simulada para medições da CORRENTE DE FUGA por uma folha metálica de 10 cm × 20 cm (ou menor, se o EQUIPAMENTO EM total for menor); um dedo, esticado ou dobrado em uma posição natural, simulado por um dedo de ensaio padrão, fornecido com uma placa de fim de curso; ou uma aresta ou fenda que possa ser puxada para fora, permitindo a entrada subsequente de um dedo, simulado por uma combinação de gancho de ensaio e dedo de ensaio padrão.

O uso do corta-chamas para evitar riscos em instalações industriais

Saiba como se deve fazer a seleção de corta-chamas, de acordo com a NBR ISO 16852, para os diferentes cenários com as melhores práticas para seleção, instalação e manutenção destes. 

A NBR 16906 de 09/2020 – Corta-chamas — Requisitos de seleção, instalação, especificação e manutenção estabelece os requisitos para a seleção de corta-chamas, de acordo com a NBR ISO 16852, para os diferentes cenários com as melhores práticas para seleção, instalação e manutenção destes. Descreve os possíveis riscos que podem ocorrer em instalações industriais e fornece os tipos de proteção para uso do corta-chamas. Esta norma se destina principalmente a técnicos responsáveis pelo projeto e pela operação segura de instalações industriais e de equipamentos que usam líquidos, vapores ou gases inflamáveis.

Acesse algumas questões relacionadas a essa norma GRATUITAMENTE no Target Genius Respostas Diretas:

Quais os limites de velocidade máxima de fluxo?

Como fazer a seleção de corta-chamas?

Como deve ser feita a marcação de equipamentos com limites de aplicação?

Quais são os limites de instalação dos corta-chamas?

O corta-chamas é um dispositivo instalado na abertura de um equipamento ou no duto de conexão de um sistema de processo e cuja função pretendida é permitir o fluxo, mas evitar a transmissão da chama. Os corta-chamas são necessários para proteger os equipamentos e as tubulações contra vários tipos de explosão que possam ocorrer nos seus interiores. Entretanto, esta segurança depende da seleção do tipo adequado de corta-chamas, de sua correta instalação e da sua manutenção.

Esta norma fornece orientações importantes para o uso de corta-chamas, além das orientações dos manuais de operação dos fabricantes e das resoluções de segurança e ambientais. Os corta-chamas são projetados para uso em áreas com risco de explosão.

É prioridade dar atenção à prevenção de formação de atmosferas explosivas em unidades de processo para evitar o desenvolvimento de uma potencial explosão. A prevenção de explosão pode ser efetuada pela redução de uso ou limitando a concentração das substâncias inflamáveis no processo. A prevenção também pode ser realizada por meio da inertização de equipamentos.

Caso a prevenção da formação de atmosfera explosiva não seja possível, é necessário se evitar a presença de qualquer fonte de ignição no local. Para tanto, o uso de medidas de proteção auxilia a evitar ou a reduzir a probabilidade de ocorrência de potenciais fontes de ignição. É possível que a probabilidade de formação de atmosfera explosiva e de fonte de ignição esteja presente no mesmo tempo e local. Neste caso, é preciso determinar as medidas corretas de proteção do equipamento.

Uma medida de segurança recomendada é a classificação de área pelo conceito de zonas de risco de explosão, de acordo com a NBR IEC 60079-10-1. Os corta-chamas devem ser ensaiados de acordo com a NBR ISO 16852 e atender a todos os requisitos de segurança desta norma. Em muitos casos, não é possível identificar previamente a possibilidade de formação de atmosferas explosivas ou de fontes de ignição. Para tanto, é necessário adotar medidas para minimizar os efeitos da explosão. Os tipos de medidas de segurança contra os efeitos de uma explosão são: projeto de equipamentos resistentes à explosão; alívio de explosão; supressão de explosão; prevenção da formação de chama e da propagação da explosão.

A ocorrência de uma explosão em uma unidade de processo pode se propagar para partes a montante e a jusante de sua ocorrência, podendo causar explosões secundárias. A aceleração causada por acessórios da unidade de processo ou pela propagação por tubulações pode intensificar os efeitos de uma explosão. As pressões decorrentes de uma explosão podem ser superiores à pressão máxima de explosão sob condições normais de operação, e podem destruir partes da unidade de processo, mesmo que estas tenham sido projetadas para resistir à pressão de explosão ou para resistência mecânica.

Portanto, é importante limitar possíveis explosões em determinadas partes da unidade de processo. Esta limitação pode ser obtida pela técnica de bloqueio mecânico de uma explosão. Este bloqueio normalmente é efetuado por válvulas de isolamento ou corta-chamas. As áreas perigosas de instalações industriais são classificadas de acordo com a NBR IEC 60079-10-1, em zonas de riscos de explosão, dependendo da frequência e da duração da presença de atmosferas explosivas, conforme tabela abaixo.

As aberturas de equipamentos (reatores, vasos de pressão, etc.) à prova de explosão, onde explosões internas possam ocorrer, devem ser equipadas com corta-chamas à prova de deflagrações volumétricas, de modo a prevenir a propagação da explosão do interior para o exterior desses equipamentos, quando estiverem conectados a outros equipamentos não resistentes a essa condição, ou se houver a presença de pessoas no local do alívio.

De acordo com a NBR ISO 16852, o conceito de segurança de instalações industriais usando corta-chamas à prova de detonações estáveis depende da probabilidade de ocorrência de eventos adversos (transmissão de chama de uma fonte de ignição), e da extensão das consequências destes eventos (capacidade destrutiva da onda de choque da explosão). A tabela abaixo apresenta a quantidade requerida de medidas independentes de proteção contra a transmissão de chama diante das consequências graves da explosão, conforme a NBR ISO 16852.

Dependendo da classificação de áreas e da probabilidade de presença de fontes de ignição, os corta-chamas podem ser usados em combinação com outras medidas de proteção, por exemplo, os corta-chamas em série, sistemas de inertização, sistemas de controle de concentração, válvulas de isolamento, sensores de temperatura e/ou controle de potenciais fontes de ignição. Caso as misturas inflamáveis sejam processadas durante a operação em grandes volumes e por longos períodos (por exemplo, durante o enchimento de tanques e/ou transferência de vapores a uma unidade de incineração), é necessário prever a formação de combustão contínua no corta-chamas.

Caso os corta-chamas não sejam adequados para combustão contínua, são requeridas medidas adicionais para evitar esta condição. Os corta-chamas são equipamentos que permitem a passagem de misturas gasosas através deles, mas impedem a transmissão de chama, prevenindo uma explosão ou um fogo maior. Existem diversas situações em que se aplicam os corta-chamas.

Os riscos de explosão dependem dos processos de combustão, que são função das condições e estrutura dos ambientes. Os corta-chamas são projetados para processos específicos de combustão. Assim sendo, há uma grande variedade de tipos de corta-chamas (por exemplo, em linha ou fim de linha, para tubulações de grandes e pequenos diâmetros, etc.). Existem alguns possíveis locais típicos de instalação de corta-chamas, por exemplo: tanques de armazenamento; sistemas de processamento; sistema de combustão de vapores, incineradores, tochas (flares); navios, plataformas marítimas (offshore), veículos e sistemas de carregamento; unidades de recuperação de vapores; integrado a bombas, a sopradores e outras máquinas.

Para as condições de operação que levam à combustão estabilizada das misturas diretamente sobre o elemento do corta-chamas, há apenas uma segurança limitada em tempo contra a transmissão de chama. Nesse caso, os corta-chamas em linha devem ser equipados com sensores de temperatura para detectar a chama e disparar medidas para suprimir a combustão estabilizada (por exemplo, funções de emergência, como desligar a unidade de processo, inertização, etc.) na metade do tempo para o qual o dispositivo for resistente à combustão de curta duração.

Os requisitos dos cabos ópticos de terminação

Entenda os requisitos para a fabricação dos cabos ópticos de terminação que são indicados para instalações internas e externas, interligando os cabos ópticos externos da última emenda às instalações internas comerciais, industriais e residenciais.

A NBR 14772 de 07/2020 – Cabo óptico de terminação — Especificação especifica os requisitos para a fabricação dos cabos ópticos de terminação. Estes cabos são indicados para instalações internas e externas, interligando os cabos ópticos externos da última emenda às instalações internas comerciais, industriais e residenciais. Estes cabos não se aplicam às instalações externas aéreas.

Acesse algumas dúvidas relacionadas a essa norma GRATUITAMENTE no Target Genius Respostas Diretas:

Como deve ser o núcleo constituído por unidades básicas de elementos ópticos?

Qual o código de cores das unidades básicas dos elementos ópticos e dos cordões ópticos?

Quais são as cores das fibras ópticas?

O que deve ser aplicado como revestimento externo?

Um cabo óptico de terminação é o conjunto constituído por unidades básicas de cordões ópticos, elementos ópticos ou fibras ópticas, elemento de tração dielétrico, eventuais enchimentos, núcleo seco resistente a penetração de umidade e protegidos por uma capa externa de material termoplástico retardante à chama. Um elemento óptico é um conjunto constituído por uma fibra óptica com revestimento primário em acrilato e com revestimento secundário de material termoplástico.

Uma unidade básica é o menor conjunto de fibras ópticas agrupadas, identificado inequivocamente, que pode ser delimitado por uma amarração, micromódulo ou tubo loose. prontos satisfaçam os requisitos especificados nesta norma. Os cabos ópticos de terminação são designados pelo seguinte código: CFOT – X – Y – Z – W, onde CFOT é o cabo óptico de terminação; X é o tipo de fibra óptica, conforme a tabela abaixo; Y é a formação do núcleo, conforme a tabela abaixo; Z é o número de fibras ópticas, conforme a tabela abaixo; W é o grau de proteção do cabo quanto ao comportamento frente à chama, conforme a tabela abaixo.

Os materiais constituintes dos cabos ópticos de terminação devem ser dielétricos. Os materiais utilizados na fabricação do cabo devem ser compatíveis entre si. Os materiais utilizados na fabricação dos cabos com função estrutural devem ter suas características contínuas ao longo de todo o comprimento do cabo.

As fibras ópticas tipo multimodo índice gradual, utilizadas na fabricação dos cabos, devem estar conforme a NBR 13487. As fibras ópticas tipo monomodo com dispersão normal, utilizadas na fabricação dos cabos, devem estar conforme a NBR 13488. As fibras ópticas tipo monomodo com dispersão deslocada e não nula, utilizadas na fabricação dos cabos, devem estar conforme a NBR 14604. As fibras ópticas tipo monomodo com baixa sensibilidade a curvatura, utilizadas na fabricação dos cabos, devem estar conforme a NBR 16028.

Não são permitidas emendas nas fibras ópticas durante o processo de fabricação do cabo. O núcleo deve ser constituído por unidades básicas de fibras ópticas, cordões ópticos ou elementos ópticos. Os cabos ópticos de terminação devem ser fabricados com unidades básicas de 2, 4, 6, 8, 12, 16, 24, 36 ou 48 fibras ópticas.

O núcleo deve ser constituído por unidades básicas. As unidades básicas devem ser dispostas em elementos de proteção adequados, de modo a atender aos requisitos especificados nesta norma. Os elementos de proteção podem ser constituídos por tubos de material polimérico encordoados em uma ou mais coroas, ou de forma longitudinal. Os elementos de proteção encordoados devem ser reunidos com passo e sentido escolhidos pelo fabricante, de modo a satisfazer as características previstas nesta norma.

No caso de cabos ópticos constituídos por elementos de proteção encordoados dispostos em mais de uma coroa, opcionalmente estas coroas podem ser separadas por fitas, a fim de facilitar a sua identificação. É recomendado que cabos ópticos compostos por elementos de proteção de até 12 fibras ópticas sejam constituídos por unidades básicas, onde cada unidade pode conter duas ou seis fibras ópticas. Para os cabos ópticos de 18 a 36 fibras ópticas constituídos por unidades básicas, é recomendado que cada unidade contenha seis ou 12 fibras ópticas.

Para os cabos ópticos de 48 a 288 fibras ópticas constituídos por unidades básicas, é recomendado que cada unidade contenha 12 ou 24 fibras ópticas. Para os cabos ópticos superiores a 288 fibras ópticas constituídos por unidades básicas, é recomendado que cada unidade contenha 24, 36 ou 48 fibras ópticas. O núcleo constituído por fibras ópticas dispostas em tubo único (central loose tube) deve conter um único tubo central de material polimérico contendo uma ou mais unidades básicas. Os cabos ópticos de até 48 fibras ópticas devem ser constituídos de fibras ópticas reunidas. Os cabos ópticos acima de 48 até 72 fibras ópticas devem ser constituídos por unidades básicas.

Para o núcleo constituído por unidades básicas de cordões ópticos monofibra, o cordão óptico deve ser conforme a NBR 14106. A unidade básica de cordões ópticos deve ser constituída por até 12 cordões agrupados e identificada. Os cabos de até 12 fibras ópticas devem ser constituídos por cordões ópticos reunidos. Para cabos de 18 a 36 fibras ópticas, é recomendado que cada unidade básica contenha seis cordões ópticos. Para cabos ópticos de 48 a 72 fibras, é recomendado que cada unidade básica contenha 12 cordões ópticos.

A marcação métrica sequencial deve ser feita em intervalos de 1 m ao longo do revestimento externo do cabo óptico de terminação. A marcação deve ser feita com algarismos de altura, forma, espaçamento e método de gravação ou impressão tais que se obtenha legibilidade perfeita e permanente. Não são permitidas marcações ilegíveis adjacentes. Na medida da marcação do comprimento ao longo do eixo do cabo, é tolerada uma variação para menos de até 0,5%, não havendo restrição de tolerância para mais.

A marcação inicial deve ser feita em contraste com a cor da capa do cabo, sendo preferencialmente azul ou preta para os cabos de cores claras e branca para os cabos de cores escuras ou em relevo. Se a marcação não satisfizer os requisitos anteriores, é permitida a remarcação na cor amarela. A remarcação deve ser feita de forma a não se sobrepor à marcação inicial defeituosa. Não é permitida qualquer outra remarcação além da citada. Cada lance de cabo deve ser fornecido acondicionado em um carretel de madeira com diâmetro mínimo do tambor de 22 vezes o diâmetro externo do cabo. A largura total do carretel não pode exceder 1,5 m e a altura total não pode ser superior a 2,1 m.

Os carretéis devem conter um número de voltas tal que entre a camada superior e as bordas dos discos laterais exista um espaço livre mínimo de 6 cm. Os carretéis utilizados devem estar conforme a NBR 11137. As extremidades do cabo devem ser solidamente presas à estrutura do carretel, de modo a não permitir que o cabo se solte ou se desenrole durante o transporte. A extremidade interna do cabo na bobina deve estar protegida para evitar danos durante o transporte, ser acessível para ensaios, possuir um comprimento livre de no mínimo 2 m e ser acomodada com diâmetro de no mínimo 22 vezes o diâmetro externo do cabo.

Após efetuados todos os ensaios requeridos para o cabo, as extremidades do lance devem ser fechadas, a fim de prevenir a entrada de umidade. Cada lance do cabo óptico de terminação deve ter um comprimento nominal de 2 000 m, podendo, a pedido do comprador, ser fornecido em comprimento específico. A tolerância de cada lance deve ser de + 3%, não sendo admitidos comprimentos inferiores ao especificado.

Devem ser identificadas em cada bobina, com caracteres perfeitamente legíveis e indeléveis, as seguintes informações: nome do comprador; nome do fabricante; número da bobina; designação do cabo; comprimento real do cabo na bobina, expresso em metros (m); massa bruta e massa líquida, expressas em quilogramas (kg); uma seta ou marcação apropriada para indicar o sentido em que o cabo deve ser desenrolado; identificação de remarcação, quando aplicável. O transporte, armazenamento e utilização das bobinas dos cabos ópticos de terminação devem ser feitos conforme a NBR 7310.

IEC 60749-30: os dispositivos de montagem em superfície não hermética

Essa norma, publicada pela International Electrotechnical Commission (IEC) em 2020, estabelece um procedimento padrão para determinar o pré-condicionamento de dispositivos de montagem em superfície não herméticos (surface mount devices – SMD) antes do ensaio de confiabilidade. O método de ensaio define o fluxo de pré-condicionamento para os SMD de estado sólido não herméticos representativos de uma operação típica de refluxo de solda múltipla da indústria.

A IEC 60749-30:2020 – Semiconductor devices – Mechanical and climatic test methods – Part 30: Preconditioning of non-hermetic surface mount devices prior to reliability testing estabelece um procedimento padrão para determinar o pré-condicionamento de dispositivos de montagem em superfície não herméticos (surface mount devices – SMD) antes do ensaio de confiabilidade. O método de ensaio define o fluxo de pré-condicionamento para os SMD de estado sólido não herméticos representativos de uma operação típica de refluxo de solda múltipla da indústria.

Esses SMD são submetidos à sequência de pré-condicionamento apropriada descrita neste documento antes de serem submetidos a testes de confiabilidade internos específicos (qualificação e/ou monitoramento de confiabilidade) para avaliar a confiabilidade de longo prazo (impactada pela tensão de soldagem). Esta edição inclui as seguintes alterações técnicas significativas em relação à edição anterior: inclusão de uma nova Cláusula 3; expansão de 6,7 no refluxo da solda; e inclusão de notas explicativas e esclarecimentos.

Conteúdo da norma

PREFÁCIO……………………. 3

1 Escopo……………………… 5

2 Referências normativas……….. ….. 5

3 Termos e definições…………… …… 6

4 Descrição geral………………… …….. 6

5 Aparelho e materiais de ensaio……………. 6

5.1 Geral………………… …………….. 6

5.2 Câmara de umidade…………………….. 7

5.3 Equipamento de solda………………… … 7

5.4 Microscópio óptico…………………………… 7

5.5 Equipamento de ensaio elétrico………………… 7

5.6 Forno de secagem……………………….. …. 7

5.7 Câmara de ciclo de temperatura (opcional)………………. 7

6 Procedimento…. …………………. 7

6.1 Geral………………….. …………….. 7

6.2 Medições iniciais……………………… 8

6.2.1 Ensaio elétrico………………………. …. 8

6.2.2 Inspeção visual………………………… 8

6.3 Ciclo de temperatura (opcional)………………… 8

6.4 Secagem…………………………………….. …… 8

6.5 Condições de imersão para os SMD embalados a seco………………….. 8

6.5.1 Geral…………………… ……….. 8

6.5.2 Método A para SMD embalados a seco de acordo com a IEC 60749-20………….. 8

6.5.3 Método B para SMD embalados a seco de acordo com a IEC 60749-20…………….. 8

6.6 Condições de imersão para SMD não embalados a seco de acordo com a IEC 60749-20

6.7 Refluxo de solda…………………… ………. 9

6.7.1 Procedimento de refluxo de solda……………….. 9

6.7.2 Acessório de solda após refluxo………………….. 9

6.8 Simulação de aplicação de fluxo (opcional)………………. 10

6.8.1 Aplicativo de fluxo………………………………… 10

6.8.2 Limpeza e secagem após aplicação de fluxo…………. 10

6.9 Medidas finais……………………………….. 10

6.9.1 Ensaio elétrico………………………. 10

6.9.2 Inspeção visual………………………. 10

6.10 Ensaios de confiabilidade aplicáveis……………… 10

7 Sumário………………… ………………… 10

Tabela 1 – Fluxo da sequência de pré-condicionamento – Método A (condição A2) de acordo com a IEC 60749-20 (dispositivos embalados a seco) ……………………………. 11

Tabela 2 – Fluxo de sequência de pré-condicionamento – Método B (condições B2 a B6) de acordo com a IEC 60749-20 (dispositivos embalados a seco) ………… …………………. 11

Tabela 3 – Fluxo da sequência de pré-condicionamento – Condições A1 e B1 de acordo com a IEC 60749-20 (dispositivos não embalados a seco) ………………………………… 12

A correlação das condições de sensibilidade ao estresse, induzido pela umidade (moisture sensitivity levels – MSL)) de acordo com a IEC 60749-20 e este documento e as condições reais de refluxo usadas, dependem da medição de temperatura idêntica pelo fabricante do semicondutor e pelo montador da placa. Portanto, a temperatura na parte superior da embalagem do SMD, mais quente e sensível à umidade durante a montagem, deve ser monitorada para garantir que não exceda a temperatura na qual os componentes são avaliados. Para a finalidade deste documento, é restrito incluir apenas os SMD encapsulados em plástico e outras embalagens feitas com materiais permeáveis à umidade.

 

Um conceito pouco conhecido: a probabilidade de conformidade (probability of compliance)

probabilidadePaulo Afonso Lopes

O objetivo de muitas análises é avaliar a conformidade aos valores limites fixados em regulamentos ou em especificações comerciais. A conformidade pode exigir a quantidade de um mensurando especificado estar acima ou abaixo de um limite único de especificação ou dentro de um intervalo com um limite superior e um limite inferior.

Em alguns casos, o resultado, incluindo a sua incerteza de medição, será diferente do valor limite para que se possa afirmar que há conformidade; em outros, o grau de conformidade não estará claro e decisões deverão ser tomadas com base em critérios probabilísticos. Para o valor de uma amostra, há três cenários referentes a essas especificações: somente limite superior, somente limite inferior e limites inferior e superior.

Para o do desvio padrão da amostra, por ser medida de variabilidade, apenas o limite superior. Os exemplos referem-se somente a ensaios com um limite superior de especificação, em que a faixa de aprovação de resultados é aquela abaixo desse limite, que não deve ser ultrapassado.

Um problema a resolver

A Resolução 432 de 23 de janeiro de 2013 do Conselho Nacional de Trânsito (Contran) não permite nenhuma quantidade de álcool no sangue do condutor, que será autuado administrativamente por qualquer concentração de bebida. Entretanto, para caracterizar o crime previsto no art. 306 do Código de Trânsito Brasileiro (CTB), um dos critérios é o exame de sangue apresentar resultado igual ou superior a 6 (seis) decigramas de álcool por litro de sangue (6 dg/L), e as pessoas que decidem com base em limites legais devem ser capazes de responderem a perguntas do seguinte tipo: uma concentração de 6,1 dg de álcool por litro de sangue de um motorista é muito significativamente maior do que o limite legal de 6 dg/L?

As decisões podem ser baseadas somente no resultado pontual. Com base apenas no valor obtido na amostra observada, as situações e decisões que podem haver são as seguintes (Figura 1):

Casos 1 e 2. O resultado se encontra abaixo do limite superior de especificação: resultado CONFORME.

Casos 3 e 4. O resultado se encontra acima do limite superior de especificação: resultado NÃO CONFORME.

(CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO)

estatistica1

Figura 1 – Casos em que a decisão se baseia apenas no resultado pontual

Entretanto, não há a certeza de que o resultado (valor pontual) na amostra forneceu o valor da população. Nesse caso, retira-se uma segunda amostra para verificar, e o resultado é outro. Como saber onde está a verdade? Retira-se, então, uma terceira amostra, uma quarta, mais resultados diferentes, e assim por diante. Como resolver?

Ao se observar todos os resultados, verifica-se uma variação deles e, por meio dessa variabilidade, determina-se o denominado intervalo de confiança, no qual pode pertencer, com uma determinada probabilidade, o valor da população. As afirmações feitas a respeito do parâmetro da população sempre devem vir acompanhadas de um grau de confiança, ou grau de certeza; significando o quanto se está certo ao comunicar essa informação, que tem um risco, que é probabilidade associada a uma decisão errada.

A probabilidade do valor da população se encontrar no intervalo de confiança, centrado na estimativa pontual e com variação negativa e positiva em torno dessa estimativa pontual é, usualmente, igual a 95%. Isso quer dizer que há uma probabilidade de 95% do valor da população ser qualquer um dentro desse intervalo. Quando da estimativa de um resultado com sua incerteza de medição, esse intervalo passa a chamar-se intervalo de abrangência.

As decisões podem ser baseadas somente na amplitude do intervalo de abrangência. Todos os resultados analíticos têm a forma “C k.u” ou ” C U”, onde “C” é a melhor estimativa do valor da concentração do mensurando, k é o fator de abrangência, “u”, escrito em minúsculas, é a incerteza padrão, e “U”, escrito em maiúsculas, é a incerteza expandida, igual a k.u. O valor de “2k.u”, igual a “k.U”, é a amplitude do intervalo de abrangência, dentro do qual se encontra o valor da concentração com elevada probabilidade, usualmente 95%.

Tem-se as seguintes situações e decisões (Figura 2):

  1. O resultado se encontra abaixo do limite superior de especificação, mas todo o intervalo de abrangência está abaixo desse limite: resultado CONFORME, embora haja uma probabilidade de 5% de ser não conforme.
  2. O resultado se encontra abaixo do limite superior de especificação, mas o intervalo de abrangência contém esse limite superior, resultado pode estar CONFORME ou NÃO CONFORME, porque há uma probabilidade de 95% desse intervalo de abrangência conter o valor do parâmetro da população, ou seja, o valor da população pode estar acima do limite superior de especificação:
  3. Semelhante ao Caso 2, em que o resultado se encontra acima do limite superior de especificação.
  4. O resultado se encontra acima do limite superior de especificação, mas todo o intervalo de abrangência está acima desse limite: resultado NÃO CONFORME, embora haja uma probabilidade de 5% de ser conforme.

estatistica2

Figura 2 – Casos em que a decisão se baseia estritamente na amplitude do intervalo de abrangência

Para os Casos 2 e 3, tem-se duas situações de cada um deles: na primeira (Casos 2a e 3a), a probabilidade de que o resultado seja considerado CONFORME é “elevada” e, na segunda (Casos 2b e 3b), essa probabilidade de ser CONFORME é “baixa” (Figura 3).

A probabilidade do resultado ser considerado CONFORME denomina-se PROBABILIDADE DE CONFORMIDADE.

estatistica3

Figura 3 – Casos em que a decisão se baseia na posição do intervalo de abrangência

Pode-se fazer um exemplo numérico de decisões baseadas na amplitude do intervalo de abrangência. Nos casos legais, deve-se estar certo de que o limite foi excedido, ou seja, o limite de decisão para se agir não é, necessariamente, igual ao valor do limite superior de especificação.

Considere-se 6 dg/L como o limite superior para o nível de álcool no sangue de um motorista. Para as concentrações nominais de 3, 5, 7 e 9 dg/L, as seguintes incertezas de medição foram determinadas:

  1. 3,00 ± 1,32 dg/L
  2. 5,00 ± 1,98 dg/L
  3. 7,00 ± 2,06 dg/L
  4. 9,00 ± 2,20 dg/L

Na Situação 1, o intervalo de abrangência é de 1,68 a 4,32 dg/L, completamente abaixo do limite 6 dg/L, resultado CONFORME.

Na Situação 2, o resultado está abaixo do limite, o que pode levar à decisão de considerar o resultado como CONFORME. Entretanto, esse está se aproximando do limite e o intervalo de abrangência tem como limite superior 6,98 dg/L e, então, as amostras futuras devem ser examinadas com maior cuidado, porque há uma probabilidade de que a população exceda esse limite e o resultado seria julgado NÃO CONFORME.

Na Situação 3, o resultado encontra-se acima do limite superior de especificação, mas o valor da população se encontra no intervalo de abrangência, que vai de 4,94 a 9,06 dg/L. Por esse motivo, pode-se relatar que a amostra contém não menos que 4,94 dg/L e, por esse motivo, não se garante que o limite superior foi excedido e nenhuma ação seria tomada.

Na Situação 4, o intervalo de abrangência é de 6,80 a 11,20 dg/L, completamente acima do limite 6 dg/L, resultado NÃO CONFORME.

O conceito de “faixa de proteção” (guard band)

Como podem haver decisões diferentes, dependendo da posição do intervalo de abrangência, há uma sutil diferença quando se tomam decisões com base nessa posição: nos casos legais, deve-se estar muito certo (usualmente com probabilidade maior que 95% ou 99,9%) de que o verdadeiro valor do mensurando está ACIMA do permitido.

Entretanto, no que se refere a uma especificação de um produto, deve-se estar certo (usualmente com probabilidade maior que 95%) de que o verdadeiro valor do mensurando está ABAIXO de uma determinada especificação. O procedimento adotado é relatar os resultados afirmando que a amostra contém “não menos que o valor “C – U””, nas situações em que a especificação é uma concentração máxima admissível.

O conceito de “faixa de proteção” nos casos legais

Considere-se o seguinte: um motorista foi parado, fez o teste com o etilômetro, sendo reprovado. Foram retiradas amostras de sangue, cujo resultado a respeito da concentração de etanol foi de (6,1 ± 0,09) dg/L (adotando-se k=2).

Sabendo-se que o limite máximo permitido é de 6 dg/L, o motorista deve ser indiciado pelo crime previsto no art. 306 do CTB? Nesses casos legais, deve-se estar muito certo (com probabilidade maior que 99%) de que o verdadeiro valor do mensurando está ACIMA do máximo permitido.

Por essa razão, determina-se um LIMITE DE DECISÃO ACIMA do limite superior de especificação, de acordo com a seguinte expressão:

Limite de decisão LD = Limite superior de especificação LSE + k.u,

onde:

  • k é o valor da abscissa t, unilateral, da distribuição de Student; se usada a distribuição de Gauss, k=1,65 para uma probabilidade de conformidade de 95% e k=3,09 para uma probabilidade de conformidade de 99,9%, e
  • u é a incerteza padrão, calculada a partir da incerteza expandida por u = U/k. onde agora k é dado pela memória de cálculo da incerteza de medição.

O valor k.u denomina-se faixa de proteção, ilustrada pela Figura 4.

estatistica4

Figura 4 – Conceito de faixa de proteção para limite superior nos casos legais

Conclusão: nos casos legais, um resultado deve ser considerado NÃO

CONFORME somente se o Limite de Decisão for ultrapassado.

Retornando à situação do motorista que foi parado, fez o teste com o etilômetro, sendo inicialmente reprovado, e cuja análise de sangue foi de (6,1 ± 0,09) dg/L (adotando-se k=2). Sabendo-se que o limite máximo permitido é de 6 dg/L, o motorista deve ser penalizado?

Neste caso, primeiramente deve-se determinar o valor de u. Para uma incerteza expandida U=0,09 dg/L com k=2, tem-se que u = U/k = 0,09/2 dg/L = 0,045 dg/L.

Após, o LD = LSE + k.u. Como nada se sabe a respeito do tamanho da amostra, adota-se o k da distribuição de Gauss; então, para 95% de confiança, k=1,65 e

LD (dg/L)= (6,00 + 1,65 x 0,045) dg/L = (6,00 + 0,07) dg/L = 6,07 dg/L.

Como 6,1 dg/L ultrapassa o Limite de Decisão, com 95% de certeza, o motorista deve ser penalizado.

Considere, agora, uma certeza de 99,9%. Nesse caso, k = 3,09 e

LD (dg/L)= (6,00 + 3,09 x 0,045) dg/L = (6,00 + 0,18) dg/L = 6,18 dg/L.

Como 6,1 dg/L não ultrapassa o Limite de Decisão, com 99,9% de certeza, o motorista não deve ser penalizado, agora com uma certeza de quase 100%.

A Resollução 432 do CONTRAN não estabelece qual probabilidade deve ser usada (95% ou 99%) para o limite de decisão, nem estabelece a maneira de cálculo desse limite com base nessa faixa de proteção.

O conceito de “faixa de proteção” nos casos comerciais

Considere que a fração de um analito em uma determinada amostra é 1,82 mg/kg com uma incerteza expandida igual a 0,20 mg/kg para k=2. Se o limite é, no máximo, 2,00 mg/kg, essa amostra pode ser considerada conforme?

A decisão tomada usualmente é a seguinte: se o resultado está abaixo de 2,00 mg/kg, ele é CONFORME; caso contrário, NÃO CONFORME.

Entretanto, no que se refere a uma especificação de um produto, deve-se estar certo (com probabilidade maior que 95%) de que o valor do mensurando está ABAIXO desse limite superior, o que conduz a um LIMITE DE DECISÃO ABAIXO do limite superior de especificação, de acordo com o seguinte:

Limite de decisão LD = Limite superior de especificação LSE – k.u,

onde:

  • k é o valor da abscissa t, unilateral, da distribuição de Student; se usada a distribuição de Gauss, k=1,65 para uma probabilidade de conformidade de 95% e k=3,09 para uma probabilidade de conformidade de 99,9%, e
  • u é a incerteza padrão, calculada a partir da incerteza expandida por u = U/k. sendo k fornecido pela memória de cálculo da incerteza de medição.

O valor k.u igualmente se denomina faixa de proteção, ilustrada pela Figura 5.

estatistica5

Figura 5 – Conceito de faixa de proteção para limite superior nos casos comerciais

Como conclusão, pode-se afirmar que, também nos casos comerciais, um resultado deve ser considerado NÃO CONFORME somente se o Limite de Decisão for ultrapassado.

Retornando ao exemplo numérico do analito, primeiramente deve-se determinar o valor de u. Para uma incerteza expandida U=0,20 mg/kg com k=2, tem-se que u = U/k = 0,20/2 mg/kg = 0,010 mg/kg.

Após, o LD = LSE – k.u. Como nada se sabe a respeito do tamanho da amostra, adota-se o k da distribuição de Gauss; então, para 95% de confiança,

LD (mg/kg)= (2,00 – 1,65 x 0,10) mg/kg = (2,00 – 0,165) mg/kg = 1,835 mg/kg.

Como 1,82 mg/kg, resultado da fração da massa de cádmio, é menor que o Limite de Decisão, com 95% de certeza, a amostra pode ser considerada CONFORME, por ter uma fração abaixo do limite superior de especificação.

Somente limite inferior de especificação para o valor da amostra

O raciocínio quando se tem somente o limite inferior de especificação é semelhante ao do somente limite superior. Nesse caso, para determinar os Limites de Decisão, as expressões são as seguintes:

  1. nos casos legais:

Limite de decisão LD = Limite inferior de especificação LIE – k.u,

  1. nos casos comerciais:

Limite de decisão LD = Limite inferior de especificação LIE + k.u.

Limites inferior e superior de especificação para o valor da amostra

Quando há os dois limites, o valor de k passa a ser o valor da abscissa t, bilateral, da distribuição de Student; se usada a distribuição de Gauss, k=1,96 para uma probabilidade de conformidade de 95% e k=3,27 para uma probabilidade de conformidade de 99,9%.

As expressões para determinar os Limites de Decisão, as expressões são as seguintes: nos casos legais, as faixas de proteção para os limites inferior e superior são dadas por (Figura 6):

Limite de decisão LD = Limite inferior de especificação LIE – k.u

Limite de decisão LD = Limite superior de especificação LIE + k.u,

estatistica6

Figura 6 – Conceito de faixa de proteção para limites inferior e superior nos casos legais

Nos casos comerciais, as faixas de proteção para os limites inferior e superior são dadas por (Figura 7):

Limite de decisão LD = Limite inferior de especificação LIE + k.u

Limite de decisão LD = Limite superior de especificação LIE – k.u,

estatistica7

Figura 7 – Conceito de faixa de proteção para limites inferior e superior nos casos comerciais

O conceito de “faixa de proteção” para o desvio padrão

Diferentemente da faixa de proteção quando se estuda o valor de uma amostra da população, para o desvio padrão tem-se apenas o limite superior, porque, em estatística deseja-se ter variabilidade mínima, ou seja, o importante é apenas o limite superior de especificação, com uma faixa de proteção de se estar certo (usualmente com probabilidade maior que 95%) de que o verdadeiro valor do desvio padrão está abaixo do máximo desvio padrão permitido (MDPP).

A Figura 8 ilustra o relacionamento entre o MDPP e o limite de decisão.

estatistica8

Figura 8 – Faixa de proteção para o desvio padrão da população

No caso do valor da população, essa faixa de proteção é igual a um certo número de desvios padrão (k,u). No caso do desvio padrão da população, o conceito é semelhante, A distância entre o MDPP e o LD é igual a um certo número de desvios padrão. No caso do valor da população, determinava-se o LD somando-se k.u ao LSE:

LD = LSE + k.u.

Entretanto, no caso do desvio padrão, não pode ser feita essa soma direta, porque os cálculos são realizados com as variâncias e o relacionamento passa a ser do seguinte modo:

LD2= k.MDPP2

Para se poder determinar o valor do LD, tem-se o valor de MDPP, mas não o de k. Entretanto, k= LD2MDPP2.

O valor de k é o resultado da divisão de duas variâncias, fração que é modelada pela distribuição F de Snedecor. Com base nessa distribuição, determina-se o valor da abscissa k que limita à direita da distribuição F uma probabilidade de 5% (equivalente a ter-se 95% de probabilidade à esquerda dessa abscissa), com graus de liberdade do numerador igual ao tamanho da amostra menos 1 e graus de liberdade do denominador igual a infinito, por ser o MDPP admitido como sendo o ideal da população.

Determinado o valor de k, finalmente chega-se ao valor do LD:

LD= k MDPP

Exemplo numérico para a “faixa de proteção” para o desvio padrão

Após 20 medições em um ensaio, até quando se deverá considerar uniforme a variabilidade dessas medições, ou seja, a partir de qual valor o desvio padrão deverá ser rejeitado?

Nesse caso, n = 20, e os graus de liberdade são 19. No Excel, determina-se o valor de k = 1,586501461 na distribuição F, conforme ilustra a Figura 9.

estatistica9

Figura 9 – Determinação do valor de k

Extraindo-se a raiz quadrada de k, tem-se que: 1,586501461= 1,259564, aproximado para 1,26. Finalmente, LD = 1,26 MDPP, ou seja, decide-se rejeitar o valor do desvio padrão se esse for maior que 1,26 vezes o MDPP.

Paulo Afonso Lopes é estatístico e membro da Academia Brasileira da Qualidade (ABQ) – pauloafonsolopes@uol.com.br

O líder da Qualidade Total

progressLembrando Armand V. Feigenbaum, o integrador da gestão de qualidade organizacional

Gregory H. Watson

Armand Vallin Feigenbaum, ou “Val” para os seus muitos amigos, nasceu em uma época diferente. Em sua juventude, ele trabalhou como ferramenteiro na General Electric (GE) e se aproveitou dos benefícios educacionais excepcionais da GE para ganhar um diploma de bacharel em engenharia pela Union College em Schenectady, NY, seguido de um mestrado e doutorado em engenharia econômica do Instituto de Tecnologia de Massachusetts em Cambridge.

Seu início de carreira foi impulsionado pela falta de engenheiros durante a Segunda Guerra Mundial, e ele subiu rapidamente na estrutura de gestão da GE até se tornar diretor de fabricação e qualidade, cargo que ocupou por dez anos antes de fundar a General System com o seu irmão, Donald.

Feigenbaum é mais conhecido pelas várias edições do seu livro clássico Controle da Qualidade Total (Total Quality Control), que foi uma expansão de um artigo que escreveu para a Harvard Business Review em 1956. Feigenbaum faleceu em 13 de novembro com a idade de 94.

Pioneiro da Qualidade

Entre suas principais reconhecimentos são a outorga da Medalha Nacional de Tecnologia pelo presidente George W. Bush, a eleição para a Academia Nacional de Engenharia, três doutorados honorários, e a seleção como membro honorário da ASQ e da International Academy for Quality (IAQ). Feigenbaum contribuiu com muita energia para o movimento da qualidade desde o seu início. Ele era um membro pioneiro da ASQ e foi a única pessoa que foi seu presidente por dois mandatos.

Como funcionário da GE, procurou reconstruir suas operações na Europa após a II Guerra Mundial, Feigenbaum focou seus esforços na reconstrução da fabricação e na qualidade pela Europa, onde ele foi um catalisador na criação da European Organization for Quality (EOQ).

Junto com seus colegas internacionais de qualidade, Kaoru Ishikawa (Union of Japanese Scientists and Engineers – JUSE e Walter A. Masing (representando a EOQ), Feigenbaum foi um dos três indivíduos que são creditados como fundadores do IAQ. Feigenbaum em toda a sua vida serviu como um modelo de total compromisso com a qualidade.

GE: um ambiente intelectual estimulante

No início de sua carreira, Feigenbaum teve o privilégio de trabalhar em uma empresa que não só respeitava a educação, mas também a incentivava fortemente. Naquela época, a GE tinha um ambiente excepcionalmente rico, onde a busca da melhoria contínua permeava tudo. Esta cultura estimulou a inovação centrada no desenvolvimento de métodos de engenharia para a produção e seus sistemas de suporte relacionados.

Depois de seu trabalho no gerenciamento de projetos, Feigenbaum passou a ser um executivo chave no desenvolvimento do centro de aprendizagem da GE em Crotonville, NY. Neste ambiente altamente inspirador, os contemporâneos de Feigenbaum também contribuiram com idéias que se fundiram em sua perspectiva de qualidade total.

Ralph E. Wareham (1914-2006) se considerava um engenheiro de qualidade. Depois de receber um diploma de bacharel em matemática pela Universidade de Iowa, Wareham juntou-se à GE e trabalhou em qualidade. Ele estudou com Walter A. Shewhart por meio de um programa de intercâmbio que a GE mantinha com a AT & T Bell Laboratories.

Wareham foi o autor de um dos capítulos sobre Controle Estatístico do Processo que está incluído no livro de Feigenbaum de 1951: Quality Control (este livro foi o núcleo inicial do livro de Feigenbaum: Total Quality Control ou Controle da Qualidade Total, publicado pela primeira vez em 1961). Wareham foi um dos seis instrutores para o curso de controle estatístico do processo que foi desenvolvido por Eugene L. Grant para as empresas de manufatura nos Estados Unidos durante os anos de guerra.

Wareham foi o segundo presidente da ASQ. Ele demonstrou total compromisso com a qualidade, permanecendo ativo na ASQ até sua morte. A ênfase de Wareham em métodos estatísticos para controlar a qualidade foi um dos elementos chave da abordagem de Feigenbaum da qualidade total.

Harry A. Hopf (1882-1949) se considerava um engenheiro de gestão. Ele aplicou os princípios da gestão científica para o trabalhadores de colarinho branco e, em 1953, a GE publicou uma coleção dos seus trabalhos que ele escreveu nas décadas de 1930 e 1940 como New Perspectives in Management ou As Novas Perspectivas em Gestão.

A coleção de documentos de Hopf ilustra a aplicação de princípios de gestão científica para negócios de seguro de vida da GE. É interessante notar como ele enfatizou a construção de um sistema de medição de som e gestão participativa para orientar os processos das organizações, como métodos estatísticos e as relações humanas são pilares do movimento moderno de qualidade.

“O poder de tomada de decisão deve ser colocado tão perto quanto possível do ponto de onde se origina a ação”, escreveu Hopf. Nesta ênfase, ele ecoa Mary Parker Follett (autor de The Creative Experience) e Chester I. Barnard (autor de The Functions of the Executive).

A extensão dos princípios da administração científica e a integração com idéias participativas de Hopf contribuiram com dois elementos para a abordagem de Feigenbaum na qualidade total.

Lawrence D. Miles (1904-1985) se considerava um engenheiro de valor. Ele trabalhou na GE no setor de compras e atuou para melhorar a produtividade e os custos de material fornecido, descrevendo seu método em Techniques of Value Analysis ou Técnicas de Análise de Valor.

A abordagem de Miles e a engenharia de valor aplicadas às ferramentas de criatividade, como o brainstorming, foi muito popularizada por Alex F. Osborne (autor de Applied Imagination ou Imaginação Aplicada) para desenvolver alternativas, de baixo custo, para fornecer a mesma funcionalidade dos produtos por meio do uso de material diferente ou alterações de design. Atualmente, a engenharia de valor é necessária em todos os principais contratos do Departamento de Defesa dos EUA.

A ênfase de Miles na relação custo eficácia das operações e materiais também enriqueceu a idéia de Feigenbaum para a qualidade total. Em uma entrevista em 2006 à Quality Progress (QP), Feigenbaum reconheceu que a engenharia de valor estava fazendo uma grande contribuição para o kit ferramenta utilizada para a melhoria da qualidade total.

Misturando uma abordagem de sistemas coerentes

As idéias de Feigenbaum também foram estimuladas por uma variedade de pares dentro da comunidade de qualidade pós-Segunda Guerra Mundial. Muitos foram os pioneiros na criação da American Society for Quality Control (ASQC), o nome original da American Society Quality – ASQ), e vários envolvidos na criação do IAQ.

Estas pessoas foram: Leon Bass, Charles A. Bicking, Paul C. Clifford, Simon Collier, W. Edwards Deming, George D. Edwards, Eugene C. Fisher, Joseph M. Juran, E. Jack Lancaster, Sebastian B. Littauer, Julius Y. McClure, Thomas C. McDermott, R. Ellis Ott, William R. Pabst, Leslie Simon e Shewhart. Eles foram ativamente engajados no desenvolvimento do núcleo do conhecimento da moderna qualidade (QBoK), e seus engajamentos evoluíram a partir de atividades que foram relacionadas com o apoio das indústrias de guerra.

Antes do desenvolvimento de Feigenbaum dos conceitos da qualidade total, havia duas escolas de pensamento dominantes sobre qualidade:

  1. Durante a primeira metade do século passado, Deming, Harold F. Dodge, Grant, Ott, Harry Romig e Shewhart estavam focados na utilização de métodos estatísticos para conseguir produtos de alta qualidade por meio de uma combinação de testes de aceitação e controle estatístico de processo.
  2. No início de 1950, Deming, Juran e Peter Drucker enfatizaram os sistemas baseados em gestão para melhorar o desempenho da fabricação e as práticas de negócios com forte ênfase nos aspectos das relações humanas.

Feigenbaum serviu como um integrador intelectual de sistemas para o pensamento da qualidade. Ele avançou na gestão de tecnologia por meio da definição de uma nova abordagem de qualidade baseada na economia e na engenharia industrial, que incluiu a disciplina de engenharia emergente relacionada com sistemas e ciência da administração. Ele combinou isso com os conhecimentos estatísticos preexistentes e de gestão, e essa integração resultante foi chamada de qualidade total.

Contribuição intelectual pessoal

As principais contribuições por Feigenbaum foram documentadas em seu livro de 1961, Total Quality Control ou Controle da Qualidade Total, que passou por atualizações em três edições para se manter em moda durante os últimos 50 anos. De acordo com Feigenbaum, a qualidade deve ser enfatizada por causa de três fatores:

  1. Os clientes continuam a aumentar sua exigência para o desempenho em qualidade dos produtos e serviços. Isso amplia muito a concorrência para a ganhos de market share, oferecendo maior valor percebido do que está disponível a partir de outros fornecedores de produtos ou serviços semelhantes.
  2. Devido ao aumento da demanda por produtos de maior qualidade, as abordagens tradicionais, práticas e técnicas para entregar resultados de qualidade tornaram-se obsoletas, e o desempenho de qualidade já não pode ser considerado como valor agregado. Em vez disso, tornou-se uma qualificação de base em concorrência comercial.
  3. Os custos da qualidade não são visíveis, mas escondido nos relatórios financeiros de gestão da maioria das organizações. Estes custos são muitas vezes maior do que o lucro alcançado pelos produtos. Para algumas organizações, estes custos podem ser tão altos a ponto de comprometer a sua posição competitiva no mercado.

Feigenbaum disse que se estes são os fatores que motivam a gestão para desenvolver uma capacidade forte de qualidade, o controle da qualidade total (Total Quality Control – TQC) é a resposta para assegurar uma organização com um sistema robusto que ofereça qualidade em todas as áreas de suas operações de negócios. Então, o que ele quis dizer com TQC?

Controle da qualidade total

Feigenbaum definiu o TQC como: “Um sistema eficaz para integrar os esforços de desenvolvimento, manutenção e de melhoria da qualidade dos vários grupos em uma organização, de modo a permitir produtos e serviços com níveis mais econômicos que permitam a plena satisfação do cliente” Considere cada palavra na frase “controle da qualidade total” e o que ela contribui para a definição global do TQC:

Total: Feigenbaum acreditava que o engajamento total de uma organização é necessário para garantir a qualidade. Por isso, ele quis dizer que todos, em todas as camadas da estrutura organizacional e em todas as áreas funcionais, têm o dever de garantir a qualidade do seu trabalho e os resultados fornecidos para os clientes externos.

Desta forma, a qualidade não é delegada só aos trabalhadores do chão de fábrica, pois o resto da organização deve ser capaz de realizar o seu trabalho para entregar o valor consistentemente elevado que satisfaça os clientes. Feigenbaum identificou este esforço como “a principal responsabilidade da gestão geral e das operações de marketing, engenharia, produção, relações industriais, finanças e serviços, bem como a própria função de controle de qualidade”.

Qualidade: Feigenbaum disse que “Qualidade é, em sua essência, uma forma de gerir a organização”, A ideologia central de abordagem sistemática de Feigenbaum é resumida usando os seguintes conceitos de qualidade:

  • Qualidade é um processo organizacional.
  • Qualidade é o que o cliente diz que é.
  • Qualidade e custo são uma soma, não a diferença.
  • Qualidade requer fanatismo individual e trabalho em equipe.
  • A qualidade é uma forma de gerir.
  • Qualidade e inovação são mutuamente dependentes.
  • Qualidade é uma ética.
  • Qualidade requer melhoria contínua.
  • A qualidade é a rota do capital intensivo menos rentável para a produtividade.
  • Qualidade é implementada como um sistema total ligado aos clientes e fornecedores.

A Qualidade de Feigenbaum enfatiza as atividades orientadas para o cliente da organização e exige que as atividades internas sejam conduzidas de forma disciplinada para que o resultado do controle da qualidade seja mantido no nível de expectativa do cliente.

Controle: Feigenbaum definiu controle como “um processo de delegação de responsabilidades e autoridades para a atividade de gestão, mantendo os meios de garantir resultados satisfatórios”. Ele descreveu quatro medidas para desenvolver o controle em um processo:

  1. Definir padrões.
  2. Apreciar a conformidade.
  3. Atuar quando necessário.
  4. Planejar para as melhorias.

O desenvolvimento de Feigenbaum da ideia da qualidade total foi influenciado por líderes individuais, bem como a atmosfera do pós-guerra após a Segunda Guerra Mundial.

Precursores intelectuais para a Qualidade Total

Em uma carta de 1675 a Robert Hooke, Sir Isaac Newton comentou: “Se vim mais longe, é porque eu estava sobre os ombros de gigantes”. Isso também é verdade para o desenvolvimento do pensamento de qualidade. Muitas pessoas contribuíram para o desenvolvimento da atmosfera intelectual e o diálogo gerencial a partir do qual Armand V. Feigenbaum criou seu conceito de controle da qualidade total (TQC) no final de 1950.

Feigenbaum é mais conhecido pelas várias edições do seu livro clássico, Total Quality Control (Controle da Qualidade Total), que foi construído sobre um livro anterior de 1951 sobre o controle da qualidade, que foi baseado um artigo que ele escreveu para a Harvard Business Review em 1956. Para entender de forma abrangente a ideia da qualidade total, é necessário aprender alguma coisa sobre esses precursores intelectuais e líderes de pensamento da época.

O pensamento histórico e o capital intelectual atual que foram discutidos durante os anos de formação de Feigenbaum como um estudante no Massachusetts Institute of Technology, onde estudou engenharia econômica, deram a forma ao seu desenvolvimento do conceito da qualidade total. Algumas ideias, em seguida, na vanguarda do pensamento de gestão, tiveram uma influência sobre o ambiente contemporâneo porque os livros dos líderes do pensamento foram leitura obrigatória para executivos bem informados.

As seguintes contribuições são apresentadas na ordem em que os conceitos foram entregues para consumo do público através de suas publicações principais:

Harrington Emerson (1853-1931), em seu livro, The Twelve Principles of Efficiency (Os 12 princípios da eficiência), apresentou um conjunto de características que devem ser incluídas como princípios e levar a um funcionamento mais eficaz de qualquer organização. Emerson foi um praticante do que foi chamado de “gestão científica”, embora ele não fosse particularmente alinhado com as ideias de Frederick W. Taylor (1856-1915), que havia se especializado no estudo de como os trabalhadores poderiam agilizar o trabalho. (Em seu livro, The Principles of Scientific Management – Os Princípios da Administração Científica, Taylor popularizou a tarefa de estudar o trabalho para aumentar a eficiência sem degradar a qualidade).

Emerson tinha uma perspectiva mais ampla de eficiência, e ele incluiu alguns aspectos que foram incorporados ao conceito de qualidade total de Feigenbaum. Emerson recomendou:

  • Ideais e objetivos claramente definidos.
  • Uso de bom senso.
  • Ouvir os conselhos de profissionais competentes.
  • Exercício da disciplina no local de trabalho.
  • Fornecer um acordo justo para os funcionários.
  • Manter registros de trabalho adequados, fiáveis ​​e imediatamente disponíveis.
  • Expedição ou controlar o tempo de trabalho nas organizações.
  • O estabelecimento de padrões de trabalho e cronogramas para o desempenho.
  • A padronização das condições de trabalho.
  • A padronização de operações de processos de trabalho.
  • Documentar as práticas como as instruções de trabalho.
  • Ligar a eficiência de desempenho aos sistemas de recompensa e compensação.

Henri Fayol (1841-1925) escreveu General and Industrial Management para descrever um processo sistemático de gestão: planejamento, organização, coordenação, comando e controle. Ele também introduziu muitas inovações gerenciais em sua organização como um executivo da indústria de mineração: análise estratégica por meio do planejamento de longo prazo (em um horizonte de dez anos), utilizando cenários alternativos, bem como programas de saúde e de aptidão do empregado.

Fayol observou que “a experiência é um professor caro” e que a gestão é uma “atividade que está espalhada por todos os membros da pessoa jurídica”. Ele imaginou o negócio como um sistema e disse que a gestão era responsável por manter a disciplina nos processos de trabalho, enquanto a manutenção era uma “busca constante de melhorias que podem ser introduzidas em cada esfera de atividade”.

Fayol incentivou os profissionais, membros da equipe técnica, a verificar que o “trabalho pessoal estava concluído” antes de apresentar quaisquer recomendações para a gerência sênior tomar as decisões. Assim, Fayol estimulou uma grande quantidade de pensar sobre os temas que viriam a se tornar elementos centrais do pensamento de qualidade total. Sua obra foi escrita em francês, e por isso só ficou amplamente disponível após a sua tradução para o inglês em 1949, apesar de suas ideias serem amplamente discutidas nos meios acadêmicos.

Mary Parker Follett (1868-1933) foi chamado de “O Profeta da Gestão” por Peter F. Drucker. Em seus livros, The New State e The Creative Experience (A experiência criativa), ele enfatizou a organização do grupo e reconheceu que, em uma organização, a autoridade não só corre verticalmente através de linhas estruturadas de autoridade, mas também pode fluir lateralmente através de processos informais que alcançam o reconhecimento através do “autoridade de sua experiência.”

Parker Follett cunhou a frase “liderança transformacional” e é considerado o criador do desenvolvimento organizacional e métodos de gestão participativa. Ela acreditava que o processo de controle deve se concentrar em fatos, e não em controlar as pessoas.

Afirmou que a coordenação das atividades representa uma terceira via para a gestão através de sistemas de integração e interfuncional que compartilham uma responsabilidade conjunta para as operações. Isso, ele acreditava, devem ser feito com todos no processo de gestão.

Eugene L. Grant (1897-1996) é talvez mais conhecido por seus ensinamentos relacionados com as ideias de Walter A. Shewhart sobre o controle estatístico do processo (statistical process control – SPC). Uma década antes, no entanto, ele foi um pioneiro no desenvolvimento de uma compreensão econômica das atividades dos engenheiros.

O livro de Grant, Principles of Engineering Economy (Princípios da Engenharia Econômica), explica os princípios relacionados com a aquisição de bens e equipamentos de apoio às operações de fabricação. Aborda as questões relacionadas com o custeio das instalações de produção e faz a análise de seu desempenho para garantir um retorno adequado ao investimento inicial dentro de um prazo razoável. O trabalho de Grant foi a base para Feigenbaum expandir seus conceitos relacionados com os efeitos econômicos da má qualidade e mudou a conversa a partir de considerações de orçamento de capital para um problema de gestão operacional.

Walter A. Shewhart (1891-1967) escreveu The Economic Control of Quality of Manufactured Product (O Controle Econômico da Qualidade do Produto Manufaturado), que pode ser considerado o começo da época da qualidade. Neste livro, ele identificou uma teoria de controle, que abrangeu os níveis de interpretação caótica ingênua do universo com as leis exatas de ciência.

A estabilidade de métodos de produção permite uma base de probabilidade para prever o desempenho futuro com base no domínio das condições causais que são identificadas e que alteram o desempenho e o resultado da qualidade do processo. Além da criação do SPC, Shewhart fez uma contribuição ainda maior que só foi parcialmente realizado: o desenvolvimento do capital intelectual para o movimento da qualidade pelo seu posicionamento dentro do fluxo do pensamento humano.

A filosofia pragmática que permeava os Estados Unidos naquele momento estava focada na aplicação dos métodos de controle estatístico. A urgência da necessidade de tais métodos que foi estimulado pela II Guerra Mundial fez com que muitos de suas ideias mais profundas passassem desapercebida até tempos recentes.

G. Elton Mayo (1880-1949) realizou os experimentos de Hawthorne na Western Electric no final de 1920 e documentou suas descobertas no livro The Human Problems of an Industrial Civilization (Os Problemas Humanos de uma Civilização Industrial). Mayo estudou os problemas de cansaço e monotonia na execução do trabalho repetitivo na produção. Em um resultado inesperado de seu estudo, ele descobriu que o aumento da motivação resultou de uma mudança percebida na ordem social, e isso teve um grande efeito nos aspectos de higiene do ambiente de trabalho.

Na verdade, a percepção de mudanças em um grupo de trabalhadores com a administração fez alterações tanto positivas como negativas para o seu ambiente. Em reconhecimento a essa observação, Mayo iniciou o estudo da motivação dos funcionários como um fator significativo para a melhoria da produtividade e lançou as bases do pensamento para futuros estudos de motivação por Frederick Herzberg e I. Abraham H. Maslow.

Chester I. Barnard (1886-1961) escreveu o livro mais influente sobre o tema da liderança, The Functions of the Executive (As Funções do Executivo). Barnard foi presidente da AT & T New Jersey e, em seguida, ocupou diversos cargos executivos importantes. Em seu livro, ele mudou a forma como a eficiência foi definida a partir de um estudo que foi o foco da abordagem científica de Taylor para gerenciar o trabalho a partir de uma definição mais ampla focada na construção de cooperação no âmbito da organização para atingir o seu objetivo global.

A eficiência do processo de trabalho, no âmbito do regime de Barnard, é apenas um aspecto da eficácia (isto é como uma pequena eficiência que está focada no trabalho e nas tarefas, o que denota que Barnard não utilizou esta nomenclatura de “little e” e “big E “que são usados ​​em um contexto semelhante ao utilizado por Joseph M. Juran de “little q” e ” Big Q” para a identificação de diferentes maneiras que a qualidade é aplicada em organizações), em comparação com eficiência ao nível estratégico (tipo “big E” de eficiência, o que aumenta a capacidade de a organização atingir o seu objetivo global).

Este tipo “Big E” de eficiência é alcançado através da obtenção de cooperação entre os processos informais da organização (com uma citação para a influência de Parker Follett) e por encontrar “zonas de indiferença” dentro de motivação dos trabalhadores. Estas zonas de conflitos internos dentro das organizações, muitas vezes, inibem a cooperação (um “nós contra eles” na divisão entre grupos funcionais) para a resolução de problemas em áreas onde os sentimentos dos subgrupos conflitantes são menos intensivos. Neste esquema de pensamento, a função mais importante do executivo é a comunicação de uma forma que promova a cooperação interna.

Herbert A. Simon (1916-2001) foi vencedor do Prêmio Nobel no campo da economia em 1978 e também recebeu vários prêmios em ciência da computação, inteligência artificial e psicologia cognitiva. Em seu livro mais importante, Administrative Behavior (Comportamento Administrativo), abordou muitos conceitos em torno da tomada de decisão organizacional e do conceito de racionalidade limitada.

Ele disse que a tomada de decisão requer três etapas:

1. Identificação e descrição de todas as alternativas.

2. Compreender as potenciais consequências de cada alternativa.

3. Comparar os resultados potenciais destas decisões.

A racionalidade limitada significa que as decisões devem ser tomadas no contexto das restrições impostas à organização. Simon descreveu duas maneiras de ver as aplicações da ciência  pela primeira vez como uma construção teórica, como fez em seu livro, e em um segundo plano como práticas pragmáticas administrativas das organizações para melhorar.

Feigenbaum não se concentra nos aspectos teóricos da ciência administrativa. Em vez disso, ele optou por se concentrar na abordagem pragmática de melhorar totalmente uma organização, criando a participação de um grupo inteiro para alcançar o nível de cooperação que Follett, Barnard e Simon descreveram como o ingrediente essencial para a criação da eficácia organizacional. (GHW)

Referências bibliográficas

Armand V. Feigenbaum, Total Quality Control, McGraw-Hill, 1961, 1983 and 1991.

Armand V. Feigenbaum, “Total Quality Control,” Harvard Business Review, November-December 1956, pp. 93-100.

Harrington Emerson, The 12 Principles of Efficiency, Engineering Magazine, 1912.

Frederick W. Taylor, The Principles of Scientific Management, Harper & Brothers, 1911.

Henri Fayol, General Industrial Management, paperback edition, Martino Fine Books, 1916.

Mary Parker Follett, The New State, 1918, paperback edition, Kessinger Publishing, 2009.

Mary Parker Follett, The Creative Experience, Longmans, Green and Co., 1924.

Eugene L. Grant, Principles of Engineering Economy, fifth edition, Ronald Press, 1970.

Walter A. Shewhart, Economic Control of Quality of Manufactured Product, ASQ Quality Press, 1931.

G. Elton Mayo, The Human Problems of an Industrial Civilization, reprint edition, Routlege, 2003.

Chester I. Barnard, The Functions of the Executive, 30th anniversary edition, Harvard University Press, 1971.

Herbert A. Simon, Administrative Behavior, fourth edition, Free Press, 1997.

Resultados consistentes exigem liderança

Feigenbaum recomendou que os líderes empresariais façam a abordagem de melhoria de qualidade utilizando um conjunto de imperativos para focar os esforços de melhoria e dirigir ações de que eles enfatizam como a inovação de gestão baseada no princípio de que tudo o que você faz para fazer uma melhor qualidade torna tudo mais melhor. Essa visão de melhoria a partir de um ponto de vista de gestão de liderança envolve:

  • Fazendo liderança de qualidade como uma peça central de negócios para o crescimento da receita e da força competitiva.
  • Entrega de valor para os clientes como a motivação para a ação de melhoria.
  • Alcançar a satisfação do cliente completa, o que impulsiona a aceitação do comprador.
  • Desenvolver um fornecedor eficaz e outras parcerias de qualidade empresarial.
  • Maximizar a eficácia dos dados de qualidade.
  • Acelerar as vendas e os lucros de crescimento através de gestão dos custos de qualidade.
  • Formando um sistema integrado de qualidade que constrói os relacionamentos entre clientes, produtores e fornecedores.
  • Incentivar a utilização de ferramentas e recursos para criar uma ênfase a melhoria da qualidade individual.
  • Reconhecer que a qualidade é uma linguagem internacional de negócios.
  • Garantir a liderança de qualidade é a base para o comportamento ético de sucesso.

Infelizmente, os sistemas de medição, muitas vezes, escondem o verdadeiro impacto da perda de qualidade quando se examina a administração, pois os métodos de alocação de prática contábil não conseguem identificar as fontes de problemas de custo excessivo e obscurecem a relação causal para ações que são os resultados de respostas à má qualidade.

A qualidade total requer que todos assumam a responsabilidade para o efeito de seu trabalho sobre o nível ou grau de qualidade que é percebida pelo cliente, não só a qualidade do desempenho de um produto, mas também o grau em que se realiza o atendimentos às necessidades do cliente.

Custo da Qualidade

Usando a linguagem das finanças e introduzindo o conceito de custo de qualidade, Feigenbaum enfatizou que a qualidade deve ser gerida de forma ativa e ter visibilidade nos mais altos níveis de gestão. Quando Shewhart introduziu o conceito do custo econômico em seu livro de 1931, Economic Control of Quality of Manufactured Product (Controle Econômico da Qualidade do Produto Manufaturado), ele estava focando o custo da sucata e o retrabalho que ocorre quando os produtos não são produzidos certo da primeira vez.

Feigenbaum estendeu essa ideia de incluir a soma dos custos diretos e indiretos de fazer negócios de uma forma que cria a insatisfação do cliente. Essa ênfase era totalmente nova e não encontrada nas obras anteriores de Grant ou Shewhart. Philip B. Crosby mais tarde se tornou conhecido pela sua expansão sobre o custo da não conformidade e o custo da má qualidade, mas ele creditou à Feigenbaum a origem deste conceito. Posteriormente, Genichi Taguchi estendeu o conceito de Feigenbaum para incluir os custos incorridos pela sociedade que depois é liberado para a sociedade.

A colaboração da atmosfera durante a guerra

Outra influência significativa sobre Armand V. Feigenbaum foi o esforço coletivo que os americanos colocaram na produção em apoio à II Guerra Mundial. Um dos participantes nos esforços do tempo de guerra para apoiar a indústria americana no seu papel de “fábrica do mundo” foi Arthur M. Squires (1916-2012), autor de The Tender Ship: Governmental Management of Technological Change, que descreveu a sua experiência e os conhecimentos da forma como o governo usou as “técnicas dos mestres” para gerir a mudança.

Squires era um engenheiro químico que trabalhou no Projeto Manhattan. As técnicas dos mestres que Squires descreveu incluiu os cientistas do Projeto Manhattan, professores do Operations Evaluation Group (OEG) e professores de estatísticas industriais do War Production Board. As percepções desses grupos foram capturadas em uma série de publicações do pós-guerra que criaram as profissões de engenheiro da qualidade e de analista de operações de qualidade, entre outras.

Enquanto o Projeto Manhattan é familiar para a maioria das pessoas, e a maioria dos profissionais de qualidade estão cientes dessas realizações estatísticas industriais, nem todo mundo pode estar familiarizado com o OEG. Ele foi estabelecido como um centro de pesquisa e de recrutamento para o envio de matemáticos e cientistas nos navios de guerra durante a Segunda Guerra Mundial, para estudar a guerra e determinar como melhorar as operações navais. Este grupo foi responsável pelo desenvolvimento de operações de investigação como uma disciplina para a melhoria dos processos através da modelagem matemática.

Outra lição aprendida com o esforço de guerra foi o valor da construção de organizações profissionais civis de gestão. Isso encorajou os criadores da American Society for Quality Control (ASQC), nome anterior da ASQ, com base nos grupos locais que, agrupados em torno de cidades que estavam profundamente envolvidas no esforço de defesa, foram formados para expandir o uso dos métodos de qualidade.

O estímulo para a criação da qualidade total incluiu uma dose saudável de inspiração a partir da aplicação do pensamento científico de problemas para melhorar o estado de guerra durante a Segunda Guerra Mundial e de transferir a competência técnica na qualidade alcançada durante os anos de guerra para a próxima geração dos Estados Unidos. Um dos principais ingredientes tinha sido a aplicação maciça dos métodos estatísticos para melhorar a qualidade dos sistemas de produção de guerra americanos de uma indústria que a General Electric (GE) e o jovem Feigenbaum apoiaram profundamente.

Feigenbaum era um gerente de programa em tempo de guerra na na unidade GE Aircraft Engines desenvolvendo os primeiros motores para os jatos de combate que foram usados ​​no F-80 Shooting Star da Força Aérea. Este projeto de transição, desde a concepção até o voo do protótipo em apenas 143 dias, mais tarde foi modificado para se tornar no F-84 Starfire, que voou durante a Guerra da Coréia.

Depois de liderar esses projetos, a GE atribuiu a Feigenbaum como gerente de projeto para desenvolver o motor para o primeiro caça a jato de propulsão nuclear usando o motor da GE de ciclo de ar direto. O programa foi cancelado antes que um protótipo fosse foi desenvolvido. No entanto, a atribuição mostrou à alta administração da GE os esforços realizados por Feigenbaum. Tal era o ambiente intelectual no momento em que a ideia para a qualidade total cristalizou na mente de Feigenbaum.

Feigenbaum tinha a mente certa, no momento certo para integrar o capital intelectual de sua época e forjar uma abordagem abrangente de gestão. A qualidade total foi um resultado natural das forças intelectuais se formando naquela época, mas era necessário uma pessoa de grande visão para transformar os elementos divergentes em um método abrangente. (GHW)

Referência bibliográfica

Arthur M. Squires, The Tender Ship: Governmental Management of Technological Change, Birkhäuser de 1986.

Fábrica oculta

Uma contribuição relacionada com Feigenbaum foi o seu conceito de “fábrica oculta” que gera desperdício e custos de qualidade. Isso acontece quando o trabalho extra é realizado para corrigir os erros de produção e é devido a:

  • Ordens mal formuladas que não recebem os requisitos certos do cliente.
  • Tempo que é desperdiçado em busca de peças perdidas ou substituição de peças de má qualidade.
  • Atividades necessárias para acelerar o desempenho quando os horários não são cumpridos por várias razões.

Ao considerar todas essas atividades, Feigenbaum estimou que até 40% da capacidade de produção ideal de uma planta podem ser perdidos porque as coisas não são feitas corretamente. Ele identificou essa perda com o que chamou de “fábrica oculta”, uma “fábrica” ​​que perde dinheiro dentro da fábrica que manufatura os produtos.

A ideia da fábrica oculta ainda existe hoje e pode ser observada no processo de perda de capacidade produtiva. Nas plantas em que os esforços para reduzir o desperdício através de métodos de qualidade e métodos Lean não eram praticados, e esta perda ainda pode ser tão alta estiamda em 40% da capacidade de produção projetada. O conceito da planta oculta ajuda a cristalizar a perda que ocorre quando a qualidade não está certa, principalmente do ponto de vista do cliente consumidor e do acionista.

Evoluindo o conceito de Qualidade Total

O conceito de qualidade total cresceu para fora da pesquisa acadêmica em estudos de doutoramento de Armand Feigenbaum, bem como de sua experiência prática e treinamento interno na General Electric (GE). Foram publicados os sistemas iniciais de gestão da qualidade entre 1922 e 1950 por George S. Radford, Egon Pearson, Leslie E. Simon e Paul Peach.

Somados a estes desenvolvimentos da aplicação de qualidade para as operações de fabricação, Feigenbaum inicialmente concentrou no desenvolvimento de um sistema de qualidade para a GE, que serviu suas necessidades e ele finalmente foi promovido a diretor de fabricação e organizador geral da qualidade.

O primeiro livro de Feigenbaum foi publicado em 1951 sob o título: Quality Control: Principles, Practice and Administration (Controle de Qualidade: Princípios, Práticas e Administração). Em 1951, Joseph M. Juran publicou seu Quality Control Handbook (Manual de Controle de Qualidade) com uma descrição abrangente do controle de qualidade. Este livro foi traduzido para o japonês e publicado sob o título de Total Quality Control (Controle da Qualidade Total). Não há evidências de que Feigenbaum estava ciente desta tradução, porque ele não tinha atividades no Japão e não tinha conhecimento do idioma japonês.

Em 1956, no entanto, Feigenbaum publicou um breve artigo na Harvard Business Review, que introduziu o conceito do controle total da qualidade no mundo ocidental. Este artigo descreveu o conceito de Feigenbaum e introduziu este tema, que ficou completamente formado em 1961 quando Feigenbaum publicou o seu livro baseado nesse artigo de 1951 e se tornou a sua principal contribuiçõa: Total Quality Control (Controle de Qualidade Total). (GHW)

Referências bibliográficas

George S. Radford, The Control of Quality in Manufacturing, The Ronald Press Co., 1922.

Egon Pearson, The Application of Statistical Methods to Industrial Standardization and Quality Control, British Standards Institute, 1935.

Leslie E. Simon, An Engineer’s Manual of Statistics, John Wiley & Sons, 1941.

Paul Peach, Industrial Statistics and Quality Control, Edwards and Broughton, 1943.

Armand V. Feigenbaum, Quality Control: Principles, Practice and Administration, McGraw-Hill, 1951.

Joseph M. Juran, Quality Control Handbook, 1951.

Izumi Nonaka, “The Recent History of Managing for Quality in Japan,” which appeared in Joseph M. Juran, ed., A History of Managing for Quality, ASQ Quality Press, 1995, p. 539.

Armand V. Feigenbaum, “Total Quality Control,” Harvard Business Review, November-December 1956, pp. 93-100.

Armand V. Feigenbaum, Total Quality Control, McGraw-Hill, 1961, 1983 and 1991.

O legado de Feigenbaum

O legado de Feigenbaum vem da integração dos conceitos de qualidade em um sistema de gestão de uma organização. Em seu livro, What is Total Quality Control? The Japanese Way (O que é o Controle da Qualidade Total? A maneira japonesa), Ishikawa creditou as idéias de Feigenbaum para o estímulo da abordagem japonesa de qualidade. O sistema japonês para a Total Quality Control (TQC) integrou os ensinamentos de Deming, Juran, Drucker em seus conceitos, juntamente com as ideias motivacionais de Frederick Herzberg I. e Abraham Maslow, todos interpretados dentro do contexto da tradição e cultura japonesas.

A abordagem sistêmica de Feigenbaum também pode ser observada no quadro criado para os critérios do Malcolm Baldrige National Quality Award, que codificou a sua abordagem global da qualidade como uma questão de negócios. Embora nenhuma ferramenta específica possa ser atribuída a Feigenbaum, ele entregou para a nossa comunidade algo talvez mais rico: a maneira mais ampla de pensar sobre o nosso trabalho e sua importância nas atividades da humanidade. De todos nós, obrigado, Val.

Referencias bibiográficas

Armand V. Feigenbaum, Total Quality Control, McGraw-Hill, 1961, 1983 and 1991.

Armand V. Feigenbaum, “Total Quality Control,” Harvard Business Review, November-December 1956, pp. 93-100.

Armand V. Feigenbaum, Quality Control, McGraw-Hill, 1951.

Feigenbaum, Total Quality Control, see reference 1.

Harry A. Hopf, New Perspectives in Management, Hopf Institute of Management/General Electric Co., 1953.

Mary Parker Follett, The Creative Experience, Longmans, Green and Co., 1924.

Chester I. Barnard, The Functions of the Executive, Harvard University Press, 1938.

Lawrence G. Miles, Techniques of Value Analysis, third edition, Lawrence G. Miles Value Foundation, 1989.

Alex F. Osborne, Applied Imagination, Bombay, 1961.

Thomas M. Kubiak, “Feigenbaum on Quality: Past, Present, and Future,” Quality Progress, November 2006, pp. 57-62.

Feigenbaum, Total Quality Control, see reference 1.

Walter A. Shewhart, Economic Control of Quality of Manufactured Product, ASQ Quality Press, 1931.

Kaoru Ishikawa, What is Total Quality Control? The Japanese Way, Prentice-Hall, 1988.

Bibliografia

Feigenbaum, Armand V., “Changing Concepts and Management of Quality Worldwide,” Quality Progress, December 1997, pp. 45-48.

Feigenbaum, Armand V., “How to Manage for Quality in Today’s Economy,” Quality Progress, May 2001, pp. 26-27.

Feigenbaum, Armand V., “Is It Any Surprise? World Class Companies Are Remarkably Similar!” Journal of Quality and Participation, March 1992, pp. 10-12.

Feigenbaum, Armand V., “Raising the Bar,” Quality Progress, July 2008, pp. 22-27.

Feigenbaum, Armand V., “The Power Behind Consumer Buying and Productivity,” Quality Progress, April 2002, pp. 49-50.

Feigenbaum Armand V. and Donald S. Feigenbaum, “The Future of Quality: Customer Value,” Quality Progress, November 2004, pp. 24-29.

Stratton, Brad, “Connecting With Customers and Other Sage Advice,” Quality Progress, February 1996, pp. 58-61.

Watson, Gregory H., “Feigenbaum’s Enduring Influence,” Quality Progress, November 2006, pp. 51-55.

Watson, Gregory H., “Total Quality—Total Commitment,” Quality Progress, November 2008, pp. 20-26.

Gregory H. Watson é presidente da Business Excellence Solutions Ltd., na Finlândia. Ele é um membro da ASQ e um ex-presidente e membro honorário da International Academy for Quality.

Fonte: Quality Progress/2015 January

Tradução: Hayrton Rodrigues do Prado Filho

Planos de amostragem e inspeção por atributos

É importante saber que a inspeção da qualidade é o processo de medir, ensaiar e examinar a unidade de produto ou comparar suas características com as especificações. A inspeção por atributos é aquela segundo a qual a unidade de produto é classificada simplesmente como defeituosa ou não (ou o número de defeitos é contado) em relação a um dado requisito ou conjunto de requisitos.

A unidade de produto é o elemento de referência na inspeção. Pode ser um artigo simples, um par, um conjunto, uma área, um comprimento, uma operação, um volume, um componente de um produto terminado ou o próprio produto terminado. A unidade de produto pode ou não ser igual à unidade de compra, de fornecimento, de produção ou de expedição.

A relação dos possíveis defeitos da unidade de produto pode ser classificado segundo sua gravidade. Um defeito da unidade de produto é a falta de conformidade a qualquer dos requisitos especificados. Os defeitos serão normalmente agrupados em uma ou mais das classes mencionadas a seguir, as quais podem ser desdobradas em subclasses.

O defeito crítico pode produzir condições perigosas ou inseguras para quem usa ou mantém o produto. É também o defeito que pode impedir o funcionamento ou o desempenho de uma função importante de um produto mais complexo. O defeito grave é considerado não crítico, mas pode resultar em falha ou reduzir substancialmente a utilidade da unidade de produto para o fim a que se destina. O tolerável não reduz, substancialmente, a utilidade da unidade de produto para o fim a que se destina ou não influi substancialmente no seu uso efetivo ou operação.

Há duas normas técnicas sobre o assunto. A NBR 5426 de 01/1985 – Planos de amostragem e procedimentos na inspeção por atributos estabelece planos de amostragem e procedimentos para inspeção por atributos. Quando especificada pelo responsável, deve ser citada nos contratos, instruções ou outros documentos, e as determinações estabelecidas devem ser obedecidas.

Os planos de amostragem podem ser utilizados, além de outros, para inspeção de: produtos terminados; componentes e matéria-prima; operações; materiais em processamento; materiais estocados; operações de manutenção; procedimentos administrativos e relatórios e dados. A NBR 5427 de 01/1985 – Guia para utilização da norma NBR 5426 – Planos de amostragem e procedimentos na inspeção por atributos fixa as instruções detalhadas e exemplos ilustrativos para aplicação e administração dos procedimentos de amostragem por atributos estabelecidos pela NBR 5426.

Deve-se afirmar que os planos de amostragem de inspeção por atributos da NBR 5426 têm, entre outros, os seguintes campos de aplicação: produtos terminados – os produtos terminados que podem ser inspecionados antes ou após embalagem e expedição para embarque ou armazenagem; componentes e matérias-primas – esses materiais podem ser inspecionados na origem, onde são fabricados, próximo à recepção no ponto de montagem, ou em qualquer lugar conveniente ao longo do processo de montagem, onde são formados os produtos terminados; operações – as operações de trabalho podem ser inspecionadas por amostragem para determinar se as máquinas de produção e operadores estão desempenhando satisfatoriamente o trabalho; materiais em processamento – os materiais podem ser inspecionados por amostragem para se determinar a qualidade após qualquer fase ao longo da linha de produção, bem como para se determinar a extensão do dano ou deterioração durante armazenagem temporária entre fases de produção, ou a qualidade antes do produto continuar até a próxima etapa do processo de produção; materiais estocados – os procedimentos e as tabelas de amostragem da NBR 5426 podem ser usadas para determinação da qualidade, de materiais estocados; operações de conserto – estas operações são normalmente executadas em materiais recuperáveis para restaurá-los à condição de poderem prestar serviços, pois se faz a inspeção por atributos, depois de tais operações terem sido executadas para determinar a qualidade do produto após conserto; procedimentos administrativos – se os resultados de procedimentos administrativos puderem ser medidos na base de atributos, os planos de amostragem e os procedimentos previstos na NBR 5426 poderão ser aplicados para sua avaliação e controle; dados ou relatórios – os procedimentos de inspeção por amostragem por atributos podem ser usados sempre que forem processadas grandes quantidades de dados (por exemplos: registros contábeis, dados de custo, pedidos, contas de fretes, etc.) como uma base para determinação da precisão e outras medidas da qualidade dos dados ou registros. No quadro abaixo há uma sequência típica de operações, quando se usam os procedimentos de amostragem e as tabelas de inspeção por atributos da NBR 5426.

CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO

atributo

A definição, a escolha e a aplicação do Nível de Qualidade Aceitável (NQA) podem ser discutidos. Por exemplo, na porcentagem defeituosa e defeitos por 100 unidades existem 16 valores específicos de NQA dados nas tabelas de amostragem da NBR 5426, variando de 0,01 a 10,0, que podem ser expressos tanto em “porcentagem defeituosa” quanto em “defeitos por cem unidades (DCU)”. Estão previstos ainda dez valores específicos de NQA de 15 a 1000 que devem ser expressos somente em termos de “defeitos por cem unidades”. Os valores de NQA foram escolhidos de tal forma que cada um é aproximadamente 1,5 vez maior do que o precedente.

Os tamanhos de amostra dependem, de um certo modo, do valor do NQA. O efeito do valor do NQA pode ser observado ao se examinar a Tabela 2 da NBR 5426 onde são mostradas uma série de flechas apontando para baixo e uma série de flechas apontando para cima. Sempre que uma flecha estiver apontando para baixo é usado o primeiro plano de amostragem abaixo da flecha. Sempre que uma flecha apontar para cima é usado o primeiro plano de amostragem acima da flecha.

tabela 2

Este procedimento é ilustrado com os seguintes exemplos:

a) usando-se a Tabela 2 da NBR 5426 e um NQA de 0,10%, o menor tamanho de amostras que pode ser escolhido é 125 unidades, não importa se aplica qualquer dos códigos literais de tamanho de amostra de A a J, conforme determinado na Tabela 1 da NBR 5426. Para um NQA de 1,0%, o menor tamanho de amostra é de 13 unidades.

b) usando a Tabela 2 da NBR 5426 e um NQA de 15 DCU, o maior tamanho de amostra pedido é de 80 unidades. Para um NQA de 1,0% com código literal de tamanho de amostra F, flecha aponta para cima para um tamanho de amostra de 13 unidades e número de aceitação zero.

Geralmente, à medida que o valor do NQA aumenta, os tamanhos mínimo e máximo de amostra diminuem. À medida que o NQA diminui, os tamanhos mínimo e máximo de amostra aumentam. Os valores do NQA dados nas tabelas da NBR 5426 são conhecidos como NQAs preferenciais. Não se aplicam estas tabelas se, para qualquer produto, for designado um NQA diferente dos NQAs preferenciais. Com isso, pretende-se limitar a quantidade de planos de amostragem a um número prático.

Para que se possa utilizar as tabelas é necessário igualar o NQA não preferencial ao valor próximo mais baixo de um NQA preferencial. Exemplo: suponha que o NQA especificado seja 5%. O valor do NQA preferencial de 4,0% é o que deverá ser designado se forem utilizados os planos de amostragem e os procedimentos da NBR 5426. Esta mudança para um valor mais baixo de NQA garantirá uma qualidade de produto tão boa ou melhor que a qualidade originalmente desejada.

A NBR 5426 estabelece três níveis gerais de inspeção e quatro níveis especiais de inspeção. Estes sete níveis permitem ao usuário equilibrar o custo de inspeção e a proteção da qualidade requerida. Os níveis gerais de inspeção de I a III são comumente usados em inspeção tipo não-destrutiva. Os níveis especiais S-1 a S-4 são comumente usados em inspeções tipicamente destrutivas ou de custo elevado onde são adequados pequenos tamanhos de amostra. Antes de se especificar o nível de inspeção, deve-se fazer uma detalhada análise dos seguintes fatores, de modo a melhorar a relação custo-risco. A análise deve incluir (não se limitando apenas a isso) o seguinte: a) as curvas características de operação (CCO) para avaliar as propriedades técnicas dos vários planos; b) o risco do fornecedor e a discriminação oferecida pelos vários níveis de inspeção; c) o conhecimento do processo de produção; d) o conhecimento da capabilidade do processo e a história do desempenho passado da qualidade; e) complexidade do item; f) o custo e a importância do exame ou ensaio, principalmente quando o ensaio é caro, demorado ou de caráter destrutivo; g) a importância das diversas características da qualidade que estão sendo examinadas, isto é, a gravidade das falhas geradas em casos de não conformidade; h) análise do risco do consumidor.

A NBR 5426 prevê três tipos de amostragem; simples, dupla e múltipla. Na norma são dadas informações gerais sobre estes tipos de planos de amostragem. As maiores diferenças entre esses tipos de planos de amostragem são ilustradas pelos exemplos que se seguem para os quais foram supostos os seguintes valores: a) tamanho de lote – 1.500 unidades; b) nível geral de inspeção – II; c) na Tabela 1 da NBR 5426, o código literal do tamanho de amostra é “K”; d) inspeção normal; e e) NQA de 1%.

Mapeamento do Fluxo de Valor

GLOSSÁRIO TÉCNICO GRATUITO

Selecione o idioma que deseja ordenar os termos técnicos:

de Português para Inglês

de Português para Espanhol

de Inglês para Português

de Espanhol para Português

Cristiano Bertulucci Silveira

“Se há um produto para um cliente, existe um fluxo de valor. O desafio consiste em vê-lo” Lean Enterprise Institute

Um fluxo de valor pode ser definido como o conjuntos de passos (valor agregado ou não) necessários para se ter um produto ou serviço. Abrange desde o estado de matérias-primas até a entrega do produto e satisfação do cliente. O Mapeamento do Fluxo de Valor (VSM) baseia-se na elaboração de um “mapa” que mostra como é o fluxo de materiais ou informações. Este mapa tem início na cadeia de fornecedores, passa pela empresa e finaliza no cliente, percorrendo todo o caminho do processo de transformação da matéria prima. Através da análise do mapa do fluxo de valor é possível entender  quais são as etapas agregam e retiram valor do produto, propor melhorias de processos e visualizar onde é possível aplicar ferramentas para redução de desperdícios e aumento de eficiência produtiva.

1 – Definição

Mapeamento do fluxo de valor

Figura 1- Mapeamento do fluxo de valor, favorece mentalidade enxuta :: Fonte:FreeDigitalPhotos.net

O VSM é uma ferramenta estratégica do negócio que possibilita enxergar o macro da produção. Por este motivo, ela é capaz de mostrar oportunidades de melhorias em cada etapa de produção. O mapeamento de fluxo de valor também é utilizado para identificar gargalos e atrasos nos processos produtivos. Assim é possível entender quais são as etapas que não agregam valor no produto final e então  criar uma linguagem comum do estado presente (retrato do que a empresa é hoje)  e estado futuro do processo (onde pretende-se chegar).

No mapeamento do fluxo de valor, os processos são divididos de três maneiras:

  • Aqueles que efetivamente geram valor;
  • Aqueles que não geram valor, mas são importantes para a manutenção da qualidade;
  • Processos que não geram valor e que devem ser evitados ou eliminados.

É importante reforçar que o mapeamento do fluxo de informações é tão importante quanto o mapeamento do processo. É natural que estes dois fluxos estejam interligados e o mapeamento deve contemplar ambos. Outrossim, é raro ter em uma empresa alguém que conheça todo o fluxo de valor de um produto. Assim, a análise detalhada do processo com a junção das informações é sempre necessária para que ações eficazes sejam articuladas visando atingir resultados ótimos globais.

2 – Componentes

Em um diagrama de VSM você encontrará:

  • O processo de controle global;
  • Fornecedores e os métodos de entrega;
  • Insumos dos fornecedores;
  • Os processos de trabalho (incluindo armazéns de estoque) através do qual os materiais se movimentam;
  • Desperdícios e saídas;
  • Os clientes e os métodos de entrega;
  • O fluxo de informação que coordena as etapas de processo;
  • Os tempos médios necessários em cada processo: tempo real de trabalho e tempo de sobrecarga;
  • A quantidade de pessoas envolvidas no trabalho.

3 – Como desenhar uma mapa de fluxo de valor?

Como a maioria das ferramentas relacionadas ao Lean e ao Six Sigma, há alguns passos gerais a seguir quando deseja-se criar mapas de fluxo de valor. Vejamos:

a – Identifique a família de produto e o processo a ser mapeado

Identifique claramente qual a família de produtos realmente é importante mapear. Lembre-se que é fundamental focar os esfoços em áreas mais críticas primeiramente.

b – Desenhe o processo atual

Reúna os gestores e os funcionários da linha de frente para desenhar o processo. É muito importante o envolvimento todos. Identifique as etapas envolvidas, pontos de início e fim do processo, informações de fornecedores, clientes externos, tempos envolvidos, etc. Identifique as etapas que consomem uma maior parcela dos recursos da organização ou que agreguem mais valor ou lucro. O mesmo deve ser feito para etapas que não agregam valor. Importante ressaltar que esta fase tem como premissa retratar o atual momento do processo e não o processo idealizado.

c – Avalie o fluxo de valor atual

Nesta avaliação, algumas perguntas básicas deverão ser respondidas. São elas:

  • Esta etapa do processo agrega valor ao cliente?
    • levantar quais processos de fabricação, medidas e tratamentos que agregam valor
  • Quais desperdícios estão sendo gerados?
  • Quanto e quais recursos estão sendo utilizados?
  • Qual é o tempo de espera entre os processos de fabricação?
  • Como posso eliminar ou reduzir os gargalos dentro do processo?
  • Como podemos implementar mudanças?
d – Crie o estado futuro do mapa do fluxo de valor

Agora que existe uma melhor compreensão do estado atual, estamos prontos para projetar como gostaríamos que fosse o processo. Normalmente, o objetivo é fazer o produto fluir melhor reduzindo a quantidade de inventário ou de espera entre etapas. Esta fase é onde deve-se imaginar e se esforçar para criar a imagem de como seria o fluxo ideal de trabalho. Novamente a participação de toda a equipe é fundamental.

e – Crie o plano de ação

Visto que todos sabem de que forma os processos estão funcionando hoje e como gostariam que ele fosse no futuro, é hora de formatar um plano de ação. Há uma grande variedade de modelos disponíveis para isto. Podem ser utilizadas as ferramentas Kaizen, Pensamento A3, 5Ws, DMAIC. Enfim, o intuito nesta fase é fazer com que a equipe entenda exatamente quais as ações importantes e o momento em que elas devem acontecer para que haja um movimento do estado atual para o estado desejado.

4 – Mapeamento do Fluxo de Valor (VSM) – Exemplo prático:

Vamos analisar um exemplo prático de indústria de manufatura onde o produto é acessórios de metal para portas e janelas. A fábrica é composta por 5 processos produtivos denominados: fundição, usinagem, polimento, pintura e montagem. A empresa também possui um sistema integrado de PCP (Planejamento e Controle da Produção) que gerencia todo o processo produtivo. Vejamos na Figura 2 abaixo como o VSM foi representado para este produto:

VSM - fluxo de valor

Figura 2 – Exemplo de um mapeamento do fluxo de valor para indústria de acessórios de metal

Visualizando a Figura 2, podemos entender como funciona o processo de produção de acessórios de metal para portas e janelas. Veja abaixo algumas conclusões:

  1. Existe uma cadeia de fornecedores de matéria-prima que realizam suas entregas via transporte rodoviário. Entre o pedido e o recebimento da matéria-prima, leva-se 1 dia (24h representados na linha do tempo) para que a entrega seja realiza;
  2. Quando a matéria prima chega, ela vai direto para a Fundição. Neste setor, temos 3 operadores trabalhando. O tempo de trabalho necessário para que o produto fique fundido (OCT) é de 24 horas. Existe ainda um  tempo de set-up (tempo de valor não agregado necessário para converter uma configuração de uma linha de produto para outra linha) de 1hora. Sabe-se também que o OEE (Overall Equipment Effectiveness), que representa o produto dos indicadores de disponibilidade x performance x qualidade é de 0,8;
  3. Após sair da Fundição, o produto possui um tempo de processo que não agrega valor de 12 horas devido a resfriamento (necessário para manter a qualidade), transporte interno e inspeção. Somente após este tempo, ele está pronto para ser usinado. Na Usinagem, tem-se 4 operadores realizando um trabalho de 2 horas(OCT) com tempo de set-up de 10 minutos e OEE de 0,6;
  4. Após sair da usinagem, novamente o produto possui um tempo de processo que não agrega valor de 1 hora (tempo de transporte de um setor ao outro. Após este tempo, ele segue para o Polimento. No Polimento, por sua vez temos 2 operadores realizando um trabalho de 2 horas(OCT) com tempo de set-up de 20 minutos e OEE de 0,6.
  5. Antes do produto chegar na Pintura, ele possui 1 hora de tempo não agregado referente a transporte interno. Uma vez na Pintura, 1 operador  realiza a pintura dispendendo um tempo de 3 horas(OCT), com set-up de 10 minutos e OEE de 0,8. Após a pintura, o produto tem que secar por um período de 8 horas para manter a qualidade (tempo de valor não agregado, porém necessário);
  6. Finalmente, na Montagem, o produto é montado e embalado. Neste setor, 3 operadores gastam um tempo de 5 horas(OCT) com set-up de 10 minutos e OEE de 0,7.
  7. Com o produto pronto, é hora de entregar aos clientes. O transporte é terrestre rodoviário e gasta-se 2 dias para ser entregue ao cliente final;
  8. O cliente por sua vez, responde questões de pesquisa de satisfação e envia informações eletronicamente para um sistema gerencial da empresa (representado por uma seta em forma de raio no mapa). Estas informações são reunidas com informações de pesquisa de mercado que alimenta todo o sistema.
  9. O PCP (Planejamento e controle da Produção) por sua vez, baseando-se nas informações de mercado, elabora o planejamento anual de produção que informa aos seus fornecedores a demanda prevista;

O setor de PCP, responsável pelo gerenciamento de toda a produção, possui um sistema informatizado que emite ordens de produção diárias e semanais (setas em formato de raio no mapa). Somando-se os tempos de valor agregado e não agregado, podemos obter o tempo que o produto leva para ser produzido, o famoso Lead Time (tempo de processamento de um pedido, desde o momento que é colocado na empresa até o momento em que o produto é entregue). Neste exemplo ele foi calculado com base na linha do tempo (região inferior do mapa), nos fornecendo um tempo total de 129 horas. Pela linha do tempo também obtemos o valor total agregado (em tempo) que o produto possui. Somando as “regiões de vale” da linha do tempo, obtemos um V/A de 35 horas.

No mapa foram utilizados vários termos e símbolos. Na Figura 3 abaixo é possível visualizar alguns símbolos bastante aplicados na elaboração do VSM e seus significados:

simbolos fluxo de valor

Figura 3 – Símbolos utilizados na elaboração de um mapa de fluxo de valor.

Além dos símbolos, existem vários termos também utilizados na elaboração do mapa. Podemos visualizar estes termos na tabela abaixo:

tabela

Toda a análise que foi feita no exemplo representa o estado atual dos processos e não o estado desejado. Entendendo o estado desejado é possível enxergar falhas e detectar pontos de melhorias. Vamos listar alguns pontos de análise neste exemplo:

  1. Na Fundição, gasta-se muito tempo para produzir (OCT). É possível reduzir este tempo? Podemos envolver menos operadores ou gastar menos tempo de set-up?
  2. As linhas de Usinagem e Polimento possuem um OEE muito baixo (0,6 e 0,5). Qual o motivo? O que está impactando mais? Será a disponibilidade, a performance ou a qualidade? Como podemos melhorar este indicador? é possível aplicar automação industrial para melhorar os apontamentos?
  3. Os tempos gastos para o transporte interno entre Usinagem e Polimento e entre Polimento e Pintura são muito altos. É possível reduzi-los? Como fazer isto? Podemos melhorar o layout da planta? Podemos implantar um Kanban? É possível aplicar o JIT (Just-in-time)? e o Kaizen?
  4. Na Montagem, o tempo para produzir (OCT) é muito alto. É possível reduzir este tempo? Se colocarmos mais operadores, o tempo diminui? Se sim, qual o impacto no Lead Time? Vai melhorar a produtividade? Qual o impacto financeiro?
  5. Os processos que não agregam valor, mas são necessários devido a qualidade (resfriamento na Fundição e secagem na Pintura) podem ser melhorados? Podemos aplicar alguma tecnologia que mantém a qualidade e reduz este tempo, melhorando o Lead Time?
  6. A entrega do produto final ao cliente demora 2 dias e é realizada via transporte rodoviário. Podemos melhorar este prazo de entrega? Como? O transporte rodoviário é a melhor alternativa?
  7. O PCP pode melhorar a programação? Tem que ser semanal na Fundição? Por que ela é diária nos outros setores?

Veja que em um simples exemplo, foi possível levantarmos várias questões que por sua vez, podem alimentar um bom plano de ação. Lembre-se: temos o estado atuado, visualizamos o estado desejado e então deselvolvermos as ações para buscar o estado desejado.

5 – Principais vantagens de realizar o mapeamento de fluxo de valor

Como percebemos, as vantagens são muitas em realizar o mapeamento e análise de fluxo de valor. Podemos citar algumas:

  • Possibilita a visualização macro e individual dos processos (eficiência individual e eficiência sistêmica);
  • É a base para o plano de implantação do Lean Manufacturing;
  • Contribui para identificar fontes de desperdícios;
  • Facilita na tomada de decisões;
  • Possibilita visualizar a relação entre o fluxo de informação e fluxo de material.

Por fim, os efeitos dos processos derivados da criação de um fluxo de valor podem ser percebidos na redução do tempo da produção, menor desperdício de materiais, na diminuição dos estoques e na qualidade da produção. É importante que todos aqueles que fazem parte da cadeia de fluxo de valor entendam o processo como um todo e possam juntos criar alternativas para aumentar o valor do fluxo.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti

Cp e Cpk – Índices de Capacidade de um processo

Nova NR 10 – Segurança no Sistema Elétrico de Potência (SEP) e em suas proximidades – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 554,02 (56% de desconto)

Inspetor de Conformidade das Instalações Elétricas de Baixa Tensão de acordo com a NBR 5410 – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 320,57 (56% de desconto)

Interpretação e Aplicações da Norma Regulamentadora Nº 13 (NR-13) do MTE (Inspeção de Segurança de Caldeiras e Vasos de Pressão) – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Instalações Elétricas em Atmosferas Explosivas – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Cristiano Bertulucci Silveira

A capacidade de um processo pode ser definida como sendo a capacidade inerente de um processo para a produção de peças idênticas, por um longo período de tempo sob um determinado conjunto de condições. Ela objetiva demonstrar se  um processo de fabricação específico é ou não viável e sustentável. É a partir desta avaliação rigorosa que um fabricante pode analisar todas as características do produto e então, decidir se quer continuar com a produção, alterar especificações ou cancelar o projeto. Avaliar a capacidade de um processo é bastante importante, uma vez que permite quantificar a forma de como um processo pode produzir produtos aceitáveis. Como resultado, os gerentes e engenheiros de uma fábrica podem priorizar melhorias necessárias e identificar os processos que não precisam de atenção imediata.

Avaliação da Capacidade do Processo

A avaliação da capacidade de um processo é realizada através de uma estrutura chamada de análise de capacidade do processo (ACP).  A ACP pode ser definida como um método de melhoria em que uma característica do produto é medida e analisada objetivando determinar a capacidade do processo que satisfaça as especificações para a característica em estudo. Embora a capacidade possa ser avaliada através de várias medidas e métodos, tais como tolerância percentual consumida por capacidade ou a partir de um gráfico de controle ou análise de histograma, a maneira mais comum de fazer isso é através dos índices de capacidades (IC). ICs são medidas específicas que comparam a saída do processo real com os limites de especificação para uma determinada característica. Em outras palavras, eles mostram a capacidade de um processo para satisfazer as suas necessidades por meio de um estudo numérico padrão. Entre os ICs existentes, os mais populares são o Cp (capacidade de processo) e Cpk (índice de capacidade de processo).

Medição do Cp e Cpk

O Cp e Cpk são índices que  apontam se o processo está fabricando produtos dentro de uma faixa de especificação e assim indicam se a produtividade está o suficientemente aceitável. Estes índices são muito importantes na fase do desenvolvimento de produto, pois nesta fase inicial, a análise do histórico dos índices de capacidade de peças similares podem permitir que sejam escolhidos processos e especificações coerentes que sejam eficazes estatisticamente. Adicionalmente, eles também se fazem importantes durante a homologação do processo, pois podem revelar processos problemáticos antes da entrada de produtos na linha de produção.

Para fazer o estudo de capacidade e performance, é necessário medir e identificar as diferentes fontes de variabilidade do processo, ou seja, é necessário que o processo esteja sob controle estatístico de processo. Os conceitos de estatística deverão ser utilizados para separar os efeitos da variabilidade das chamadas “Causas Comuns” (inerentes ao processo)   das “Causas Especiais” (derivadas de variáveis específicas e controláveis).

Cálculo do Cp e Cpk

Para calcular os índices, é necessário que primeiro seja definida uma característica a ser medida. Após isto, é necessários colher amostras de medições desta característica. Por exemplo, para uma linha de produção de latas, podemos definir uma característica medida como sendo o diâmetro da lata. Sendo assim, adotamos limites inferiores e superiores para o diâmetro da lata que devem ser cumpridos para que não tenhamos produtos fora de especificação. Seria algo do tipo: o diâmetro não pode ser menor do que 40mm e maior do que 42mm. Com o LSE e LSI definidos, basta agora colher amostras de medições e calcular os índices Cp e Cpk.

O Cp foi o primeiro índice proposto na literatura e é utilizado para avaliar a largura da amplitude do processo em comparação com a largura da especificação. Ele pode ser calculado utilizando a seguinte fórmula:

CP = cp

sendo:

  • LSE: Limite Superior de Especificação
  • LIE: Limite Inferior de Especificação
  • σ : Desvio-padrão calculado a partir da amostragem de medições.

Simplificando, quanto maior for o índice Cp, menor a probabilidade da característica de qualidade medida  estar fora das especificações, o que indica que haveriam menos produtos defeituosos durante o processo produtivo. Na tabela 1, é possível visualizarmos a relação entre o valor de Cp, a quantidade de produto defeituoso e quais as ações corretivas normalmente adotadas.

Tabela 1 – Relação entre o índice CP e a porcentagem de produtos defeituosos
 Valor de CP Produto Fora da Especificação Ação típica adotada
  <1.0  >=5 % Aumento de controle de processo, triagem, retrabalho, etc.
 1.0  0.3 % Aumento de controle de processo, inspeção.
 1.33  64 ppm Inspeção reduzida e utilização de cartas de controle.
 1.63  1 ppm Verificação pontual e utilização de cartas de controle.

 

Como explicado, o Cp é muito importante para que seja avaliada a largura da amostragem com relação à faixa dos limites de especificação, mas uma limitação deste índice é que ele só incide sobre a dispersão do processo estudado, não considerando a centragem do referido processo. O índice Cp apenas considera a variabilidade do processo (σ). Com o intuito de analisar o processo considerando-se a centragem das amostragens, criou-se o índice Cpk. O Cpk foi criado em 1986 com o objetivo de medir a distância entre o limite de especificação mais próxima do valor esperado a partir da característica de qualidade estudada, de modo a relacionar a metade desta distância da amplitude do processo natural, 3σ. De um ponto de vista prático, o índice Cpk é mais avançado do que o Cp, porque pode ser utilizado para medir as características de qualidade, onde apenas um limite de especificação é importante. Este índice é obtido a partir da fórmula seguinte:

CPK =   cpk

sendo:

  • LSE – Limite Superior de Especificação
  • LIE -Limite Inferior de Especificação
  • Χ – Mediana da característica medida
  • σ – Desvio-padrão calculado a partir da amostragem de medições.

Na prática, quanto maior for o índice Cpk, menor será a probabilidade da característica de qualidade medida estar fora de especificação, o que também significa que a curva gaussiana (traço mais fino em vermelho que delimita o histograma da Figura 1 abaixo) mantém uma posição aceitável de centragem no que diz respeito aos limites. Por outro lado, o aumento do valor do Cpk pode exigir uma alteração na média do processo, no desvio padrão, ou em ambos. É importante ressaltar que em alguns processos pode ser mais fácil aumentar o valor de Cpk, alterando o valor médio, talvez através de um simples ajuste do objetivo do processo, do que reduzir o desvio padrão investigando as muitas causas da variabilidade. Na Figura 1, é possível visualizar de forma gráfica alguns cenários para os índices Cp e Cpk e a denominação para o processo quando analisados nestes cenários.

índices de capacidade de processo cp e cpk

Figura 1 – índices de capacidade de processo Cp e Cpk

Como é possível verificar, a razão para que um cliente possa necessitar saber qual o Cp ou Cpk do processo de um fornecedor é simples: na prática ele deseja conhecer a probabilidade de ele adquirir produtos fora da especificação. Como vimos, se o índice Cpk de um processo for menor que 1, é provável que o cliente deseje outro fornecedor pois as especificações não estão sendo cumpridas com certa frequência. O ideal é que o Cpk seja maior que 1 sendo que tipicamente é desejado o valor de 1,33 que significa 64 ppm de produtos fora de especificação.

Além do benefício de fidelizar um cliente com a utilização e o aprimoramento destes índices de performance, constata-se que eles refletem diretamente em outro indicador bastante utilizado na indústria, o OEE (Overall equipment effectiveness). Isto porque um bom valor de Cp e Cpk impactam diretamente no fator de qualidade do produto que é utilizado no cálculo do OEE.

Os softwares para controle estatístico de processo (CEP) podem ser uma ferramenta muito útil para a análise do processo. Atualmente, é fácil encontrar estas ferramentas que são capazes de analisar processos em tempo real, permitindo aos operadores e gerentes a rápida tomada de decisões de forma a impedir a produção de peças ruins. Usando softwares de CEP em tempo real é possível tomar medidas preventivas de forma a garantir que tudo esteja no controle. Obviamente, quando o processo permanece sob controle e os parâmetros estão dentro das especificações do cliente, então é possível colher os benefícios do CEP.

Com o custo da má qualidade como uma métrica visível nas empresas, que não desejam ter custos de falhas internas,  os softwares CEP podem atuar na prevenção de sucatas, retrabalhos e outros custos de qualidade interno. Estas ferramentas impedem custos externos de qualidade, tais como devoluções, garantia. Há ainda uma questão fundamental que cada empresa deve fazer: “Quantas peças ruins são produzidas antes que possamos saber que peças ruims estão sendo produzidas? “Esta é a razão pela qual uma ferramenta de análise em tempo real pode ajudar muito na redução de custos.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti