Um conceito pouco conhecido: a probabilidade de conformidade (probability of compliance)

probabilidadePaulo Afonso Lopes

O objetivo de muitas análises é avaliar a conformidade aos valores limites fixados em regulamentos ou em especificações comerciais. A conformidade pode exigir a quantidade de um mensurando especificado estar acima ou abaixo de um limite único de especificação ou dentro de um intervalo com um limite superior e um limite inferior.

Em alguns casos, o resultado, incluindo a sua incerteza de medição, será diferente do valor limite para que se possa afirmar que há conformidade; em outros, o grau de conformidade não estará claro e decisões deverão ser tomadas com base em critérios probabilísticos. Para o valor de uma amostra, há três cenários referentes a essas especificações: somente limite superior, somente limite inferior e limites inferior e superior.

Para o do desvio padrão da amostra, por ser medida de variabilidade, apenas o limite superior. Os exemplos referem-se somente a ensaios com um limite superior de especificação, em que a faixa de aprovação de resultados é aquela abaixo desse limite, que não deve ser ultrapassado.

Um problema a resolver

A Resolução 432 de 23 de janeiro de 2013 do Conselho Nacional de Trânsito (Contran) não permite nenhuma quantidade de álcool no sangue do condutor, que será autuado administrativamente por qualquer concentração de bebida. Entretanto, para caracterizar o crime previsto no art. 306 do Código de Trânsito Brasileiro (CTB), um dos critérios é o exame de sangue apresentar resultado igual ou superior a 6 (seis) decigramas de álcool por litro de sangue (6 dg/L), e as pessoas que decidem com base em limites legais devem ser capazes de responderem a perguntas do seguinte tipo: uma concentração de 6,1 dg de álcool por litro de sangue de um motorista é muito significativamente maior do que o limite legal de 6 dg/L?

As decisões podem ser baseadas somente no resultado pontual. Com base apenas no valor obtido na amostra observada, as situações e decisões que podem haver são as seguintes (Figura 1):

Casos 1 e 2. O resultado se encontra abaixo do limite superior de especificação: resultado CONFORME.

Casos 3 e 4. O resultado se encontra acima do limite superior de especificação: resultado NÃO CONFORME.

(CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO)

estatistica1

Figura 1 – Casos em que a decisão se baseia apenas no resultado pontual

Entretanto, não há a certeza de que o resultado (valor pontual) na amostra forneceu o valor da população. Nesse caso, retira-se uma segunda amostra para verificar, e o resultado é outro. Como saber onde está a verdade? Retira-se, então, uma terceira amostra, uma quarta, mais resultados diferentes, e assim por diante. Como resolver?

Ao se observar todos os resultados, verifica-se uma variação deles e, por meio dessa variabilidade, determina-se o denominado intervalo de confiança, no qual pode pertencer, com uma determinada probabilidade, o valor da população. As afirmações feitas a respeito do parâmetro da população sempre devem vir acompanhadas de um grau de confiança, ou grau de certeza; significando o quanto se está certo ao comunicar essa informação, que tem um risco, que é probabilidade associada a uma decisão errada.

A probabilidade do valor da população se encontrar no intervalo de confiança, centrado na estimativa pontual e com variação negativa e positiva em torno dessa estimativa pontual é, usualmente, igual a 95%. Isso quer dizer que há uma probabilidade de 95% do valor da população ser qualquer um dentro desse intervalo. Quando da estimativa de um resultado com sua incerteza de medição, esse intervalo passa a chamar-se intervalo de abrangência.

As decisões podem ser baseadas somente na amplitude do intervalo de abrangência. Todos os resultados analíticos têm a forma “C k.u” ou ” C U”, onde “C” é a melhor estimativa do valor da concentração do mensurando, k é o fator de abrangência, “u”, escrito em minúsculas, é a incerteza padrão, e “U”, escrito em maiúsculas, é a incerteza expandida, igual a k.u. O valor de “2k.u”, igual a “k.U”, é a amplitude do intervalo de abrangência, dentro do qual se encontra o valor da concentração com elevada probabilidade, usualmente 95%.

Tem-se as seguintes situações e decisões (Figura 2):

  1. O resultado se encontra abaixo do limite superior de especificação, mas todo o intervalo de abrangência está abaixo desse limite: resultado CONFORME, embora haja uma probabilidade de 5% de ser não conforme.
  2. O resultado se encontra abaixo do limite superior de especificação, mas o intervalo de abrangência contém esse limite superior, resultado pode estar CONFORME ou NÃO CONFORME, porque há uma probabilidade de 95% desse intervalo de abrangência conter o valor do parâmetro da população, ou seja, o valor da população pode estar acima do limite superior de especificação:
  3. Semelhante ao Caso 2, em que o resultado se encontra acima do limite superior de especificação.
  4. O resultado se encontra acima do limite superior de especificação, mas todo o intervalo de abrangência está acima desse limite: resultado NÃO CONFORME, embora haja uma probabilidade de 5% de ser conforme.

estatistica2

Figura 2 – Casos em que a decisão se baseia estritamente na amplitude do intervalo de abrangência

Para os Casos 2 e 3, tem-se duas situações de cada um deles: na primeira (Casos 2a e 3a), a probabilidade de que o resultado seja considerado CONFORME é “elevada” e, na segunda (Casos 2b e 3b), essa probabilidade de ser CONFORME é “baixa” (Figura 3).

A probabilidade do resultado ser considerado CONFORME denomina-se PROBABILIDADE DE CONFORMIDADE.

estatistica3

Figura 3 – Casos em que a decisão se baseia na posição do intervalo de abrangência

Pode-se fazer um exemplo numérico de decisões baseadas na amplitude do intervalo de abrangência. Nos casos legais, deve-se estar certo de que o limite foi excedido, ou seja, o limite de decisão para se agir não é, necessariamente, igual ao valor do limite superior de especificação.

Considere-se 6 dg/L como o limite superior para o nível de álcool no sangue de um motorista. Para as concentrações nominais de 3, 5, 7 e 9 dg/L, as seguintes incertezas de medição foram determinadas:

  1. 3,00 ± 1,32 dg/L
  2. 5,00 ± 1,98 dg/L
  3. 7,00 ± 2,06 dg/L
  4. 9,00 ± 2,20 dg/L

Na Situação 1, o intervalo de abrangência é de 1,68 a 4,32 dg/L, completamente abaixo do limite 6 dg/L, resultado CONFORME.

Na Situação 2, o resultado está abaixo do limite, o que pode levar à decisão de considerar o resultado como CONFORME. Entretanto, esse está se aproximando do limite e o intervalo de abrangência tem como limite superior 6,98 dg/L e, então, as amostras futuras devem ser examinadas com maior cuidado, porque há uma probabilidade de que a população exceda esse limite e o resultado seria julgado NÃO CONFORME.

Na Situação 3, o resultado encontra-se acima do limite superior de especificação, mas o valor da população se encontra no intervalo de abrangência, que vai de 4,94 a 9,06 dg/L. Por esse motivo, pode-se relatar que a amostra contém não menos que 4,94 dg/L e, por esse motivo, não se garante que o limite superior foi excedido e nenhuma ação seria tomada.

Na Situação 4, o intervalo de abrangência é de 6,80 a 11,20 dg/L, completamente acima do limite 6 dg/L, resultado NÃO CONFORME.

O conceito de “faixa de proteção” (guard band)

Como podem haver decisões diferentes, dependendo da posição do intervalo de abrangência, há uma sutil diferença quando se tomam decisões com base nessa posição: nos casos legais, deve-se estar muito certo (usualmente com probabilidade maior que 95% ou 99,9%) de que o verdadeiro valor do mensurando está ACIMA do permitido.

Entretanto, no que se refere a uma especificação de um produto, deve-se estar certo (usualmente com probabilidade maior que 95%) de que o verdadeiro valor do mensurando está ABAIXO de uma determinada especificação. O procedimento adotado é relatar os resultados afirmando que a amostra contém “não menos que o valor “C – U””, nas situações em que a especificação é uma concentração máxima admissível.

O conceito de “faixa de proteção” nos casos legais

Considere-se o seguinte: um motorista foi parado, fez o teste com o etilômetro, sendo reprovado. Foram retiradas amostras de sangue, cujo resultado a respeito da concentração de etanol foi de (6,1 ± 0,09) dg/L (adotando-se k=2).

Sabendo-se que o limite máximo permitido é de 6 dg/L, o motorista deve ser indiciado pelo crime previsto no art. 306 do CTB? Nesses casos legais, deve-se estar muito certo (com probabilidade maior que 99%) de que o verdadeiro valor do mensurando está ACIMA do máximo permitido.

Por essa razão, determina-se um LIMITE DE DECISÃO ACIMA do limite superior de especificação, de acordo com a seguinte expressão:

Limite de decisão LD = Limite superior de especificação LSE + k.u,

onde:

  • k é o valor da abscissa t, unilateral, da distribuição de Student; se usada a distribuição de Gauss, k=1,65 para uma probabilidade de conformidade de 95% e k=3,09 para uma probabilidade de conformidade de 99,9%, e
  • u é a incerteza padrão, calculada a partir da incerteza expandida por u = U/k. onde agora k é dado pela memória de cálculo da incerteza de medição.

O valor k.u denomina-se faixa de proteção, ilustrada pela Figura 4.

estatistica4

Figura 4 – Conceito de faixa de proteção para limite superior nos casos legais

Conclusão: nos casos legais, um resultado deve ser considerado NÃO

CONFORME somente se o Limite de Decisão for ultrapassado.

Retornando à situação do motorista que foi parado, fez o teste com o etilômetro, sendo inicialmente reprovado, e cuja análise de sangue foi de (6,1 ± 0,09) dg/L (adotando-se k=2). Sabendo-se que o limite máximo permitido é de 6 dg/L, o motorista deve ser penalizado?

Neste caso, primeiramente deve-se determinar o valor de u. Para uma incerteza expandida U=0,09 dg/L com k=2, tem-se que u = U/k = 0,09/2 dg/L = 0,045 dg/L.

Após, o LD = LSE + k.u. Como nada se sabe a respeito do tamanho da amostra, adota-se o k da distribuição de Gauss; então, para 95% de confiança, k=1,65 e

LD (dg/L)= (6,00 + 1,65 x 0,045) dg/L = (6,00 + 0,07) dg/L = 6,07 dg/L.

Como 6,1 dg/L ultrapassa o Limite de Decisão, com 95% de certeza, o motorista deve ser penalizado.

Considere, agora, uma certeza de 99,9%. Nesse caso, k = 3,09 e

LD (dg/L)= (6,00 + 3,09 x 0,045) dg/L = (6,00 + 0,18) dg/L = 6,18 dg/L.

Como 6,1 dg/L não ultrapassa o Limite de Decisão, com 99,9% de certeza, o motorista não deve ser penalizado, agora com uma certeza de quase 100%.

A Resollução 432 do CONTRAN não estabelece qual probabilidade deve ser usada (95% ou 99%) para o limite de decisão, nem estabelece a maneira de cálculo desse limite com base nessa faixa de proteção.

O conceito de “faixa de proteção” nos casos comerciais

Considere que a fração de um analito em uma determinada amostra é 1,82 mg/kg com uma incerteza expandida igual a 0,20 mg/kg para k=2. Se o limite é, no máximo, 2,00 mg/kg, essa amostra pode ser considerada conforme?

A decisão tomada usualmente é a seguinte: se o resultado está abaixo de 2,00 mg/kg, ele é CONFORME; caso contrário, NÃO CONFORME.

Entretanto, no que se refere a uma especificação de um produto, deve-se estar certo (com probabilidade maior que 95%) de que o valor do mensurando está ABAIXO desse limite superior, o que conduz a um LIMITE DE DECISÃO ABAIXO do limite superior de especificação, de acordo com o seguinte:

Limite de decisão LD = Limite superior de especificação LSE – k.u,

onde:

  • k é o valor da abscissa t, unilateral, da distribuição de Student; se usada a distribuição de Gauss, k=1,65 para uma probabilidade de conformidade de 95% e k=3,09 para uma probabilidade de conformidade de 99,9%, e
  • u é a incerteza padrão, calculada a partir da incerteza expandida por u = U/k. sendo k fornecido pela memória de cálculo da incerteza de medição.

O valor k.u igualmente se denomina faixa de proteção, ilustrada pela Figura 5.

estatistica5

Figura 5 – Conceito de faixa de proteção para limite superior nos casos comerciais

Como conclusão, pode-se afirmar que, também nos casos comerciais, um resultado deve ser considerado NÃO CONFORME somente se o Limite de Decisão for ultrapassado.

Retornando ao exemplo numérico do analito, primeiramente deve-se determinar o valor de u. Para uma incerteza expandida U=0,20 mg/kg com k=2, tem-se que u = U/k = 0,20/2 mg/kg = 0,010 mg/kg.

Após, o LD = LSE – k.u. Como nada se sabe a respeito do tamanho da amostra, adota-se o k da distribuição de Gauss; então, para 95% de confiança,

LD (mg/kg)= (2,00 – 1,65 x 0,10) mg/kg = (2,00 – 0,165) mg/kg = 1,835 mg/kg.

Como 1,82 mg/kg, resultado da fração da massa de cádmio, é menor que o Limite de Decisão, com 95% de certeza, a amostra pode ser considerada CONFORME, por ter uma fração abaixo do limite superior de especificação.

Somente limite inferior de especificação para o valor da amostra

O raciocínio quando se tem somente o limite inferior de especificação é semelhante ao do somente limite superior. Nesse caso, para determinar os Limites de Decisão, as expressões são as seguintes:

  1. nos casos legais:

Limite de decisão LD = Limite inferior de especificação LIE – k.u,

  1. nos casos comerciais:

Limite de decisão LD = Limite inferior de especificação LIE + k.u.

Limites inferior e superior de especificação para o valor da amostra

Quando há os dois limites, o valor de k passa a ser o valor da abscissa t, bilateral, da distribuição de Student; se usada a distribuição de Gauss, k=1,96 para uma probabilidade de conformidade de 95% e k=3,27 para uma probabilidade de conformidade de 99,9%.

As expressões para determinar os Limites de Decisão, as expressões são as seguintes: nos casos legais, as faixas de proteção para os limites inferior e superior são dadas por (Figura 6):

Limite de decisão LD = Limite inferior de especificação LIE – k.u

Limite de decisão LD = Limite superior de especificação LIE + k.u,

estatistica6

Figura 6 – Conceito de faixa de proteção para limites inferior e superior nos casos legais

Nos casos comerciais, as faixas de proteção para os limites inferior e superior são dadas por (Figura 7):

Limite de decisão LD = Limite inferior de especificação LIE + k.u

Limite de decisão LD = Limite superior de especificação LIE – k.u,

estatistica7

Figura 7 – Conceito de faixa de proteção para limites inferior e superior nos casos comerciais

O conceito de “faixa de proteção” para o desvio padrão

Diferentemente da faixa de proteção quando se estuda o valor de uma amostra da população, para o desvio padrão tem-se apenas o limite superior, porque, em estatística deseja-se ter variabilidade mínima, ou seja, o importante é apenas o limite superior de especificação, com uma faixa de proteção de se estar certo (usualmente com probabilidade maior que 95%) de que o verdadeiro valor do desvio padrão está abaixo do máximo desvio padrão permitido (MDPP).

A Figura 8 ilustra o relacionamento entre o MDPP e o limite de decisão.

estatistica8

Figura 8 – Faixa de proteção para o desvio padrão da população

No caso do valor da população, essa faixa de proteção é igual a um certo número de desvios padrão (k,u). No caso do desvio padrão da população, o conceito é semelhante, A distância entre o MDPP e o LD é igual a um certo número de desvios padrão. No caso do valor da população, determinava-se o LD somando-se k.u ao LSE:

LD = LSE + k.u.

Entretanto, no caso do desvio padrão, não pode ser feita essa soma direta, porque os cálculos são realizados com as variâncias e o relacionamento passa a ser do seguinte modo:

LD2= k.MDPP2

Para se poder determinar o valor do LD, tem-se o valor de MDPP, mas não o de k. Entretanto, k= LD2MDPP2.

O valor de k é o resultado da divisão de duas variâncias, fração que é modelada pela distribuição F de Snedecor. Com base nessa distribuição, determina-se o valor da abscissa k que limita à direita da distribuição F uma probabilidade de 5% (equivalente a ter-se 95% de probabilidade à esquerda dessa abscissa), com graus de liberdade do numerador igual ao tamanho da amostra menos 1 e graus de liberdade do denominador igual a infinito, por ser o MDPP admitido como sendo o ideal da população.

Determinado o valor de k, finalmente chega-se ao valor do LD:

LD= k MDPP

Exemplo numérico para a “faixa de proteção” para o desvio padrão

Após 20 medições em um ensaio, até quando se deverá considerar uniforme a variabilidade dessas medições, ou seja, a partir de qual valor o desvio padrão deverá ser rejeitado?

Nesse caso, n = 20, e os graus de liberdade são 19. No Excel, determina-se o valor de k = 1,586501461 na distribuição F, conforme ilustra a Figura 9.

estatistica9

Figura 9 – Determinação do valor de k

Extraindo-se a raiz quadrada de k, tem-se que: 1,586501461= 1,259564, aproximado para 1,26. Finalmente, LD = 1,26 MDPP, ou seja, decide-se rejeitar o valor do desvio padrão se esse for maior que 1,26 vezes o MDPP.

Paulo Afonso Lopes é estatístico e membro da Academia Brasileira da Qualidade (ABQ) – pauloafonsolopes@uol.com.br

Anúncios

Planos de amostragem e inspeção por atributos

É importante saber que a inspeção da qualidade é o processo de medir, ensaiar e examinar a unidade de produto ou comparar suas características com as especificações. A inspeção por atributos é aquela segundo a qual a unidade de produto é classificada simplesmente como defeituosa ou não (ou o número de defeitos é contado) em relação a um dado requisito ou conjunto de requisitos.

A unidade de produto é o elemento de referência na inspeção. Pode ser um artigo simples, um par, um conjunto, uma área, um comprimento, uma operação, um volume, um componente de um produto terminado ou o próprio produto terminado. A unidade de produto pode ou não ser igual à unidade de compra, de fornecimento, de produção ou de expedição.

A relação dos possíveis defeitos da unidade de produto pode ser classificado segundo sua gravidade. Um defeito da unidade de produto é a falta de conformidade a qualquer dos requisitos especificados. Os defeitos serão normalmente agrupados em uma ou mais das classes mencionadas a seguir, as quais podem ser desdobradas em subclasses.

O defeito crítico pode produzir condições perigosas ou inseguras para quem usa ou mantém o produto. É também o defeito que pode impedir o funcionamento ou o desempenho de uma função importante de um produto mais complexo. O defeito grave é considerado não crítico, mas pode resultar em falha ou reduzir substancialmente a utilidade da unidade de produto para o fim a que se destina. O tolerável não reduz, substancialmente, a utilidade da unidade de produto para o fim a que se destina ou não influi substancialmente no seu uso efetivo ou operação.

Há duas normas técnicas sobre o assunto. A NBR 5426 de 01/1985 – Planos de amostragem e procedimentos na inspeção por atributos estabelece planos de amostragem e procedimentos para inspeção por atributos. Quando especificada pelo responsável, deve ser citada nos contratos, instruções ou outros documentos, e as determinações estabelecidas devem ser obedecidas.

Os planos de amostragem podem ser utilizados, além de outros, para inspeção de: produtos terminados; componentes e matéria-prima; operações; materiais em processamento; materiais estocados; operações de manutenção; procedimentos administrativos e relatórios e dados. A NBR 5427 de 01/1985 – Guia para utilização da norma NBR 5426 – Planos de amostragem e procedimentos na inspeção por atributos fixa as instruções detalhadas e exemplos ilustrativos para aplicação e administração dos procedimentos de amostragem por atributos estabelecidos pela NBR 5426.

Deve-se afirmar que os planos de amostragem de inspeção por atributos da NBR 5426 têm, entre outros, os seguintes campos de aplicação: produtos terminados – os produtos terminados que podem ser inspecionados antes ou após embalagem e expedição para embarque ou armazenagem; componentes e matérias-primas – esses materiais podem ser inspecionados na origem, onde são fabricados, próximo à recepção no ponto de montagem, ou em qualquer lugar conveniente ao longo do processo de montagem, onde são formados os produtos terminados; operações – as operações de trabalho podem ser inspecionadas por amostragem para determinar se as máquinas de produção e operadores estão desempenhando satisfatoriamente o trabalho; materiais em processamento – os materiais podem ser inspecionados por amostragem para se determinar a qualidade após qualquer fase ao longo da linha de produção, bem como para se determinar a extensão do dano ou deterioração durante armazenagem temporária entre fases de produção, ou a qualidade antes do produto continuar até a próxima etapa do processo de produção; materiais estocados – os procedimentos e as tabelas de amostragem da NBR 5426 podem ser usadas para determinação da qualidade, de materiais estocados; operações de conserto – estas operações são normalmente executadas em materiais recuperáveis para restaurá-los à condição de poderem prestar serviços, pois se faz a inspeção por atributos, depois de tais operações terem sido executadas para determinar a qualidade do produto após conserto; procedimentos administrativos – se os resultados de procedimentos administrativos puderem ser medidos na base de atributos, os planos de amostragem e os procedimentos previstos na NBR 5426 poderão ser aplicados para sua avaliação e controle; dados ou relatórios – os procedimentos de inspeção por amostragem por atributos podem ser usados sempre que forem processadas grandes quantidades de dados (por exemplos: registros contábeis, dados de custo, pedidos, contas de fretes, etc.) como uma base para determinação da precisão e outras medidas da qualidade dos dados ou registros. No quadro abaixo há uma sequência típica de operações, quando se usam os procedimentos de amostragem e as tabelas de inspeção por atributos da NBR 5426.

CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO

atributo

A definição, a escolha e a aplicação do Nível de Qualidade Aceitável (NQA) podem ser discutidos. Por exemplo, na porcentagem defeituosa e defeitos por 100 unidades existem 16 valores específicos de NQA dados nas tabelas de amostragem da NBR 5426, variando de 0,01 a 10,0, que podem ser expressos tanto em “porcentagem defeituosa” quanto em “defeitos por cem unidades (DCU)”. Estão previstos ainda dez valores específicos de NQA de 15 a 1000 que devem ser expressos somente em termos de “defeitos por cem unidades”. Os valores de NQA foram escolhidos de tal forma que cada um é aproximadamente 1,5 vez maior do que o precedente.

Os tamanhos de amostra dependem, de um certo modo, do valor do NQA. O efeito do valor do NQA pode ser observado ao se examinar a Tabela 2 da NBR 5426 onde são mostradas uma série de flechas apontando para baixo e uma série de flechas apontando para cima. Sempre que uma flecha estiver apontando para baixo é usado o primeiro plano de amostragem abaixo da flecha. Sempre que uma flecha apontar para cima é usado o primeiro plano de amostragem acima da flecha.

tabela 2

Este procedimento é ilustrado com os seguintes exemplos:

a) usando-se a Tabela 2 da NBR 5426 e um NQA de 0,10%, o menor tamanho de amostras que pode ser escolhido é 125 unidades, não importa se aplica qualquer dos códigos literais de tamanho de amostra de A a J, conforme determinado na Tabela 1 da NBR 5426. Para um NQA de 1,0%, o menor tamanho de amostra é de 13 unidades.

b) usando a Tabela 2 da NBR 5426 e um NQA de 15 DCU, o maior tamanho de amostra pedido é de 80 unidades. Para um NQA de 1,0% com código literal de tamanho de amostra F, flecha aponta para cima para um tamanho de amostra de 13 unidades e número de aceitação zero.

Geralmente, à medida que o valor do NQA aumenta, os tamanhos mínimo e máximo de amostra diminuem. À medida que o NQA diminui, os tamanhos mínimo e máximo de amostra aumentam. Os valores do NQA dados nas tabelas da NBR 5426 são conhecidos como NQAs preferenciais. Não se aplicam estas tabelas se, para qualquer produto, for designado um NQA diferente dos NQAs preferenciais. Com isso, pretende-se limitar a quantidade de planos de amostragem a um número prático.

Para que se possa utilizar as tabelas é necessário igualar o NQA não preferencial ao valor próximo mais baixo de um NQA preferencial. Exemplo: suponha que o NQA especificado seja 5%. O valor do NQA preferencial de 4,0% é o que deverá ser designado se forem utilizados os planos de amostragem e os procedimentos da NBR 5426. Esta mudança para um valor mais baixo de NQA garantirá uma qualidade de produto tão boa ou melhor que a qualidade originalmente desejada.

A NBR 5426 estabelece três níveis gerais de inspeção e quatro níveis especiais de inspeção. Estes sete níveis permitem ao usuário equilibrar o custo de inspeção e a proteção da qualidade requerida. Os níveis gerais de inspeção de I a III são comumente usados em inspeção tipo não-destrutiva. Os níveis especiais S-1 a S-4 são comumente usados em inspeções tipicamente destrutivas ou de custo elevado onde são adequados pequenos tamanhos de amostra. Antes de se especificar o nível de inspeção, deve-se fazer uma detalhada análise dos seguintes fatores, de modo a melhorar a relação custo-risco. A análise deve incluir (não se limitando apenas a isso) o seguinte: a) as curvas características de operação (CCO) para avaliar as propriedades técnicas dos vários planos; b) o risco do fornecedor e a discriminação oferecida pelos vários níveis de inspeção; c) o conhecimento do processo de produção; d) o conhecimento da capabilidade do processo e a história do desempenho passado da qualidade; e) complexidade do item; f) o custo e a importância do exame ou ensaio, principalmente quando o ensaio é caro, demorado ou de caráter destrutivo; g) a importância das diversas características da qualidade que estão sendo examinadas, isto é, a gravidade das falhas geradas em casos de não conformidade; h) análise do risco do consumidor.

A NBR 5426 prevê três tipos de amostragem; simples, dupla e múltipla. Na norma são dadas informações gerais sobre estes tipos de planos de amostragem. As maiores diferenças entre esses tipos de planos de amostragem são ilustradas pelos exemplos que se seguem para os quais foram supostos os seguintes valores: a) tamanho de lote – 1.500 unidades; b) nível geral de inspeção – II; c) na Tabela 1 da NBR 5426, o código literal do tamanho de amostra é “K”; d) inspeção normal; e e) NQA de 1%.

Cp e Cpk – Índices de Capacidade de um processo

Nova NR 10 – Segurança no Sistema Elétrico de Potência (SEP) e em suas proximidades – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 554,02 (56% de desconto)

Inspetor de Conformidade das Instalações Elétricas de Baixa Tensão de acordo com a NBR 5410 – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 320,57 (56% de desconto)

Interpretação e Aplicações da Norma Regulamentadora Nº 13 (NR-13) do MTE (Inspeção de Segurança de Caldeiras e Vasos de Pressão) – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Instalações Elétricas em Atmosferas Explosivas – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Cristiano Bertulucci Silveira

A capacidade de um processo pode ser definida como sendo a capacidade inerente de um processo para a produção de peças idênticas, por um longo período de tempo sob um determinado conjunto de condições. Ela objetiva demonstrar se  um processo de fabricação específico é ou não viável e sustentável. É a partir desta avaliação rigorosa que um fabricante pode analisar todas as características do produto e então, decidir se quer continuar com a produção, alterar especificações ou cancelar o projeto. Avaliar a capacidade de um processo é bastante importante, uma vez que permite quantificar a forma de como um processo pode produzir produtos aceitáveis. Como resultado, os gerentes e engenheiros de uma fábrica podem priorizar melhorias necessárias e identificar os processos que não precisam de atenção imediata.

Avaliação da Capacidade do Processo

A avaliação da capacidade de um processo é realizada através de uma estrutura chamada de análise de capacidade do processo (ACP).  A ACP pode ser definida como um método de melhoria em que uma característica do produto é medida e analisada objetivando determinar a capacidade do processo que satisfaça as especificações para a característica em estudo. Embora a capacidade possa ser avaliada através de várias medidas e métodos, tais como tolerância percentual consumida por capacidade ou a partir de um gráfico de controle ou análise de histograma, a maneira mais comum de fazer isso é através dos índices de capacidades (IC). ICs são medidas específicas que comparam a saída do processo real com os limites de especificação para uma determinada característica. Em outras palavras, eles mostram a capacidade de um processo para satisfazer as suas necessidades por meio de um estudo numérico padrão. Entre os ICs existentes, os mais populares são o Cp (capacidade de processo) e Cpk (índice de capacidade de processo).

Medição do Cp e Cpk

O Cp e Cpk são índices que  apontam se o processo está fabricando produtos dentro de uma faixa de especificação e assim indicam se a produtividade está o suficientemente aceitável. Estes índices são muito importantes na fase do desenvolvimento de produto, pois nesta fase inicial, a análise do histórico dos índices de capacidade de peças similares podem permitir que sejam escolhidos processos e especificações coerentes que sejam eficazes estatisticamente. Adicionalmente, eles também se fazem importantes durante a homologação do processo, pois podem revelar processos problemáticos antes da entrada de produtos na linha de produção.

Para fazer o estudo de capacidade e performance, é necessário medir e identificar as diferentes fontes de variabilidade do processo, ou seja, é necessário que o processo esteja sob controle estatístico de processo. Os conceitos de estatística deverão ser utilizados para separar os efeitos da variabilidade das chamadas “Causas Comuns” (inerentes ao processo)   das “Causas Especiais” (derivadas de variáveis específicas e controláveis).

Cálculo do Cp e Cpk

Para calcular os índices, é necessário que primeiro seja definida uma característica a ser medida. Após isto, é necessários colher amostras de medições desta característica. Por exemplo, para uma linha de produção de latas, podemos definir uma característica medida como sendo o diâmetro da lata. Sendo assim, adotamos limites inferiores e superiores para o diâmetro da lata que devem ser cumpridos para que não tenhamos produtos fora de especificação. Seria algo do tipo: o diâmetro não pode ser menor do que 40mm e maior do que 42mm. Com o LSE e LSI definidos, basta agora colher amostras de medições e calcular os índices Cp e Cpk.

O Cp foi o primeiro índice proposto na literatura e é utilizado para avaliar a largura da amplitude do processo em comparação com a largura da especificação. Ele pode ser calculado utilizando a seguinte fórmula:

CP = cp

sendo:

  • LSE: Limite Superior de Especificação
  • LIE: Limite Inferior de Especificação
  • σ : Desvio-padrão calculado a partir da amostragem de medições.

Simplificando, quanto maior for o índice Cp, menor a probabilidade da característica de qualidade medida  estar fora das especificações, o que indica que haveriam menos produtos defeituosos durante o processo produtivo. Na tabela 1, é possível visualizarmos a relação entre o valor de Cp, a quantidade de produto defeituoso e quais as ações corretivas normalmente adotadas.

Tabela 1 – Relação entre o índice CP e a porcentagem de produtos defeituosos
 Valor de CP Produto Fora da Especificação Ação típica adotada
  <1.0  >=5 % Aumento de controle de processo, triagem, retrabalho, etc.
 1.0  0.3 % Aumento de controle de processo, inspeção.
 1.33  64 ppm Inspeção reduzida e utilização de cartas de controle.
 1.63  1 ppm Verificação pontual e utilização de cartas de controle.

 

Como explicado, o Cp é muito importante para que seja avaliada a largura da amostragem com relação à faixa dos limites de especificação, mas uma limitação deste índice é que ele só incide sobre a dispersão do processo estudado, não considerando a centragem do referido processo. O índice Cp apenas considera a variabilidade do processo (σ). Com o intuito de analisar o processo considerando-se a centragem das amostragens, criou-se o índice Cpk. O Cpk foi criado em 1986 com o objetivo de medir a distância entre o limite de especificação mais próxima do valor esperado a partir da característica de qualidade estudada, de modo a relacionar a metade desta distância da amplitude do processo natural, 3σ. De um ponto de vista prático, o índice Cpk é mais avançado do que o Cp, porque pode ser utilizado para medir as características de qualidade, onde apenas um limite de especificação é importante. Este índice é obtido a partir da fórmula seguinte:

CPK =   cpk

sendo:

  • LSE – Limite Superior de Especificação
  • LIE -Limite Inferior de Especificação
  • Χ – Mediana da característica medida
  • σ – Desvio-padrão calculado a partir da amostragem de medições.

Na prática, quanto maior for o índice Cpk, menor será a probabilidade da característica de qualidade medida estar fora de especificação, o que também significa que a curva gaussiana (traço mais fino em vermelho que delimita o histograma da Figura 1 abaixo) mantém uma posição aceitável de centragem no que diz respeito aos limites. Por outro lado, o aumento do valor do Cpk pode exigir uma alteração na média do processo, no desvio padrão, ou em ambos. É importante ressaltar que em alguns processos pode ser mais fácil aumentar o valor de Cpk, alterando o valor médio, talvez através de um simples ajuste do objetivo do processo, do que reduzir o desvio padrão investigando as muitas causas da variabilidade. Na Figura 1, é possível visualizar de forma gráfica alguns cenários para os índices Cp e Cpk e a denominação para o processo quando analisados nestes cenários.

índices de capacidade de processo cp e cpk

Figura 1 – índices de capacidade de processo Cp e Cpk

Como é possível verificar, a razão para que um cliente possa necessitar saber qual o Cp ou Cpk do processo de um fornecedor é simples: na prática ele deseja conhecer a probabilidade de ele adquirir produtos fora da especificação. Como vimos, se o índice Cpk de um processo for menor que 1, é provável que o cliente deseje outro fornecedor pois as especificações não estão sendo cumpridas com certa frequência. O ideal é que o Cpk seja maior que 1 sendo que tipicamente é desejado o valor de 1,33 que significa 64 ppm de produtos fora de especificação.

Além do benefício de fidelizar um cliente com a utilização e o aprimoramento destes índices de performance, constata-se que eles refletem diretamente em outro indicador bastante utilizado na indústria, o OEE (Overall equipment effectiveness). Isto porque um bom valor de Cp e Cpk impactam diretamente no fator de qualidade do produto que é utilizado no cálculo do OEE.

Os softwares para controle estatístico de processo (CEP) podem ser uma ferramenta muito útil para a análise do processo. Atualmente, é fácil encontrar estas ferramentas que são capazes de analisar processos em tempo real, permitindo aos operadores e gerentes a rápida tomada de decisões de forma a impedir a produção de peças ruins. Usando softwares de CEP em tempo real é possível tomar medidas preventivas de forma a garantir que tudo esteja no controle. Obviamente, quando o processo permanece sob controle e os parâmetros estão dentro das especificações do cliente, então é possível colher os benefícios do CEP.

Com o custo da má qualidade como uma métrica visível nas empresas, que não desejam ter custos de falhas internas,  os softwares CEP podem atuar na prevenção de sucatas, retrabalhos e outros custos de qualidade interno. Estas ferramentas impedem custos externos de qualidade, tais como devoluções, garantia. Há ainda uma questão fundamental que cada empresa deve fazer: “Quantas peças ruins são produzidas antes que possamos saber que peças ruims estão sendo produzidas? “Esta é a razão pela qual uma ferramenta de análise em tempo real pode ajudar muito na redução de custos.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti

Cartas de Controle

Cristiano Bertulucci Silveira

Dentre as sete ferramentas da qualidade, a carta de controle é sem dúvida a mais utilizada nas empresas e indústrias. Nenhuma outra ferramenta capta melhor as informações de um processo como esta. A carta de controle é utilizada ​​para determinar se o processo está operando em controle estatístico e basicamente é representada por um gráfico em execução que inclui estatisticamente limites de controle superior e inferior. Neste artigo, será apresentado como as cartas de controle podem contribuir para aperfeiçoar o processo de fabricação e assim aumentar a competitividade da sua empresa.

O que é e para que serve a carta de controle?

Controle estatístico de processo | Carta Controle

Figura 1 – Controle estatístico de processo | Automação Industrial

O objetivo de uma carta de controle é detectar quaisquer alterações indesejadas em um processo, sendo que quando ocorrerem mudanças, estas serão sinalizadas por pontos anormais em um gráfico.

Para obter informações de um processo, primeiramente é necessário entender os conceitos de população e amostras, que podem ser definidos da seguinte forma:

  • População: lote de produtos/serviços ou período de tempo que se quer analisar.
  • Amostra: quantidade de valores observados pertencentes ou representativos de uma população.

amostra-estatistica-controle-populacao

Figura 2 – Conceito de amostra e população

Na Figura acima é possível observar bem a definição de população e amostra. Quando é desejado mensurar as características de uma determinada população, podemos fazê-la medindo as características de cada indivíduo que compõe esta população e com base nas informações obtidas, entender como ela é delineada. No entanto, na maioria das vezes, a população é muito grande e medir cada indivíduo que a compõe torna-se oneroso e em alguns casos praticamente impossível. Imagine por exemplo entrevistar todos os 140 milhões de eleitores brasileiros para sabermos quem será o novo ganhador de uma disputa pela presidência. Por este motivo, surgiram ferramentas, como a estatística, que são capazes de tratar informações coletadas de amostragens e subsidiar conclusões sobre uma população com uma precisão tão próxima quanto se fossem estudados cada indivíduo da população.

A partir dos conceitos acima, foi possível aplicar a ferramenta estatística na indústria, com o objetivo de estudar melhor os produtos e ocorrências de não conformidades nos processos de fabricação. E ainda, o criador das cartas de controle, Dr. Shewhart, demonstrou que se fossem definidos limites superiores e inferiores a três vezes o desvio padrão (mais e menos, respectivamente) de uma quantidade de amostras, estaríamos garantindo que 99,73% da variação de causas comuns cairiam dentro desses limites estabelecendo então a definição de controle no processo. Pode-se dizer portanto que um processo está em controle estatístico quando as medições do processo variarem aleatoriamente dentro dos limites de controle.

Importante ressaltar que os limites superiores e inferiores não são o mesmo que tolerância ou limite de especificação. Nas suas definições, limites de controle são uma função da forma de como o processo realmente se comporta ao longo do tempo. Por outro lado, limites de especificação ou tolerância são uma função que diz respeito ao projeto do processo para que ele desempenhe algo e não necessariamente tem qualquer relação direta com o desempenho real do mesmo.

Como utilizar as cartas de controle

Primeiro, é importante determinar o que será controlado (diâmetro de um cilindro, altura de uma haste, etc.). Após isto, é necessário definir o tamanho da amostra que será coletada e de quanto em quanto tempo serão realizadas as amostragens (1 hora, 1 dia, 1 semana, etc). Por último, basta definir o limite superior e o limite inferior da carta controle.

a – Escolha do tipo de carta

Devemos determinar qual o tipo de carta de controle deverá ser utilizada. As cartas de controle podem conter dois tipos de dados: dados variáveis ou dados tipo atributos. Em geral, se for desejado utilizar dados variáveis, é necessário adotar medidas em unidades, tais como comprimento, temperatura, etc. Por outro lado, os dados do tipo atributos exigem uma decisão: “passa/não passa”, “aceitável/não aceitável”, “conforme/não conforme”, “sucesso/insucesso”.

Caso os dados forem do tipo atributo, é necessário ainda decidir se os dados são defeitos ou defeituosos. Basicamente o defeito é um subconjunto de defeituoso. Um defeito não significa necessariamente que o produto ou serviço seja defeituoso. A título de exemplo, vamos considerar uma haste cilíndrica como um produto final. Os defeitos possíveis são: quebra, dureza, tolerância dimensional, etc. Neste caso, uma haste defeituosa poderá ter um ou mais defeitos e o fato da haste conter defeitos não necessariamente caracteriza ela como defeituosa, pois o produto será considerado defeituoso somente quando ele possuir defeitos que não são tolerados pelo cliente.

Com os conceitos claros, podemos utilizar o fluxograma abaixo para definir a carta de controle mais adequada para cada situação.

fluxograma-decisao-carta-de-controle-estatistico-processo

Figura 3 – Fluxograma para decisao sobre a utilização do tipo de carta de controle.

b – construção da carta

Neste artigo iremos construir dois tipos de cartas, ambas por variáveis para exemplificar como funcionam. Para a construção das cartas de controle por variáveis, a análise deve ser feita aos pares, observando a centralização e a dispersão. Sendo assim, dois gráficos são construídos para cada tipo:

  • Gráfico de média e o de desvio padrão (X – S)
  • Gráfico de média e o de amplitude (X – R)

Abaixo na figura pode ser observado um resumo passo a passo de como construir uma carta de controle.

formulas-tipos-carta-controle

Figura 4 – Fórmulas aplicáveis à carta de controle por variável.

Os passos para a construção podem ser descritos da seguinte forma:

1 – Coleta dos dados: Nesta etapa são definidos o tamanho adotado para as amostras, que deverá ser constante, bem como a quantidade de amostras e a frequência de amostragem. A frequência de amostragem dependerá da quantidade de produtos defeituosos. Se houver bastante incidência de produtos defeituosos, a frequência deverá ser maior (de hora em hora, etc.). Por outro lado, se forem poucos defeituosos, a frequência poderá ser menor, com intervalos maiores. Costuma-se adotar também uma relação entre a quantidade de amostras (k) com o tamanho da amostra (n), sendo k*n > 100.
2 – Cálculo das médias das amostras. A título de exemplo, vamos pegar uma quantidade pequena de amostras para demonstrar como fazer este cálculo. Ex.: Supondo uma medição do diâmetro de uma haste em 1 dia, onde tem-se 6 amostras, contendo 5 itens, coletadas de 4 em 4 horas, temos: A1 (32,30,31,34,32), A2 (30,33,32,31,31), A3 (34,32,31,33,30), A4 (29,33,32,30,31), A5 (30,33,29,31,33), A6 (33,30,32,31,30). A média da primeira amostragem será: X1 = (32+30+31+34+32)/5 = 31.8. Portanto teremos: X1=31.8, X2=31.4, X3=32, X4=31, X5=31.2 e X6=31.2.
3 – Cálculo da média do processo. Para o nosso exemplo, esta média será: X = (X1 + X2 + X3 + X4 + X5 + X6)/6 = 31.43.
4 – A partir da quarta etapa, os tipos de carta já se diferenciam, partindo para o cálculo do desvio padrão de cada item da amostra (X-S) ou amplitude (X-R). No nosso exemplo, o tamanho da amostra (n) = 5. Sendo assim, o ideal seria utilizar a carta de amplitude (X-R), porém vamos obter as duas cartas para exemplificar as diferenças entre um e outro.

tabela-desvio-padrao-amplitude

Figura 5- Tabela com os cálculos do exemplo

5 – Agora, com os valores obtidos para cada amostra, o desvio padrão médio e a amplitude média deverão ser calculados. Utilizando as fórmula do item 5 da Figura x, tem-se: s=(1,48+1,14+1,58+1,82+1,91+1,47)/6 = 1,56 e r=(4+3+4+4+4+3)/6=3,66.

6 – No sexto passo, vamos obter os limites de controle para as cartas de média. A partir daqui é necessário utilizar uma tabela contendo as constantes (A2, A3, B3, B4, D3, D4), conforme Figura abaixo:

tabela-constantes

Figura 6 – Tabela com constantes aplicáveis nas fórmulas da Figura 4

Com a tabela de constantes e as fórmulas descritas no passo 6 da Figura 4, podemos obter os valores para média utilizando a tabela da Figura 6. Teremos então:

  • Média (X-S)          LSC=31,43+1,427*1,56=33,656;      LIC=31,43-1,427*1,56=29,20;
  • Média (X-R)         LSC=31,43+0,577*3,66=33,542;      LIC=31,43-0,577*3,66=29,32;

7 – No sétimo passo, finalmente serão calculados os limites de controle para as cartas de desvio padrão e amplitude:

  • Desvio Padrão (X-S) LSC=2,089*1,56 = 3,259;                   LIC=0*1,56=0;
  • Amplitude (X-R) LSC=3,66*2,114 = 7,737;                    LIC=3,66*0=0;

8 – Finalmente, agora é necessário desenhar os gráficos.

grafico-media-desvio-padrao-amplitude

Figura 7 – Gráficos obtidos para média, desvio-padrão e amplitude.

c – identificação e eliminação de quaisquer causas especiais ou atribuíveis de variação

Para determinar se existem causas de variação em um processo utilizando a carta de controle, é muito importante observar sete “sinais” ou regras básicas que demonstram variabilidade neste processo. A probabilidade de alguns destes sete eventos ocorrerem aleatoriamente é muito pequena. Este é o motivo pelo qual estes sinais indicam alguma mudança no processo.

As sete regras são:

  1. Um ou mais pontos fora dos limites de controle;
  2. Sete ou mais pontos consecutivos acima ou abaixo da linha central
  3. Seis pontos consecutivos em linha ascendente ou descendente continuamente;
  4. Quatorze pontos consecutivos alternando acima e abaixo;
  5. 3 pontos consecutivos sendo 2 deles do mesmo lado em relação a linha central e fora de 2/3 em relação à linha central;
  6. Quinze ou mais pontos consecutivos contidos em um intervalo de 1/3 em relação à média;
  7. 8 pontos em ambos os lados da região central com nenhum deles dentro do limite de 1/3 em relação à linha central

Elas podem ser visualizadas na figura abaixo:

regras-controle-estatistico-processo

Figura 8 – Regras aplicadas ao Controle Estatistico de Processo

d – Redução da variabilidade global

Após eliminar todas as causas especiais, é importante trabalhar no sentido de reduzir as variabilidades que restam no processo. Isto requer, usualmente, mudanças fundamentais no processo, sendo que estas mudanças, na maioria das vezes requerem uma assistência gerencial. Para atingir um processo de melhoria contínua, é essencial reduzir a variabilidade.

Vantagens de utilizar cartas de controle

  • Conhecer as causas raízes dos problemas ocorridos no processo;
  • Registro formal das ocorrências, podendo ser utilizado como histórico posterior;
  • Registra o esforço aplicado pela equipe para controlar o processo;
  • As cartas de controle colaboram para aperfeiçoar o processo;
  • Fornece aos operadores um controle para o processo;
  • Melhoria na qualidade, custo por unidade e eficiência.

Um ponto importante que deve ser observado é com relação a utilização cada vez mais frequente de softwares para controle estatístico de processo na indústria. Estes sistemas possibilitam agilidade na realização de análises e tomada de decisões fornecendo um alto nível de qualidade nos processos. Facilitam ainda a coleta e análise das informações, que podem ser realizadas em um sistema centralizado. Por isto é sempre importante analisar a possibilidade da automatização e os ganhos que poderão ser alcançados com tais ferramentas.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti

Dorian Shainin: uma abordagem profissional para a resolução de problemas

PRÓXIMOS CURSOS TARGET (Clique no curso para mais informações e fazer a sua inscrição)

Armazenamento de Líquidos Inflamáveis e Combustíveis – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Instalações Elétricas em Atmosferas Explosivas – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Ferramentas MASP – Metodologia de Análise e Solução de Problemas – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Sistemas de Gestão Ambiental – A Transição para a Sustentabilidade – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

ShaininDorian Shainin trabalhou mais de 60 anos para melhorar a abordagem profissional para resolver problemas industriais. Ele é mais conhecido por suas técnicas Shainin, ferramentas práticas que ele desenvolveu para ajudar os fabricantes de resolver problemas, incluindo problemas que tinham sido considerados insolúveis. As técnicas de Shainin são delineamentos de experimentos muito úteis na investigação de causas raízes de efeitos estudados. Dentre as diversas técnicas, destaca-se o Components Search na determinação de uma causa raiz quando há inúmeros componentes potenciais do efeito observado. A técnica consiste em listar todos os componentes que podem influencia a ocorrência de um determinado efeito para, então, testar a influencia de cada um deles isoladamente, ou então a influencia de mais de um deles simultaneamente (interação de fatores). Os testes de Components Search são experimentos práticos de desempenho realizado com pelo menos cinco pares de produtos, cujos efeitos observados entre cada par sejam opostos e com a máxima intensidade possível. Assim, um dos produtos do par é nomeado como BOB (best of best), enquanto que o outro é considerado WOW (worst of worst). O primeiro deve apresentar um efeito favorável máximo (melhor produto), enquanto que o segundo deve apresentar um efeito desfavorável na máxima intensidade possível (pior produto).

Para verificar a influencia de um ou mais fatores no efeito estudado, deve-se inverter o (s) mesmo (s) fator (es) entre os pares BOB e WOW e testá- los para medir o efeito. Se os efeitos dos produtos também forem invertidos, significa que o(s) parâmetro(s) em teste interfere(m) no efeito estudado e, portanto, podem ser considerados causa raiz do problema. Se os produtos BOB e WOW continuarem a apresentar os mesmos efeitos de quando antes da troca de componentes, significa que o (s) componente (s) não são capaz (es) de alterar o efeito observado no produto. Neste caso, deve-se repetir o procedimento para todos os outros componentes listados inicialmente.

Desta forma, é possível eliminar uma série de componentes potenciais do efeito em análise, reduzindo-se bastante o universo de componentes e características dos mesmos a serem medidas e avaliadas. Portanto, essa técnica é usada principalmente em casos em que se deseja reduzir o número de variáveis potenciais da causa de um problema. Após uma exaustiva e cuidadosa análise da (s) causa (s) raiz, deve-se quantificar as oportunidades de melhoria encontradas. Portanto, deve-se quantificar as diferenças de desempenho do processo atual e o desempenho esperado do processo após uma melhoria. A partir daí, projeções superficiais de ganhos financeiros podem ser calculadas e avaliadas.

Através de seu trabalho com mais de 900 organizações, Shainin desenvolveu uma disciplina chamada de engenharia estatística. Ele se especializou em criar estratégias que permitam aos engenheiros “conversar com as partes” e resolver “insolúveis” problemas. A disciplina tem sido usada com sucesso para o desenvolvimento de produtos, melhoria de qualidade, problema de análise de problemas, redução de custos de fabricação, a confiabilidade do produto, a prevenção de responsabilidade do produto, e pesquisa e desenvolvimento.

Depois de ganhar uma licenciatura em engenharia aeronáutica pelo Massachusetts Institute of Technology em 1936, Shainin foi empregado pela United Aircraft Corp (agora United Technologies Corp) como engenheiro e mais tarde foi responsável pelo controle de qualidade da empresa. Depois de 16 anos, tornou-se consultor de gestãoi na Rath e Strong. De 1950 a 1983, Shainin estava na faculdade da Universidade de Connecticut, onde ele conduziu o programa de educação continuada para trabalhadores industriais. Em um de seus seminários, os diretores médicos de dois hospitais de Connecticut o convenceram a trabalhar em alguns dos seus problemas críticos. Como resultado, o Hospital Infantil Newington (agora parte do Centro Médico da Criança de Connecticut) o nomeou consultor estatístico para a equipe médica de 1957-1994. Assim, ele teve a oportunidade de adaptar diversas de suas técnicas para os problemas da etiologia das enfermidades, principalmente as crianças com deficiência.

No início dos anos 1960, Shainin atuou na Grumman Aerospace como consultor de confiabilidade para o módulo lunar da NASA do projeto Apollo. Os componentes do módulo lunar protótipo e sistemas foram testados empiricamente utilizando o ambiente de múltiplos Shainin overstress sistema de testes de sonda para ser estatisticamente certeza de que mesmo o modo mais fraco falha tinha uma margem de segurança estatística. NASA inicialmente adjudicado o contrato para Grumman, porque nenhuma proposta aeroespacial outras competitivo demonstrado que a capacidade de segurança. Shainin escreveu mais de 100 artigos e foi o autor ou co-autor de vários livros, incluindo Manpower Gestão em Meio Ambiente Industrial; Engenheiros Ferramenta Manual; Quality Control Handbook, Nova Tomada de Decisão Ferramentas para Gestores; Controle de Qualidade para Engenheiros de Plásticos; Manufacturing, planejamento e estimativa Handbook; e Estatística In Action. Shainin, que morreu em 2000, teve um impacto significativo para a qualidade e confiabilidade e ganhou o reconhecimento e a estima de outras organizações profissionais e de muitas pessoas que ele influenciou através do seu envolvente, inteligente e instigante estilo.

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Linkedin: http://br.linkedin.com/pub/hayrton-prado/2/740/27a

ABNT ISO/TR 10017: um guia para a utilização das técnicas estatísticas

Curto-Circuitos e Seletividade em Instalações Elétricas Industriais – Conheça as Técnicas e Corretas Especificações – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Segurança na Operação e Manutenção de Subestações e Cabines Primárias – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Sistemas de Informações Tecnológicas Target Gedweb

Proteção de Motores Assíncronos – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Para mais informações e se inscrever, clique no link do curso.

imagesCAEK34WWA estatística é uma ferramenta empregada em vários setores, inclusive o industrial, para medir a variabilidade existente em quaisquer processos. Para tanto, utilizam-se de técnicas estatísticas como o Controle Estatístico de Processo (CEP), Modelos de Regressão, Delineamento de experimentos, ou simples técnicas descritivas. O uso de técnicas estatísticas nas empresas tem como objetivos reduzir custos e aumentar a competitividade no mercado. Tais técnicas permitem que, por meio de pequenas amostras, há a possibilidade de se interferir no comportamento do lote em produção, tomando as ações que evitem a ocorrência de problemas, através da prevenção. Qualquer processo de produção está sujeito à variação, por mais que o processo seja perfeito.

Um produto ou serviço sempre esta sujeito à variabilidade. No Controle Estatístico de Qualidade, a variabilidade tem causas aleatórias, inerentes ao processo (ou comuns) e causas especiais (ou identificáveis) que podem ser identificadas. Quando o processo é dito sob controle estatístico, ele opera apenas sob as causas inerentes, que são causas essencialmente inevitáveis, as quais pouco ou nada se pode fazer para eliminar. Quando o processo é dito estar fora de controle estatístico, ele opera sob causas especiais (ou identificáveis). Essas causas devem ser descobertas e corrigidas para que o processo volte ao controle. As causas especiais podem ocorrer 22 devido a: mão de obra, método de trabalho, matéria prima, máquinas, meio ambiente e meios de medição,o qual foi conhecido como 6M. A falta de treinamento de funcionários, a falta de ajuste ou lubrificação da máquina são exemplos de causas especiais. Convém ressaltar que existe o erro de afirmar-se que o processo está sob controle, quando ele não está e vice-versa.

Um dos objetivos principais do Controle Estatístico de Qualidade é detectar as causas especiais, investigar e aplicar ações para correção, para que o processo não produza produtos fora das especificações acima do previsto. O objetivo é a eliminação da variabilidade (ou de quase toda) no processo. Para detectar causas especiais utilizasse a carta de controle. As cartas de controle são compostas de três linhas paralelas, a linha central (LC), o limite superior de controle (LSC) e o limite inferior de controle (LIC). Esses limites devem estar dentro dos limites de especificação de engenharia. Os limites das cartas de controle são determinados com base na média e no desvio padrão da distribuição da característica de qualidade da variável quando o processo está isento de causas especiais, isto é, as medidas individuais são provenientes de uma mesma população. A teoria estatística desenvolvida por Shewhart para cálculos do limites de controle, para uma estatística W qualquer, com distribuição normal, é calculada a partir dos valores amostrais, e que tenha média μ(w) e desvio padrão s(w) conhecidos, terá uma probabilidade próxima a um de estar no intervalo de μ(w) ± 3s(w),

Uma importante ferramenta para os gestores e administradores é a norma ABNT ISO/TR 10017, que é um guia sobre as técnicas estatísticas, ou seja, um relatório técnico para auxiliar as organizações a identificar técnicas estatísticas úteis em desenvolvimento, implementação, manutenção e melhoria do sistema de gestão da qualidade, de acordo com os requisitos da ABNT NBR ISO 9001. Nesse contexto, a utilidade das técnicas estatísticas segue a variabilidade observada no comportamento e na realização de praticamente todos os processos, mesmo sob condições de uma estabilidade aparente. Na verdade, as técnicas estatísticas ajudam na medição e na análise das variações, auxiliando as organizações a identificar técnicas estatísticas úteis em desenvolvimento, implementação, manutenção e melhoria do sistema de gestão da qualidade, de acordo com os requisitos da NBR ISO 9001. Nesse contexto, a utilidade das técnicas estatísticas segue a variabilidade observada no comportamento e na realização de praticamente todos os processos, mesmo sob condições de uma estabilidade aparente.

Essa variabilidade pode ser observada nas características quantificáveis de produtos e processos, assim como em vários estágios do ciclo de vida total de produtos, desde a pesquisa de mercado até o serviço ao consumidor e a sua disposição final. As técnicas estatísticas ajudam na medição, descrição, análise, interpretação e modelagem dessas variações, mesmo com uma quantidade de dados limitada. A análise estatística destes dados ajuda a formar uma compreensão melhor da natureza, da extensão e das causas da variabilidade. Isso pode ajudar a solucionar e até mesmo prevenir problemas que podem surgir da variabilidade. As técnicas estatísticas permitem, portanto, melhor utilização dos dados disponíveis na tomada de decisões, e, assim, auxiliam a melhoria contínua da qualidade de produtos e processos, para alcançar a satisfação do cliente. Essas técnicas são relevantes a um amplo espectro de atividades, como pesquisa de mercado, projeto, desenvolvimento, produção, verificação, instalação e fornecimento.

Dessa forma, o relatório técnico pretende guiar e auxiliar as organizações a considerar e selecionar técnicas estatísticas apropriadas às necessidades da organização. O critério para determinar a necessidade de técnicas estatísticas e a pertinência da técnica selecionada permanece uma prerrogativa da organização. A necessidade de dados quantitativos que pode ser razoavelmente associada com a implementação das seções e subseções da NBR ISO 9001 é identificada em uma tabela Uma ou mais técnicas estatísticas que poderiam ser um beneficio potencial à organização acham-se listadas junto com a necessidade de dados quantitativos identificadas quando apropriadamente aplicadas a tais dados. Importante observar que as técnicas estatísticas podem ser apropriadamente aplicadas aos dados qualitativos se tais dados puderem ser convertidos em quantitativos. Nenhuma técnica estatística é relacionada onde não existir uma necessidade de dados quantitativos imediatamente relacionada com uma seção ou subseção da NBR ISO 9001.As técnicas estatísticas citadas são limitadas àquelas amplamente conhecidas.

Cada uma das técnicas estatísticas relacionadas está descrita sumariamente na seção 4, para ajudar a organização a avaliar a pertinência e o valor das técnicas estatísticas citadas e ajudar a determinar se a organização deveria usá-las ou não em um contexto específico. As seguintes técnicas estatísticas, ou famílias de técnicas, que poderiam auxiliar uma organização a satisfazer suas necessidades, são identificadas na tabela citada: estatística descritiva; projetos de experimentos; ensaios de hipóteses; análise de medições; análise de capacidade do processo; análise de regressão; análise de confiabilidade; amostragem; simulação; gráficos de controle estatístico do processo (CEP); tolerância estatística; análise de séries históricas.

Entre as várias técnicas estatísticas relacionadas, cabe notar que a estatística descritiva (que inclui métodos gráficos) constitui um aspecto importante de muitas dessas técnicas. Os critérios usados na seleção das técnicas relacionadas acima são que estas técnicas sejam bem conhecidas e amplamente utilizadas, e que sua aplicação tenha resultado em benefícios dos usuários. A escolha da técnica e a maneira de sua aplicação dependerão das circunstâncias e do propósito do exercício, que diferirá caso a caso. Encontra-se em 4.2 a 4.13 uma breve descrição de cada uma das técnicas estatísticas, ou família de técnicas. As descrições procuram auxiliar um leitor comum a avaliar a aplicabilidade e os benefícios potenciais do uso de técnicas estatísticas na implementação dos requisitos de um sistema de gestão da qualidade.

A real aplicação de técnicas estatísticas citadas aqui exigirá mais orientação e conhecimento que os fornecidos nesse relatório técnico. Existe uma grande quantidade de informações sobre técnicas estatísticas disponíveis e ao alcance do público, como livros, revistas, relatórios, manuais de indústrias e outras fontes de informação, que podem auxiliar a organização no uso eficaz de técnicas estatísticas. No entanto, o escopo deste não inclui a citação dessas fontes e, portanto, a pesquisa deste tipo de informações será delegada à iniciativa individual.

Para comprar a norma, clique no link http://www.target.com.br/portal_new/Pesquisa/Resultado.aspx#[CarregarDetalhesProdutoAjax]16_37008_1

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Facebook: http://www.facebook.com/profile.php?id=100002095953440

Glossário Técnico Gratuito

Disponível em três línguas, a ferramenta permite procurar termos técnicos traduzidos do português para o inglês e para o espanhol. Acesse no link

http://www.target.com.br/portal_new/ProdutosSolucoes/GlossarioTecnico.aspx?ingles=1&indice=A

Simulação Monte Carlo

Monte Carlo

Uma leitora diz que leu um texto que citava uma tal de Simulação Monte Carlo. O que seria isso, pergunta ela? Referindo-se a qualquer método analítico cuja intenção é imitar algum sistema real, principalmente quando outras análises são matematicamente complexas simulação descreve a distribuição e características dos possíveis valores de uma variável dependente, depois de determinados os possíveis valores e comportamentos das variáveis independentes a ela relacionadas. Em muitos casos, os modelos de simulação são utilizados para analisar uma decisão envolvendo risco, ou seja, um modelo no qual o comportamento de um ou mais fatores não é conhecido com certeza. Neste caso, estes fatores são conhecidos como variável aleatória e o seu comportamento é descrito por uma distribuição de probabilidade.

A simulação Monte Carlo é um modelo que utiliza a geração de números aleatórios para atribuir valores às variáveis que se deseja investigar. Os números podem ser obtidos por meio de algum processo aleatório (tabelas, roletas, etc.) ou diretamente do computador, através de funções específicas. Recebeu esse nome devido a Monte Carlo, em Mônaco, ser uma cidade onde os cassinos são a principal atração. Jogos como roleta, dados, etc. exibem um comportamento randômico.

Esse comportamento randômico de jogos é similar a forma como a simulação de Monte Carlo funciona. Por exemplo, quando se rola um dado, sabe-se que os possíveis valores são 1, 2, 3, 4, 5 e 6. No entanto, não se sabe qual vai ser o resultado do dado para uma jogada em particular. Da mesma forma acontece com as variáveis da simulação, onde se conhece a faixa de valores possíveis, mas não se sabe o valor específico para um dado tempo ou evento.

A simulação de Monte Carlo randomicamente gera inúmeros valores para variáveis consideradas incertas, simulando assim combinações de valores dessas variáveis que levam a resultados que são o foco da análise. No caso de análise de rentabilidade de projetos de investimento, cada simulação é como se o projeto tivesse sito executado e atingido uma determinada rentabilidade. As várias simulações então geram uma série de valores de possíveis rentabilidades que permitem ao tomador de decisão analisar o risco daquele projeto sob as condições que ele foi elaborado e modelado na planilha.

Em resumo, a simulação de Monte Carlo é um processo de amostragem cujo objetivo é permitir a observação do desempenho de uma variável de interesse em razão do comportamento de variáveis que encerram elementos de incerteza. Embora seja um conceito simples, a operacionalização desse processo requer o auxílio de alguns métodos matemáticos. Dentre os mais conhecidos e utilizados está o método da transformada inversa, que faz uso das propriedades dos números aleatórios e da função distribuição acumulada de uma variável aleatória.

Assim, a base para o processo de amostragem realizado nas simulações de Monte Carlo é a geração de números aleatórios. É a partir desse mecanismo que são produzidas as distribuições das variáveis de interesse, tomando por base as premissas e as distribuições associadas às variáveis de entrada, bem como a inter-relação entre elas. Um número aleatório, conforme já exposto, é definido como sendo um número uniformemente distribuído entre 0 e 1. No entanto, computadores não possuem a capacidade de gerar números realmente aleatórios, visto que fazem uso de um algoritmo para gerar uma seqüência de números.

Em razão disso, os números gerados são comumente chamados de números pseudo-aleatórios. Desse modo, é necessário escolher um algoritmo que forneça uma série de números que pareçam ser aleatórios. Um algoritmo aritmético gerador de números aleatórios deve satisfazer as seguintes condições: os números produzidos devem parecer uniformemente distribuídos entre 0 e 1 e não possuírem correlação entre eles; deve ser rápido na geração e consumir pouca memória; deve propiciar a reprodutibilidade da seqüência gerada. Portanto, previamente à execução da simulação, deve-se verificar se o gerador de números aleatórios a ser usado satisfaz as propriedades enunciadas acima, seja através de testes ou de referências que dêem suporte à sua utilização.

Esse tipo de simulação seleciona valores aleatoriamente de forma independente de acordo com a distribuição de probabilidade definida. Em outras palavras, o número aleatório utilizado em uma rodada não influencia os próximos números aleatórios a serem utilizados.

O método Hipercubo Latino seleciona valores aleatoriamente de forma dependente. Tal método divide a distribuição em intervalos com probabilidades iguais de sorteio e seleciona um valor aleatório pertencente a cada um dos intervalos. O método é mais preciso para a reprodução das distribuições de probabilidade escolhidas para as variáveis de entrada e, conseqüentemente, para o cálculo de estatísticas geradas pela simulação, uma vez que o intervalo da distribuição é utilizado de maneira mais equânime e consistente.

Desse modo, seu uso torna-se recomendado quando a preocupação principal está na acurácia das estatísticas da simulação. De forma alternativa, quando o objetivo principal for a geração de uma diversidade de cenários independentes, o método de Monte Carlo torna-se, por definição, mais adequado. Adicionalmente, o padrão de aleatoriedade propiciado por esse método pode ser conveniente para os casos em que as distribuições das variáveis de entrada são definidas sem a utilização de dados históricos.

Algumas etapas do processo de simulação incluem o desenvolvimento conceitual do modelo do sistema ou do problema a ser estudado: a construção do modelo de simulação: inclui o desenvolvimento de fórmulas e equações apropriadas, a coleta de dados necessários, a determinação das distribuições de probabilidades associadas às variáveis de entrada e, finalmente, a construção ou definição de uma forma para registrar os dados; a verificação e a validação do modelo: a verificação se refere ao processo de conferir se o modelo está livre de erros de lógica, ou seja, se o modelo faz aquilo que deveria fazer, e a validação tem por objetivo avaliar se o modelo construído é uma representação razoavelmente crível do sistema ou problema estudado; o desenho de experimentos com a utilização do modelo: tal etapa envolve a determinação de questões a serem respondidas pelo modelo com o intuito de auxiliar o decisor a alcançar o seu objetivo; a realização dos experimentos e análise dos resultados: finalmente, nessa última etapa, com base no desenho de experimento feito, as simulações são realizadas para que se obtenha o conjunto de informações especificado, que pode ser transmitido aos tomadores de decisão em forma de relatórios.

 Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.