Associação Brasileira de Normas Técnicas (ABNT) é condenada por danos morais em seu processo contra jornalista

O juiz afirmou na sentença que, não tendo as matérias veiculadas pelo requerido extrapolado o limite legal e constitucional – em respeito à liberdade de imprensa e de livre expressão da opinião -, ainda que de forma crítica, não causou ao requerido dano moral a ser reparado, o que leva à improcedência da ação. Por outro lado, não há como negar os danos morais sofridos pelo requerido. 

Hayrton Rodrigues do Prado Filho, jornalista profissional registrado no Ministério do Trabalho e Previdência Social sob o nº 12.113 e no Sindicato dos Jornalistas Profissionais do Estado de São Paulo sob o nº 6.008

O presidente do Conselho Deliberativo da ABNT, Pedro Buzatto Costa, entrou com uma ação de indenização por danos materiais e morais contra a minha pessoa por enviar e-mails, através de marketing digital que atinge mais de 200.000 pessoas, com conteúdo difamatório, atacando a autora e seu presidente. Meus advogados, Pedro Rodrigues do Prado Filho e Thais Campos Rodrigues do Prado, reconvencionaram e o juiz Luiz Raphael Nardy Lencioni Valdez condenou a ABNT ao pagamento da quantia de R$ 5.000,00, a título de indenização por danos morais ao requerido, valor que será corrigido pela Tabela Prática do TJSP e acrescido de juros legais a partir desta data, e, sucumbente, condenou a ABNT ao pagamento das despesas processuais e dos honorários advocatícios de meus advogados.

Tudo começo quando eu quis fazer um texto sobre a normalização no Brasil e contatei a diretoria para marcar uma entrevista. Pediram a pauta e enviei as perguntas: Como pode ser feita uma análise detalhada dos números da entidade, o balanço, a demonstração do resultado do exercício (DRE)?; Quais são os custos gastos nos processos de feitura das normas técnicas?; A ABNT paga algum valor aos membros das comissões de estudo que efetivamente elaboram as normas técnicas?; Quais são os poderes e salários dos diretores estatutários da ABNT? Há prática de nepotismo? Atualmente eles têm poder de decisão? Há pagamentos de despesas pessoais dos diretores pela ABNT? Se sim, como são feitas essas prestações de contas?; Quais são os investimentos feitos nos Comitês Técnicos em 2014, 2015 e 2016? Quais são os custos com salários dos funcionários?; A ABNT cobra royalties sobre direito autoral das normas técnicas? A ABNT obtém lucros nas vendas das normas técnicas?; A ABNT ainda é uma instituição de utilidade pública? Se sim, por que não presta conta do seu faturamento e de suas despesas à sociedade, descumprindo a lei? Até hoje estou esperando a entrevista e as respostas.

Então, comecei a escrever uma série textos e a enviar para os leitores via e-mail. Em vez de prestar esclarecimentos, me processaram e, muito embora os textos contenham críticas à atuação da diretoria da ABNT, estão exclusivamente ligados às atividades públicas por eles exercidas, e não à pessoa do requerente ou da instituição ABNT, inexistindo qualquer ofensa de cunho pessoal.

O juiz concorda com isso, já que se limita a controvérsia acerca de eventual prática de ilícito por parte do jornalista, consistente no envio de e-mails de marketing digital e publicações em blog de sua autoria com informações supostamente prejudiciais à imagem e honra dos requerentes. Os principais trechos questionados foram indicados com trechos ditos ofensivos em negrito.

A íntegra das correspondências foi juntada e cumpre observar que a garantia de liberdade de expressão e de imprensa é constitucional e inquestionável, abrangendo, inclusive, o direito de crítica. Por outro lado, no mesmo sentido o são a garantia ao direito à honra e à imagem, bem como à reparação em caso de ofensa.

E o juiz não vislumbrou a ocorrência a prática de ato ilícito do jornalista. Muito embora os trechos destacados na inicial e o conjunto das mensagens incluam críticas contundentes à ABNT e ao presidente da ABNT, as peças veiculadas não tiveram o condão de macular a honra e imagem dos autores, mas sim de demonstrar inconformismo com os serviços prestados pela associação, com a forma de administração da atual diretoria e com a forma como a atividade de normatização técnica é realizada no Brasil.

Como a ABNT é uma associação sem fins lucrativos de utilidade pública e Pedro Buzatto Costa, por sua vez, é seu diretor, fica tanto ele como a associação sujeitos a comentários, críticas e, principalmente, cobranças por parte da sociedade em geral. A natureza da atividade da ABNT também justifica o interesse jornalístico, ainda que mediante envio de mailing aos usuários interessados neste tipo de conteúdo.

O requerido é de fato jornalista, não se vale do anonimato para as críticas realizadas e não esconde ser membro de outra associação ligada à normalização técnica (ABQ). A linguagem utilizada nos artigos e correspondências, de outro lado, também não apresentam ofensas diretas à honra objetiva ou subjetiva dos citados.

Criticar a gestão da entidade, a forma de eleição ou de remuneração dos diretores e a centralização da gestão das normas técnicas pela ABNT – ainda que de forma reiterada e ao longo de vários anos – não significa ofender a honra da associação autora ou de seus diretores, mas sim exercer a liberdade de expressão e imprensa em relação à associação de utilidade pública.

Assim, não tendo as matérias veiculadas pelo requerido extrapolado o limite legal e constitucional – em respeito à liberdade de imprensa e de livre expressão da opinião -, ainda que de forma crítica, não causou o requerido dano moral a ser reparado, o que leva à improcedência da ação. Por outro lado, não há como negar os danos morais sofridos pelo requerido.

A autora ABNT ultrapassou o limite de informação dos associados e do público em geral ao citar o nome do requerido no comunicado, publicado no site da ABNT na internet, com conteúdo inegavelmente ofensivo, acusando-o de ser um blogueiro da espécie que se vende a interesses escusos dos que lhe pagam para difamar, caluniar e criar factoides com evidentes interesses financeiros, por si só já caracteriza o ato ilícito.

Não há como negar que a ABNT ofendeu a honra subjetiva e objetiva do requerido ao chamá-lo publicamente de blogueiro da espécie que se vende a interesses escusos dos que lhe pagam para difamar, caluniar e criar factoides com evidentes interesses financeiros. A publicação ultrapassa a desqualificação das críticas feitas pelo requerido – o que seria de todo admissível – e atinge a honra pessoal do requerido e sua reputação como jornalista, sugerindo motivações escusas e jornalismo de encomenda, sem base em fato que corrobore tal afirmativa.

De rigor, portanto, a condenação da associação-reconvinda ao pagamento de indenização ao réu-reconvinte pelos danos morais sofridos. “…Para condenar a associação/reconvinda ABNT ao pagamento da quantia de R$ 5.000,00, a título de indenização por danos morais ao requerido, valor que será corrigido pela Tabela Prática do TJSP e acrescido de juros legais a partir desta data. Sucumbente, condeno os autores ao pagamento das despesas processuais e dos honorários advocatícios do patrono da requerida, que fixo, por apreciação equitativa em R$ 1.000,00 (mil reais), atualizáveis a partir desta data”, conclui a sentença do juiz.

Hayrton Rodrigues do Prado Filho é jornalista profissional, editor da revista digital adnormas e do blog https://qualidadeonline.wordpress.com/hayrton@hayrtonprado.jor.br

Anúncios

Os objetivos do desenvolvimento sustentável no Antropoceno

Paulo Artaxo

O planeta está passando por uma série de processos de transformação muito fortes e rápidos, com o potencial de dificuldades importantes para as gerações futuras em termos de viabilidade como sociedade sustentável. Certamente estamos caminhando neste início de Antropoceno a um planeta com clima mais instável e violento, além da evidente escassez de recursos naturais. E somos nós que estamos promovendo tais mudanças, muitas das quais sequer nos demos conta.

Nosso planeta Terra tem uma história longa, de cerca de 4,5 bilhões de anos. O homem moderno só apareceu muito recentemente (200 mil anos atrás), e a civilização tal qual a conhecemos hoje existe há apenas 6 mil anos, minúsculo intervalo na vida de nosso planeta.

Foi, contudo, nesse último milênio, que o nosso planeta passou por mudanças significativas, estando hoje muito diferente do que era àquela época. Mudanças no uso do solo em larga escala tiveram início no desenvolvimento da agricultura, inicialmente em pequena escala, mas que hoje tomaram proporções planetárias.

A partir do século 19, o homem descobriu que queimar carvão, petróleo ou gás natural poderia produzir trabalho mecânico, e com esta descoberta na Inglaterra teve início a revolução industrial, que tantos progressos trouxe à humanidade. Porém, com o progresso vieram também os problemas, e um deles é o uso excessivo de recursos naturais como água, minerais, combustíveis fósseis e outros, que são finitos.

Com uma crescente população de 7 bilhões de pessoas em 2016, cuja estimativa é que tenhamos cerca de 10 bilhões de pessoas em algumas décadas, é fundamental pensarmos na sustentabilidade do planeta a longo prazo.

Entre as 9 milhões de espécies biológicas em nosso planeta, somos uma única, controlando a biosfera da Terra, a tal ponto que estamos alterando a composição da atmosfera e o clima de nosso planeta, com fortes consequências para todas as 9 milhões de espécies.

Áreas enormes das Américas, Europa e Ásia que eram florestas, há alguns séculos, hoje são áreas cultivadas ou com estradas e áreas urbanas, o que significa forte mudança no uso do solo, com reflexos em várias propriedades que regulam o clima do planeta, tais como o balanço radioativo.

Hoje, temos cerca de 1,3 bilhão de automóveis circulando na Terra; estima-se que podemos ter 2 bilhões de automóveis em algumas décadas. Parece claro que não se pode continuar dessa forma, pois estamos esgotando rapidamente os finitos recursos naturais de nosso planeta.

Para estudar essa questão, um grupo de cientistas mundiais fundou uma atividade chamada em inglês de Future Earth, ou Terra Futura (site: http://www.futureearth.org/). Essa iniciativa visa a entender como o desenvolvimento de nosso planeta pode se tornar sustentável a longo prazo.

O objetivo do Future Earth é produzir o conhecimento científico necessário para minimizar os riscos das mudanças climáticas globais e realizar a transição para a sustentabilidade global, se é que isso pode ser possível. Garantir a sustentabilidade de nossa sociedade vai envolver fortes mudanças de atitude de e para todos nós. A enorme desigualdade na distribuição das riquezas de nosso planeta traz instabilidade política, econômica e social, e é preciso minimizá-la para evitar conflitos ainda mais sérios.

Com estas preocupações em mente, as Nações Unidas estruturaram os chamados Objetivos de Desenvolvimento Sustentável (ODS) que consistem em um conjunto de metas acordadas pelos 193 países membros da ONU, visando ao desenvolvimento sustentável de nosso planeta a longo prazo.

Este é um dos resultados da Rio+20, e entraram em vigor em 1 de janeiro de 2016, com um prazo de realização até 31 de dezembro de 2030. Para cada ODS, são estruturados 169 metas e indicadores globais de acompanhamento da implementação dos ODS. Os 17 Objetivos de Desenvolvimento Sustentável são:

– Acabar com a pobreza em todas as suas formas, em todos os lugares;

– Acabar com a fome, alcançar a segurança alimentar, melhorar a nutrição;

– Assegurar uma vida saudável e promover o bem-estar para todos;

– Garantir educação inclusiva, equitativa e de qualidade;

– Alcançar a igualdade de gênero e empoderar todas as mulheres e meninas;

– Garantir disponibilidade e manejo sustentável da água;

– Garantir acesso à energia barata, confiável, sustentável;

– Promover o crescimento econômico sustentado, inclusivo e sustentável;

– Construir infraestrutura resiliente, promover a industrialização inclusiva;

– Reduzir a desigualdade entre os países e dentro deles;

– Tornar as cidades e os assentamentos humanos inclusivos, seguros, resilientes;

– Assegurar padrões de consumo e produção sustentáveis;

– Tomar medidas urgentes para combater a mudança do clima;

– Conservar e promover o uso sustentável dos oceanos;

– Proteger, recuperar e promover o uso sustentável das florestas;

– Promover sociedades pacíficas e inclusivas para o desenvolvimento sustentável;

– Fortalecer os mecanismos de implementação e revitalizar a parceria global.

A figura abaixo ilustra de modo pictórico estes ODS, que são abrangentes e visam a construir uma nova sociedade em nosso planeta.

Estes objetivos fazem parte da Agenda 2030 para o desenvolvimento sustentável, estruturado pela ONU, onde desenvolvimento sustentável é definido como o desenvolvimento que procura satisfazer às necessidades da geração atual, sem comprometer a capacidade das futuras gerações de satisfazerem as suas próprias necessidades.

Desenvolvimento sustentável demanda um esforço conjunto para a construção de um futuro inclusivo, resiliente e sustentável para todas as pessoas e todo o planeta. A questão das mudanças climáticas é um ponto central, onde se observa que a mudança do clima já impacta a saúde pública, segurança alimentar e hídrica, migração, paz e segurança.

A mudança do clima, se não for controlada, reduzirá os ganhos de desenvolvimento alcançados nas últimas décadas e impedirá possíveis ganhos futuros. As ações relacionadas à mudança do clima darão impulso ao desenvolvimento sustentável.

Se conseguirmos atingir a maior parte destes ODS, teremos um planeta mais igualitário, justo e sustentável. Os ODS, embora de natureza global e universalmente aplicáveis, dialogam com as políticas e ações nos âmbitos regional e local.

Na disseminação e no alcance das metas estabelecidas pelos ODS, é preciso promover a atuação dos governantes e gestores locais como protagonistas da conscientização e mobilização em torno dessa agenda global.

O Brasil ao longo dos últimos dez anos trabalhou em políticas de inclusão que tiraram milhões de pessoas da pobreza extrema. Este esforço deve continuar, com a intensificação de políticas sociais visando à integração de milhões de brasileiros na construção de uma sociedade mais justa e igualitária, trazendo desenvolvimento sustentável e justiça social. Essa é uma tarefa de todos os brasileiros.

Paulo Artaxo é professor do Instituto de Física da Universidade de São Paulo.

A falência do livro didático

Marisa Midori Deaecto

“A família Ribeiro vive em um sítio, onde planta cana-de-açúcar. Toda a produção de cana-de-açúcar do sítio dessa família é vendida para uma fábrica da cidade. Na fábrica, a cana-de-açúcar é transformada em açúcar. O açúcar consumido na casa da família Ribeiro é fabricado, na cidade, com a cana-de-açúcar plantada no próprio sítio da família Ribeiro.” (Buriti – Geografia, Organizadora: Editora Moderna. Obra coletiva, concebida, desenvolvida e produzida pela Editora Moderna. São Paulo: Editora Moderna, 2013, p. 105.)

Daqui a alguns anos com um pouco mais de sorte e se o livro didático assim o permitir, a mesma criança que passou por esse capítulo será introduzida em uma outra realidade socioeconômica: a da grande propriedade agroexportadora. Sabemos que o plantio da cana e a produção de açúcar constituem, desde suas origens no Brasil colonial, um complexo fundado na casa grande, na senzala, no latifúndio e no engenho.

A chegada da usina e, hoje, da grande indústria açucareira não alterou estruturalmente essa unidade. Leitores de José Lins do Rego, particularmente do “ciclo da cana-de-açúcar”, vão se lembrar de que os romances se iniciam no engenho e terminam quando este se encontra de “fogo morto”. O autor retrata a decadência do Nordeste açucareiro, nos anos de 1930, mas não a mudança da estrutura fundiária dessa região.

E-book: Saúde e segurança no trabalho (SST): legislação, as NBR e a ISO 45001

Autor: Hayrton Rodrigues do Prado Filho

SUMÁRIO

PREFÁCIO

A falta de prevenção de lesões no trabalho pode ocasionar degenerações e até incapacitações, nos casos mais graves

Capítulo I – O contexto do acidente na SST

Capítulo II – Os requisitos da ISO 45001

Capítulo III – Os conceitos de perigo e de risco na SST

Capítulo IV – Os termos e as definições existentes na ISO 45001

Capítulo V – A consulta e a participação dos trabalhadores nos programas de SST

Capítulo VI – A informação documentada na SST

Capítulo VII – A importância dos Equipamentos de Proteção Individual (EPI) na SST

Capítulo VIII – Avaliando os perigos dos locais de trabalho

Capítulo IX – O planejamento e o controle operacional na SST

Capítulo X – A terceirização na SST

Capítulo XI – A avaliação de desempenho em SST

Capítulo XII – A melhoria contínua em SST

Capítulo XIII – As responsabilidade dos gestores em SST

Anexo – A ISO 45001 traduzida

Para comprar o e-book, envie um e-mail para hayrton@uol.com.br e receberá as instruções para receber o livro. Preço: R$ 150,00.

Hoje o estado de São Paulo desponta como a grande potência brasileira na produção de açúcar e álcool. No entanto, as tecnologias não romperam com um sistema de produção fundado na tríade: monocultura em larga extensão – ou seja, baseada no latifúndio, usina transformadora de matéria-prima em produto industrializado e mão de obra assalariada.

Nessa triste paisagem, o sítio da família Ribeiro, tal como descrito, não passaria de uma quimera. Se inserido em um debate mais amplo sobre a estrutura fundiária e a exploração do trabalhador rural, esse modelo bem se apresentaria como uma solução para o problema da desigualdade no Brasil.

Sabemos que o plantio da cana e a produção de açúcar constituem, desde suas origens no Brasil colonial, um complexo fundado na casa grande, na senzala, no latifúndio e no engenho. A chegada da usina e, hoje, da grande indústria açucareira não alterou estruturalmente essa unidade.

No entanto, o capítulo trata da relação entre campo e cidade! Para quem visita Ribeirão Preto, a paisagem diz mais do que palavras. Nessa região, estradas simples são tomadas por caminhões pesados, abarrotados de cana-de-açúcar. O tráfego é lento, pois esses veículos devem suportar duas ou até três carrocerias, donde os nomes “Romeu e Julieta” e “treminhão”.

Ora, seria inimaginável pensar que esses caminhões pudessem adentrar nas rodovias para levar a cana à indústria situada na cidade. Não, eles trafegam em estradas vicinais, pois o transporte consiste em levar a cana da lavoura, a qual ocupa quilômetros a perder de vista, até a usina. Não é o só o fator logístico que justifica essa composição. Mas não é esse ponto.

Mercado editorial x escola

Livros didáticos movimentam a porção mais expressiva da indústria editorial brasileira, em exemplares produzidos e em capital gerado. Segundo os dados apurados pela Fipe, em 2016 o subsetor de didáticos foi responsável pela impressão ou reimpressão de 12.065 títulos, ou o equivalente a 220.458.397 exemplares.

Em títulos, ele fica abaixo dos livros científicos, técnicos e profissionais (13.719) e de obras gerais (19.370), que abarcam um universo muito abrangente, excetuando apenas os religiosos (6.665). Porém, se considerarmos as tiragens, ou seja, os exemplares impressos, concluímos que a produção anotada no subsetor de didáticos supera a soma dos outros três subsetores (obras gerais + religiosos + CTP = 206.729.696).

É preciso considerar, ainda, seu potencial de mercado, pois as vendas se destinam às escolas públicas (governo) e ao ensino privado. Diante dessas cifras, não é difícil concluir sobre sua força mobilizadora na indústria editorial e gráfica do Brasil.

Isso não se dá sem consequências. Cumpre ressaltar que os livros didáticos criaram sua própria rotina no mercado e no universo escolar.

As relações contratuais que demarcam a figura do autor e a do editor, seguindo um modelo multissecular de garantia do copyright, foram simplesmente abolidas em função da ideia de um novo projeto coletivo. Tal perspectiva podou a formação de novas gerações de autores surgidas na sala de aula ou nos quadros universitários.

Para citar alguns nomes que marcaram época, pensemos em Sérgio Buarque de Holanda, Caio Prado Jr., Massaud Moisés, José Jobson Arruda, Carlos Guilherme Mota, Leo Huberman, Melhem Adas, José Dantas –, sem contar autores não menos clássicos nas áreas de Matemática, Biologia, Física e Química – foram substituídos por inscrições aparentemente democráticas, a exemplo do livro em questão: “Obra coletiva concebida, desenvolvida e produzida pela editora Moderna”. Um único nome impera, soberano e onisciente na folha de rosto: o da “editora executiva”. Ora, publishers não escrevem livros. Editores também não os escrevem.

As relações contratuais que demarcam a figura do autor e a do editor, seguindo um modelo multissecular de garantia do copyright, foram simplesmente abolidas em função da ideia de um novo projeto coletivo. Por trás dessa aparente democratização que dilui a figura do autor em nome de uma coletividade, senão, de um projeto pedagógico, todo o sistema educacional é colocado em xeque.

Afinal de contas, são as escolas que desenvolvem projetos pedagógicos, não as editoras. Da mesma forma que são os autores que propõem metodologias de ensino, expressam suas visões de mundo, elaboram sistemas interpretativos. E, finalmente, cabe ao professor desenvolver seu próprio senso crítico e decidir, pela razão, sobre o melhor livro a ser adotado.

A culpa é de quem?

Ao engajar a comunidade escolar com pacotes completos de ensino, professores e alunos se tornam títeres de um sistema educacional fadado ao malogro. Coordenadores pedagógicos, sobretudo no sistema privado, desempenham o papel de gestores.

Professores são engessados em métodos e cursos de complementação profissional que se resumem a lhes ensinar como empregar o livro didático em sala de aula. Alunos são conduzidos a deglutir conteúdos lúdicos, coloridos, mas cujos equívocos podem comprometer, no presente e no futuro, suas formas de entendimento do mundo e da ciência.

Enquanto isso, a formação docente é acachapada por cursos rápidos de licenciatura que mais se assemelham ao imenso moedor de carne evocado nos anos 80 por Pink Floyd. Mas a culpa, nesse caso, não é dos professores!

A culpa é de uma máquina de produzir informações que não honra o valor do conhecimento gerado e reproduzido nas universidades brasileiras. Não falemos sobre o desrespeito ao profissional formado nas universidades, em suas diferentes áreas.

A culpa é de um sistema de ensino articulado com o mercado editorial que não deixa margens para a expressão e a interação de professores e alunos na sala de aula. A culpa é dos pais que não dispõem de tempo para refletir sobre os conteúdos que são passados aos seus filhos.

Diante de uma paisagem triste e de difícil solução, apenas a mobilização de setores educacionais, mas, sobretudo, da comunidade escolar como um todo (pais, alunos, professores, coordenadores pedagógicos) será capaz de decretar a falência desse modelo de livro didático que desconsidera o direito de propriedade e o dever de responsabilidade intelectual.

A falência moral de um projeto que apresenta impunemente conteúdos duvidosos e que coloca em segundo plano a capacidade de reflexão de professores e alunos, esta certamente já foi decretada.

Marisa Midori Deaecto é historiadora, professora da Escola de Comunicações e Artes (ECA) e doutora Honoris Causa da Universidade Eger, Hungria.

O problema da falta de atenção na escola

Ana Laura Godinho Lima

A falta de atenção tornou-se um dos principais problemas identificados nas escolas atualmente. Quando a desatenção de um aluno ultrapassa certo limite, estabelecido geralmente pela expectativa dos professores em sua experiência com crianças da mesma faixa etária, levanta a suspeita de ser déficit de atenção e hiperatividade. Em casos assim, costuma-se encaminhar o aluno para avaliação especializada e, caso a suspeita se confirme, ele recebe um laudo e pode ser medicado.

Esse itinerário do aluno desatento se tornou comum nas últimas décadas e evidencia um pressuposto que é preciso discutir. Supõe-se que a atenção é um pré-requisito para o bom desempenho, de modo que as crianças que não prestam atenção correm o risco de fracassar na escola. É evidente que as tarefas escolares exigem atenção, mas ela deveria mesmo ser considerada uma aptidão biologicamente determinada e uma condição para o aproveitamento escolar? Ou será a atenção um resultado do processo educativo?

De acordo com um artigo publicado na Revista Brasileira de Psiquiatria, “os estudos nacionais e internacionais situam a prevalência de déficit de atenção/hiperatividade (TDAH) entre 3% e 6%, sendo realizados com crianças em idade escolar na sua maioria” (2000, p. 7).

O mesmo texto apresenta uma extensa série de sintomas, considerados como indícios do transtorno: “dificuldade de prestar atenção a detalhes ou errar por descuido em atividades escolares e de trabalho; dificuldade para manter a atenção em tarefas ou atividades lúdicas; parecer não escutar quando lhe dirigem a palavra; não seguir instruções e não terminar tarefas escolares, domésticas ou deveres profissionais; dificuldade em organizar tarefas e atividades; evitar, ou relutar, em envolver-se em tarefas que exijam esforço mental constante; perder coisas necessárias para tarefas ou atividades; e ser facilmente distraído por estímulos alheios à tarefa e apresentar esquecimentos em atividades diárias (ROHDE et al, 2000, p. 7).”

A partir dessa relação de sintomas, quantas pessoas poderiam se considerar completamente a salvo desse transtorno? Como tem sido observado em uma já extensa produção acadêmica dedicada à crítica da medicalização dos comportamentos na escola, quando a falta de atenção se transforma em doença e passa a ser medicada, o efeito disso para a educação escolar é que “o professor não tem mais nada a ver com isso”, no duplo sentido de que se desresponsabiliza e torna-se impotente para enfrentar a situação. Só o que professor pode fazer é esperar que o remédio tenha o efeito desejado (GUARIDO, VOLTOLINI, 2009, p. 256).

Os professores do ensino superior, que esperam contar com a atenção concentrada de seus alunos por duas horas ou mais, beneficiam-se do trabalho realizado por todos aqueles que os precederam na escolarização básica dos seus alunos, desde o início da vida escolar, quando as professoras da educação infantil e dos primeiros anos do ensino fundamental despendiam grande parte de sua energia para manter a atenção das crianças em uma história ou uma explicação importante por 10 a 15 minutos.

Seria preciso considerar ainda que a atenção não é uma aptidão genérica, mas que se desenvolve na direção de objetos e conteúdos específicos. Não é algo que está contido no cérebro do aluno (ou que lhe falta), mas algo que, na escola, se estabelece na relação entre o aluno e o que lhe é apresentado pelo professor.

Sabe-se bem que os mesmos alunos que se mantêm bem atentos na aula de um professor podem se mostrar completamente dispersos na aula de outro. E cada professor sabe que há temas capazes de despertar uma atenção imediata, enquanto outros demandam um grande investimento em estratégias para prender a atenção.

Assim, parte importante do trabalho dos professores consiste em pensar em modos de “falar à imaginação dos alunos”, de criar um modo de fazer com que os alunos consintam em renunciar a outros estímulos para se concentrar no exame de uma questão, um problema, uma obra.

Bourdieu apresenta um bom exemplo de que a atenção é aprendida e se desenvolve na direção de conteúdos específicos quando apresenta os relatos de operários pouco escolarizados sobre suas impressões em uma visita a um museu. Sem poder contar com uma orientação prévia do olhar, eles sentiam dificuldade em prestar atenção às obras: “Quando não se sabe de nada, diz um operário de Dreux, não se consegue ver muito bem… Acho tudo parecido, é um quadro bonito, é uma bela pintura, mas não se consegue ver muito bem.’ E um outro operário de Lille observa: ‘Para alguém que queira interessar-se, é difícil. Só enxerga pinturas, datas. Para se poder fazer as diferenças, falta um guia, senão tudo fica igual’”(BOURDIEU, p. 214).

Considerando-se a questão por esse ponto de vista, é preciso reconhecer que não há contribuição a esperar da administração de remédios para o cultivo da atenção. O problema precisa ser formulado em outros termos.

Em vez de se considerar que as crianças desatentas precisam ser diagnosticadas e tratadas, poder-se-ia pensar que cabe à escola fomentar uma cultura da atenção, a qual, como bem observou Denice Catani, demandaria dos próprios professores a “disposição para reconhecer-se nos empreendimentos da ciência, da arte e da ética dos sujeitos. Mas é óbvio que tal disposição é ela própria obra de educação” (CATANI, 2010, p. 88).

Poder-se-ia dizer ainda, parafraseando Simone de Beauvoir, que não se nasce atento/a, torna-se atento/a. E a escola tem tudo a ver com isso.

Referências

BOURDIEU, P. “Sistemas de ensino e sistemas de pensamento”. A economia das trocas simbólicas. São Paulo: Perspectiva, 2013.

CATANI, D.B. “Por uma pedagogia da pesquisa educacional e da formação de professores na universidade”. Educar. Curitiba, n. 37, mai-ago, 2010, p. 77-92.

GUARIDO, R.; VOLTOLINI, R. “O que não tem remédio, remediado está?” Educação em Revista. Belo Horizonte, v. 25, n. 01, 2009, p. 239-263.

ROHDE, L.A. et al. “Transtorno de Déficit de atenção/hiperatividade”. Revista Brasileira de Psiquiatria. 2000, 22 (sup.II), p. 7-11.

Ana Laura Godinho Lima é professora da Faculdade de Educação da USP.

Crack, as tintas dramáticas de uma epidemia que se alastra

Paulo Saldiva

O Brasil vive nos dias atuais uma epidemia de consumo de crack. A partir dos anos 1990, o número de usuários cresce mais e mais, atingindo nos dias de hoje mais de um milhão de brasileiros.

Em outras palavras, partimos de um cenário onde se relatava um problema potencial para chegar ao ponto onde estamos, onde nos deparamos diuturnamente com jovens dependentes que perambulam esquálidos pelas ruas de nossas cidades.

No momento, o Brasil é o segundo maior consumidor desta droga. O crack é um derivado da cocaína, onde, por meio de adição de uma base forte à cocaína não purificada, obtém-se um extrato oleoso que, após secagem, pode ser cortado em “pedras”.

Devido às suas características físicas, as pedras podem ser queimadas em cachimbos improvisados e o produto da queima ser inalado e atingir os pulmões. Devido à sua grande superfície e alta capacidade de difusão, a inalação desta cocaína volatilizada faz com que a mesma seja absorvida com grande eficiência, permitindo que os efeitos estimulantes da droga sejam rápidos e intensos.

De todas as variantes do uso de cocaína, a inalação de crack é a que mais induz dependência. Por outro lado, o baixo custo de produção faz com que o crack seja acessível a muitos, definindo então o perfil típico do usuário, que são jovens das classes menos favorecidas, que tomam contato com a droga no início da adolescência.

O crack tem efeitos estimulantes intensos e promove contração dos vasos sanguíneos, que, a longo prazo, causam fibrose cardíaca, estreitamento não reversível das artérias coronárias e de ramos arteriais intracerebrais.

O Brasil vive nos dias atuais uma epidemia de consumo de crack. A partir dos anos 1990, o número de usuários cresce mais e mais, atingindo nos dias de hoje mais de um milhão de brasileiros.

Os jovens perdem função cardíaca e neurônios de forma irreversível, elevando o risco de morte por arritmias ou infarto do miocárdio e, de outra parte, alterações cognitivas e comportamentais permanentes.

A alteração do estado de consciência promovida pela droga facilita em muito as doenças transmitidas sexualmente – Aids, sífilis, gonorreia, hepatites virais, por exemplo – como também precoce. Os “bebês do crack” vão sofrer as consequências cardíacas e cerebrais em maior intensidade, fruto da exposição transplacentária durante o desenvolvimento fetal.

Esse é o quadro que temos pela frente, composto com as tintas dramáticas de uma epidemia que se alastra, provocando deterioração física e mental de jovens, com um nível de dependência que faz com que as taxas de recuperação pós-tratamento sejam ainda muito decepcionantes.

Ao se tornarem dependentes, os jovens perdem os seus lares e ganham as ruas, tornando-se vítimas preferenciais da violência urbana. Temos, portanto, à nossa frente um problema complexo e de difícil solução, uma vez que demanda a conjunção e, principalmente, a integração de diferentes áreas do conhecimento.

Uma plataforma ampla, capaz de produzir diálogos e convergências entre neurociências, toxicologia, psiquiatria, psicologia, ciências sociais, antropologia, educação, economia e urbanismo (entre outras áreas do conhecimento) é talvez um dos caminhos para propor novas abordagens e formas de tratamento, contribuir para a elaboração de políticas públicas eficientes e sugerir estruturas de apoio aos dependentes.

São ações que demandam a participação de pesquisadores de diferentes áreas do saber. A USP tem em seus quadros pesquisadores capazes e alunos interessados em todos os campos acima mencionados e, certamente, poderá contribuir de forma extremamente positiva para vencermos esse enorme desafio.

Paulo Saldiva é professor da Faculdade de Medicina e médico patologista. É o atual diretor do Instituto de Estudos Avançados.

Cursos pela internet

Conheça um programa especial de cursos pela internet, com as últimas tendências do mercado. Fique atento aos cursos que estão disponíveis. Acesse o link https://www.target.com.br/produtos/cursos-tecnicos/disponiveis-pela-internet

Novos elementos superpesados: como são produzidos e identificados

Alinka Lépine-Szily

Em 2016, a União Internacional de Química Pura e Aplicada (IUPAC) anunciou a descoberta de quatro novos elementos superpesados (SHE , de super heavy element) e divulgou seus respectivos nomes. A palavra “descoberta” não descreve bem o processo, pois trata-se na realidade de produzi-los e identificá-los, já que não existem na natureza. Esses novos elementos superpesados (SHE) vivem apenas frações de segundos e se desintegram emitindo partículas alfa em cadeia.

Foram eles: o elemento Z=113 (com 113 prótons) recebeu o nome de Nihonium (Nh), sugerido pela equipe responsável pela descoberta, do RIKEN, Nishina Center for Accelerator Based Sciences, Japão. Os elementos Z=115 e 117 que receberam os nomes de Moscovium (Mc) e Tennessine (Ts), respectivamente, tendo em vista a região em que trabalham os pesquisadores que contribuiram para sua produção. O elemento Z=118, também produzido no laboratório do Joint Institute for Nuclear Research, Dubna (Rússia), pela equipe local de pesquisadores russos e também do Laboratório Nacional de Livermore (EUA),  recebeu o nome de Oganesson (Og), em reconhecimento aos méritos do físico nuclear russo de origem armênia, professor Yuri Oganessian, por sua contribuição pioneira na produção de elementos transactinídeos e superpesados e pela observação da “ilha de estabilidade”, prevista por cálculos de estrutura nuclear.

Vamos recordar que o átomo neutro é feito de um núcleo, constituído por Z prótons e N nêutrons, e também de Z elétrons distribuídos em uma vasta região em torno do núcleo, sendo que o “raio do átomo” é várias ordens de grandeza maior que o “raio do núcleo”.  Os elementos são caracterizados pelo número Z, mas será que suas propriedades são determinadas pelos Z elétrons ou pelos Z prótons? Depende!

Neste artigo gostaríamos de esclarecer como são produzidos e identificados os SHE.  Quando se diz “são sintetizados”, algumas pessoas poderiam pensar que provêm da mistura feita por químicos em um tubo de ensaio. Explicaremos que por métodos químicos não se pode produzir novos elementos, apenas compostos de elementos já existentes. Foi aí que os alquimistas se enganaram, pensando que conseguiriam produzir ouro a partir de metais não nobres como chumbo ou outros.

As ligações moleculares dos compostos de qualquer tipo envolvem trocas de pequenas quantidades de energia entre os elétrons dos componentes. A energia de ligação dos núcleos é da ordem de milhões de eletronvolts e quando se trata de acrescentar mais um próton ao núcleo, para passar do elemento Z para Z+1, energias muito maiores são necessárias e o processo se chama reação nuclear.

Todos os elementos são produzidos por reações nucleares, começando no Big Bang com a nucleossíntese primordial, onde foram formados os elementos mais leves, deutério, hélio (3He e 4He), e os isótopos do lítio (6Li e 7Li), a partir do hidrogênio por reações de transferência e de captura de núcleons. Os elementos mais pesados do que o lítio foram e continuam sendo formados no interior das estrelas por reações de fusão. Até o elemento ferro (56Fe) as reações de fusão liberam energia; porém para núcleos mais pesados a reação de fusão consome energia e não pode ocorrer espontaneamente nas estrelas. Os elementos mais pesados que o ferro são produzidos em eventos explosivos, como explosões de supernovas ou colisão de estrelas de nêutrons, estas últimas sendo observadas  pela primeira vez, recentemente, com detecção de linhas espectrais de elementos pesados em telescópios do mundo inteiro.

Os elementos mais pesados que encontramos em nosso planeta Terra são: o tório (Z=90, 232Th), com meia-vida de 1,4×1010 anos ( 3 vezes a idade da Terra) e os isótopos do Urânio (Z=92, 235U e 238U) com meias-vidas respectivamente de 7×108 e 4,5×109 anos. Os elementos entre Z=89 e Z=103 são chamados actinídeos e correspondem ao período 7 e grupo 3 da Tabela Periódica. Os primeiros da série foram descobertos em minerais contendo óxido de urânio ou tório. A partir de Z > 92 nenhum elemento existe na natureza, sendo que todos os conhecidos foram produzidos artificalmente. Os de Z=99 e 100, em explosão de bomba nuclear. Os outros em laboratórios de física nuclear, usando aceleradores para fornecer a energia necessária para a fusão e usando métodos de física nuclear para detectar e identificar os elementos produzidos. A maioria desses elementos possui isótopos. Após a descoberta, os resultados são publicados em revistas de física, como, por exemplo, Physical Review Letters, Physics Letters B, Physical Review C, Nuclear Physics e outras.

Enquanto os elementos actinídeos puderam ser produzidos com irradiações de algumas horas, ou dias, no caso dos novos SHE, os físicos levam anos para coletar alguns núcleos. Nas experiências de produção de SHE aceleram-se feixes intensos de núcleos de um certo elemento de número atômico  Zprojétil , que incidem sobre um alvo de elemento de número atômico Zalvo .

Nessas colisões, os dois núcleos se fundem produzindo um núcleo composto. Se nenhuma partícula for emitida na fusão, o núcleo composto terá Z=Zprojétil +Zalvo e N= Nprojetil +Nalvo. Em seguida, um equipamento eletromagnético separa o feixe incidente dos produtos de fusão, que juntamente com as partículas alfa de seu decaimento são detectados em uma sequência de detectores (detectores a gás proporcionais multifilares e/ou semicondutores de silício), onde é medida sua posição e energia.

Quanto mais pesado o núcleo final, menor é a probabilidade de formá-lo. Durante muitos anos foram usados ions pesados estáveis como 208Pb ou 209Bi como alvo e feixes como Fe, Ni, Zn com energia incidente próxima à altura da barreira coulombiana. Essas reações chamadas de “fusão fria” ocorriam ao longo da drip-line de prótons e formavam isótopos pesados muito deficientes em nêutrons e com probabilidades muito baixas, conseguindo chegar até Z=113. A equipe de Oganessian de Dubna propôs usar como feixe o 48Ca, rico em nêutrons e alvos radioativos da cadeia de actinídeos, também ricos em nêutrons, como curium (248Cm), plutonium (244Pu), berkelium (249Bk) e californium (249-251Cf). Este processo foi chamado de “fusão quente” e apresentou probabilidades de fusão bem mais altas, chegando a elementos Z=114 – 118 e com isótopos com mais nêutrons.

A identificação se faz detectando todas as partículas alfa na cadeia de decaimento, até chegar em partículas alfa de energia e vida média conhecidas, de algum núcleo também já conhecido. Como exemplo mostramos uma das cadeias na descoberta do Z=117 por Oganessian et al [1] (o símbolo à significa se transforma em )249Bk(Z=97) + 48Ca(Z=20) à 294117+3n à 290115+α(E=10.81MeV, τ=112ms) à 286113+α(E=9.95MeV,τ=0.23s) à282Rg +α(E=9.63MeV, τ=28.3s) à 278Mt + α(E=9.00MeV,τ=0.74s)à 274Bh + +α(E=9.55MeV, τ=11s) à 270Db +α(E=8.8MeV,τ=1.3 min)àFissão espontânea de 270Db (E=291MeV,τ=33.4h). Neste caso é fácil retraçar o Z do núcleo inicial. O elemento Z=117 (Ts) com as vidas médias mais longas que seus vizinhos mais leves é a indicação forte da aproximação da ilha de estabilidade. Obviamente, essa descrição é bastante superficial e simplificada, cada elemento tem suas particularidades e não vamos detalhar tudo neste curto artigo. Em geral, bastam algumas poucas cadeias de decaimento alfa detectadas para poder declarar que um novo elemento foi produzido e identificado. Muitas vezes estas medidas são confirmados por novas medidas, pelo mesmo grupo ou outro grupo, até podendo usar outra reação nuclear.

As experiências para produzir os novos elementos são de física nuclear, realizadas por equipes de físicos nucleares. Depois de publicados os resultados e a comunidade internacional estar avisada da descoberta, a União Internacional de Física Pura e Aplicada (IUPAP) e a União Internacional de Química Pura e Aplicada (IUPAC) constituem uma comissão, chamada Joint Working Party. Cada União indica membros, não ligados à experiência em questão, cujo papel é estudar criticamente o trabalho e avaliar se os resultados são corretos, para validar a descoberta. Em geral quase todos os membros deste grupo são físicos nucleares, pois eles são capazes de avaliar os detalhes da experiência. Infelizmente, esses detalhes não chegam ao grande público e quando da ultima vez, em 30 de dezembro de 2015, a IUPAC sozinha anunciou a descoberta dos quatro novos elementos superpesados, pouca gente sabia que o mérito era de físicos nucleares.

Por enquanto estes elementos não têm aplicação prática, mas servem para confirmar modelos teóricos. Se pudermos medir suas propriedades químicas, como reatividade ou o fato de ser inerte, saberemos se sua posição na tabela periódica está correta e se a tabela ainda funciona para átomos tão pesados. A provável descoberta da ilha de estabilidade na região superpesada, com átomos vivendo anos, ou até milhares de anos, poderá ter aplicações práticas.

Referências: [1] Yu. Ts. Oganessian, J.H. Hamilton and V.K.Utyonkov et al EPJ Web of Conferences17, 02001 (2011) DOI: 10.105/epjconf20111702001

Alinka Lépine-Szily é professora sênior do Instituto de Física (IF) da USP.

Seja crítico quanto à amostragem

Entendendo as diferentes abordagens para o monitoramento de processos e quando usá-las.

Manuel E. Peña-Rodríguez

A amostragem é um dos métodos mais utilizados em sistemas de qualidade para controlar a saída de qualquer processo. Especificamente, a amostragem permite que as organizações distingam entre um produto bom e um defeituoso. Desta forma, o produto defeituoso é rejeitado, enquanto o bom produto continua através do fluxo de produção.

Um dos tópicos mais discutidos na amostragem é o tamanho da amostra. Existem muitos métodos usados para determinar o tamanho da amostra. Há, no entanto, outro aspecto importante na seleção da amostra: a sua representatividade.

Para ser representativo, uma amostra deve ter a mesma chance de ser coletada como as outras. Suponha que um tamanho de amostra seja calculado como 32, por exemplo. A obtenção de uma amostra representativa significaria coletar quatro amostras a cada hora durante um turno de oito horas.

Uma amostra não representativa seria obtida se você coletasse as primeiras 32 amostras do turno ou as últimas 32 amostras do turno. Usando a primeira abordagem (quatro amostras a cada hora), seria mais fácil detectar defeitos se eles ocorressem aleatoriamente durante o turno. A amostragem apenas no início ou no final do turno, no entanto, torna difícil detectar defeitos se eles ocorrerem aleatoriamente durante o turno.

Um exemplo seria amostrar rótulos em um rolo contínuo de papel. Se uma organização apenas pega uma amostra no começo do lançamento ou no final do lançamento (ou ambos), como seria possível detectar defeitos em algum lugar no meio do lançamento? Até mesmo adicionar uma amostra no meio do rolo pode não ser suficiente.

O que acontecerá se, em três quartos do rolo, houver uma falha de energia que faça com que a impressora perca a programação? Se você esperar até a próxima amostra no final do lançamento, será tarde demais. Por essa razão, outra amostra deve ser coletada após qualquer interrupção planejada (ou não planejada) do processo.

Amostragem versus controle estatístico do processo

A amostragem é uma maneira fácil e econômica de monitorar um processo. A sua principal desvantagem é que ela não fornece muita informação sobre o nível de qualidade do processo. Apenas fornece informação binária: bom produto ou defeituoso.

Ela não diz o quão bom é o produto ou o quão ruim é o defeituoso. Com base no conceito tradicional de variação explicado na função de perda de Genichi Taguchi (veja a figura 1), a maioria das organizações mede a qualidade do produto em relação aos limites de especificação. Se o processo estiver dentro dos limites de especificação superior e inferior, o processo é considerado bom e nada mais é feito (lado esquerdo da figura 1).

Mas Taguchi explicou que essa não é uma boa abordagem. As perdas começam a se desenvolver assim que você se desvia do valor alvo (lado direito da Figura 1). Taguchi calculou as perdas usando a fórmula: L = k (y – T)², onde L é a perda monetária, k é um fator de custo, y é o valor real e T é o valor alvo.

Com base na função de perda de Taguchi, se você quiser reduzir as perdas, você deve se concentrar na variação – especificamente, na redução da variação do processo. A partir da fórmula, significa que o valor de saída (y) deve ser o mais próximo possível do valor alvo (T).

Como observado anteriormente, a amostragem não informa sobre a variação do processo. Só permite determinar se o produto é aceito (produto bom) ou rejeitado (produto defeituoso).

Portanto, se você quiser aprender sobre variação de processo, não deve confiar apenas na amostragem de aceitação. Você deve ter uma abordagem mais dinâmica. Um bom método é o controle estatístico de processo (statistical process control – SPC) usando um gráfico de controle.

Uma suposição bem conhecida é que todos os processos estão sujeitos a algum tipo de variação. Os dois principais tipos de variação são a de causa comum e a de causa especial. A variação de causa comum está presente em todos os processos porque nenhum processo é perfeito. É inerente a todo processo.

A variação de causa especial não está presente em todos os processos e é causada por eventos atribuíveis – isto é, por certas coisas que têm um impacto significativo no processo. Em um gráfico de controle, os limites de controle definem onde as causas comuns de variação são esperadas.

Em outras palavras, enquanto o processo estiver em controle estatístico, todos os pontos estarão dentro dos limites de controle definidos pelo intervalo de ± 3s da média, sem qualquer padrão não aleatório. Quando você vê um ponto fora desses limites de controle (ou pontos que mostram um padrão não aleatório), isso indica algum tipo de causa atribuível ou especial que deve ser estudada e corrigida.

Um gráfico de controle não apenas permite que você veja como a centralização e a variação do processo se comportam em uma escala baseada em tempo, mas também permite que você veja o resultado de algumas melhorias no processo. A figura 2 mostra um exemplo de um gráfico de controle no qual melhorias de processos foram implementadas. Observe que, como os limites de controle são calculados com base na variação do processo, quando a variação diminui, os limites de controle devem ser recalculados para refletir a nova variação menor.

Abordagens recomendadas em vários estágios

Agora que você conhece algumas das vantagens e desvantagens das cartas de controle de amostragem e o SPC, vamos explorar quando é conveniente usar amostragem e quando é conveniente usar gráficos de controle para monitorar a qualidade do processo. Vamos dividir o local de inspeção em três áreas: entrada, em processo e final.

Inspeção de entrada: nesta parte do processo, a organização está recebendo matérias-primas, materiais de embalagem, componentes comprados e assim por diante. É importante medir a qualidade dos materiais neste estágio para evitar a aceitação de produtos defeituosos que causem problemas a jusante.

Mas qual é a melhor abordagem nesta fase do processo? Como observado anteriormente, a amostragem por aceitação é uma maneira fácil e econômica de avaliar a qualidade do produto recebido. Os planos de amostragem de aceitação – como a ANSI/ASQ Z1.4 (para dados de atributo) e a ANSI/SQ Z1.9 (para dados variáveis) – são abordagens comuns nesse estágio.

A principal desvantagem desses planos de amostragem de aceitação é que, dependendo dos valores de limite de qualidade de aceitação (acceptance quality limit – AQL) selecionados, você poderia ter um plano que aceitaria o lote inteiro, mesmo com uma ou mais peças defeituosas. Mas esta não é uma restrição importante neste estágio. Por quê?

Porque os processos devem ter controles suficientes para detectar todas as peças defeituosas que não foram detectadas durante o processo de inspeção de entrada e rejeitá-las durante as etapas subsequentes do processo. Esses planos de amostragem de aceitação são projetados para fornecer uma alta probabilidade de aceitação se a porcentagem de defeituosos estiver dentro ou abaixo da AQL estabelecida. Em outras palavras, esses planos fornecem uma proteção para o fornecedor do material recebido porque você ainda aceitaria o lote mesmo com um pequeno número de defeitos.

Inspeção no processo: existem muitas abordagens que as organizações usam para inspecionar o produto enquanto o processo está em andamento. Por exemplo, muitas organizações usam planos de amostragem de aceitação, como a ANSI/ASQ Z1.4. Outras organizações desenvolvem algum tipo de amostragem e estabelecem limites de alerta e limites de ação para determinar o curso de ação após a coleta da amostra.

O principal problema com essas abordagens é que a decisão ainda é aprovada/reprovada (continue o processo ou pare o processo e faça alguns ajustes). Normalmente, a reação é tarde demais. Outra desvantagem desse tipo de abordagem é que ela não tem memória – ou seja, a decisão de cada dia é tomada, mas está registrada apenas na documentação desse dia.

Nesse caso, como os dados não são registrados em uma escala baseada em tempo, não é possível ver nenhuma tendência possível. Uma solução para esse dilema é registrar os dados e plotar em um gráfico de controle.

Por exemplo, uma organização pode estar amostrando peças em uma estação específica usando a abordagem de limite de alerta/limite de ação. No final do dia, se nada fora do limite de ação acontece, a organização apenas arquiva o formulário contendo o número de defeitos para esse dia. Se houver um evento fora do limite de ação, a organização ajusta o processo, registra a quantidade de defeitos e arquiva o formulário. No entanto, nada mais acontece.

A recomendação para essa organização é plotar o número de defeitos a cada dia (ou a cada turno, preferencialmente) em um gráfico de controle tipo c, que é um gráfico de controle para o número de defeitos. Após dados suficientes (pelo menos um mês) terem sido coletados, a organização deve calcular os limites de controle. A partir desse ponto, pode-se usar o gráfico de controle para avaliar o processo e determinar quando uma causa atribuível foi identificada.

O gráfico de controle é uma ferramenta de monitoramento que pode alimentar outras ferramentas estatísticas para melhorar os processos. Se os gráficos de controle mostrarem que a variação de turno para turno é muito alta, por exemplo, outras ferramentas podem ser usadas para determinar a origem de tal variabilidade, como o teste F, o teste de Levene ou o projeto de experimentos. Após as melhorias serem implementadas, os gráficos de controle podem ser usados para rastrear a melhoria, conforme mostrado na figura 2.

Inspeção final: Se todas as inspeções anteriores (entrada e no processo) forem bem executadas, não deve haver muitos defeitos no processo após sua conclusão. A figura 3 mostra como os defeitos devem ser canalizados por meio dos diferentes pontos de inspeção. Ainda assim, uma inspeção final é necessária como uma garantia de que nenhum produto defeituoso é liberado para o cliente.

Uma abordagem comum usada pelas organizações nesse estágio é implementar os mesmos planos de amostragem de aceitação usados na inspeção de entrada: ANSI/ASQ Z1.4 ou ANSI/ASQ Z1.9. No entanto, como mencionado anteriormente, há uma grande desvantagem em usar esse tipo de abordagem: aceitar muito com um ou mais defeitos.

Para evitar essa situação, muitas organizações começam a ajustar os planos de inspeção para obter um plano com aceitação de zero produto defeituoso e a rejeição de um ou mais produtos defeituosos. Na maioria das vezes, pode-se alcançar esse plano selecionando um AQL menor. Esta não é apenas uma aplicação incorreta do plano de amostragem, mas os tamanhos de amostragem obtidos por esses planos também são desnecessariamente altos.

Uma alternativa é usar o plano de amostragem de aceitação zero (c = 0) desenvolvido por Nicholas L. Squeglia. Este plano é uma adaptação dos planos de amostragem de aceitação cobertos anteriormente (especificamente, para a ANSI/ASQ Z1.4). No plano de amostragem de aceitação zero, no entanto, a probabilidade de aceitar um lote com uma certa porcentagem de produto defeituoso ou superior é muito baixa. Nesse caso, há uma proteção para os clientes de que nenhum produto defeituoso será liberado.

Esta salvaguarda para o cliente não é a única razão para se usar este tipo de plano na inspeção final. Na maioria das vezes, os tamanhos de amostra, calculados a partir dos planos de amostragem com aceitação zero, são muito menores do que aqueles para a ANSI/ASQ Z1.4 e com os mesmos valores de AQL. Em outras palavras, os tamanhos das amostras serão muito menores, mantendo a proteção para o cliente.

A tabela 1 mostra um exemplo de um plano de amostragem para um tamanho de lote de 12.000 peças e um AQL de 0.65. Usando a ANSI/ASQ Z1.4, um total de 315 amostras teria que ser coletado, enquanto usando o plano de amostragem c = 0, apenas 77 amostras teriam que ser coletadas (uma redução de 76%).

Não só há uma redução significativa no tamanho da amostra, mas para o plano da ANSI/ASQ Z1.4, o lote poderia ser aceito com cinco partes defeituosas e rejeitado com seis partes rejeitadas. Se zero peças defeituosas for o único nível aceito, o AQL deve ser reduzido para 0,040. Conforme observado anteriormente, a redução da AQL não é a abordagem correta.

É importante notar outro aspecto do plano de amostragem c = 0: Quando um ou mais produtos defeituosos são obtidos usando este plano, o lote é retido. A frase “reter o lote” é significativa porque não significa necessariamente rejeição.

De acordo com esses planos, o inspetor não rejeita necessariamente o lote se um ou mais produtos defeituosos forem encontrados. O inspetor aceita somente o lote se zero produto defeituoso for encontrado na amostra. A retenção do lote força a revisão e a disposição do pessoal de engenharia ou gerência para determinar a extensão e gravidade do produto defeituoso.

Melhorando as atividades de inspeção

A amostragem é uma consideração importante na maioria das organizações, especialmente quando a amostragem é destrutiva por natureza. As organizações gastam grandes quantidades de recursos (pessoal e econômica) durante as atividades de inspeção. Muitas vezes, mesmo com muitas amostras, o produto defeituoso é liberado para o cliente.

Isto é, em parte, porque as abordagens de amostragem corretas não foram implementadas. Ao implantar as abordagens corretas de inspeção de entrada, no processo e final, as organizações podem melhorar suas atividades de inspeção e fornecer um produto melhor para seus clientes.

Bibliografia

Peña-Rodríguez, Manuel E., Statistical Process Control for the FDA-Regulated Industry, ASQ Quality Press, 2013.

Squeglia, Nicholas L., Zero Acceptance Number Sampling Plans, fifth edition, ASQ Quality Press, 2008.

Taguchi, Genichi, Subir Chowdhury and Yuin Wu, Taguchi’s Quality Engineering Handbook, John Wiley & Sons, 2005.

Manuel E. Peña-Rodríguez é consultor da Business Excellence Consulting Inc. em Guaynabo, Porto Rico. Ele ganhou um Juris Doctor da Pontifícia Universidade Católica em Ponce, Porto Rico, e um mestrado em gerenciamento de engenharia pela Cornell University em Ithaca, NY. Peña-Rodríguez é membro sênior da ASQ e engenheiro de qualidade certificado pela ASQ, auditor, gerente de qualidade/excelência organizacional, Six Sigma Black Belt, auditor biomédico e auditor de pontos de controle de risco e análise crítica.