A falência do livro didático

Marisa Midori Deaecto

“A família Ribeiro vive em um sítio, onde planta cana-de-açúcar. Toda a produção de cana-de-açúcar do sítio dessa família é vendida para uma fábrica da cidade. Na fábrica, a cana-de-açúcar é transformada em açúcar. O açúcar consumido na casa da família Ribeiro é fabricado, na cidade, com a cana-de-açúcar plantada no próprio sítio da família Ribeiro.” (Buriti – Geografia, Organizadora: Editora Moderna. Obra coletiva, concebida, desenvolvida e produzida pela Editora Moderna. São Paulo: Editora Moderna, 2013, p. 105.)

Daqui a alguns anos com um pouco mais de sorte e se o livro didático assim o permitir, a mesma criança que passou por esse capítulo será introduzida em uma outra realidade socioeconômica: a da grande propriedade agroexportadora. Sabemos que o plantio da cana e a produção de açúcar constituem, desde suas origens no Brasil colonial, um complexo fundado na casa grande, na senzala, no latifúndio e no engenho.

A chegada da usina e, hoje, da grande indústria açucareira não alterou estruturalmente essa unidade. Leitores de José Lins do Rego, particularmente do “ciclo da cana-de-açúcar”, vão se lembrar de que os romances se iniciam no engenho e terminam quando este se encontra de “fogo morto”. O autor retrata a decadência do Nordeste açucareiro, nos anos de 1930, mas não a mudança da estrutura fundiária dessa região.

E-book: Saúde e segurança no trabalho (SST): legislação, as NBR e a ISO 45001

Autor: Hayrton Rodrigues do Prado Filho

SUMÁRIO

PREFÁCIO

A falta de prevenção de lesões no trabalho pode ocasionar degenerações e até incapacitações, nos casos mais graves

Capítulo I – O contexto do acidente na SST

Capítulo II – Os requisitos da ISO 45001

Capítulo III – Os conceitos de perigo e de risco na SST

Capítulo IV – Os termos e as definições existentes na ISO 45001

Capítulo V – A consulta e a participação dos trabalhadores nos programas de SST

Capítulo VI – A informação documentada na SST

Capítulo VII – A importância dos Equipamentos de Proteção Individual (EPI) na SST

Capítulo VIII – Avaliando os perigos dos locais de trabalho

Capítulo IX – O planejamento e o controle operacional na SST

Capítulo X – A terceirização na SST

Capítulo XI – A avaliação de desempenho em SST

Capítulo XII – A melhoria contínua em SST

Capítulo XIII – As responsabilidade dos gestores em SST

Anexo – A ISO 45001 traduzida

Para comprar o e-book, envie um e-mail para hayrton@uol.com.br e receberá as instruções para receber o livro. Preço: R$ 150,00.

Hoje o estado de São Paulo desponta como a grande potência brasileira na produção de açúcar e álcool. No entanto, as tecnologias não romperam com um sistema de produção fundado na tríade: monocultura em larga extensão – ou seja, baseada no latifúndio, usina transformadora de matéria-prima em produto industrializado e mão de obra assalariada.

Nessa triste paisagem, o sítio da família Ribeiro, tal como descrito, não passaria de uma quimera. Se inserido em um debate mais amplo sobre a estrutura fundiária e a exploração do trabalhador rural, esse modelo bem se apresentaria como uma solução para o problema da desigualdade no Brasil.

Sabemos que o plantio da cana e a produção de açúcar constituem, desde suas origens no Brasil colonial, um complexo fundado na casa grande, na senzala, no latifúndio e no engenho. A chegada da usina e, hoje, da grande indústria açucareira não alterou estruturalmente essa unidade.

No entanto, o capítulo trata da relação entre campo e cidade! Para quem visita Ribeirão Preto, a paisagem diz mais do que palavras. Nessa região, estradas simples são tomadas por caminhões pesados, abarrotados de cana-de-açúcar. O tráfego é lento, pois esses veículos devem suportar duas ou até três carrocerias, donde os nomes “Romeu e Julieta” e “treminhão”.

Ora, seria inimaginável pensar que esses caminhões pudessem adentrar nas rodovias para levar a cana à indústria situada na cidade. Não, eles trafegam em estradas vicinais, pois o transporte consiste em levar a cana da lavoura, a qual ocupa quilômetros a perder de vista, até a usina. Não é o só o fator logístico que justifica essa composição. Mas não é esse ponto.

Mercado editorial x escola

Livros didáticos movimentam a porção mais expressiva da indústria editorial brasileira, em exemplares produzidos e em capital gerado. Segundo os dados apurados pela Fipe, em 2016 o subsetor de didáticos foi responsável pela impressão ou reimpressão de 12.065 títulos, ou o equivalente a 220.458.397 exemplares.

Em títulos, ele fica abaixo dos livros científicos, técnicos e profissionais (13.719) e de obras gerais (19.370), que abarcam um universo muito abrangente, excetuando apenas os religiosos (6.665). Porém, se considerarmos as tiragens, ou seja, os exemplares impressos, concluímos que a produção anotada no subsetor de didáticos supera a soma dos outros três subsetores (obras gerais + religiosos + CTP = 206.729.696).

É preciso considerar, ainda, seu potencial de mercado, pois as vendas se destinam às escolas públicas (governo) e ao ensino privado. Diante dessas cifras, não é difícil concluir sobre sua força mobilizadora na indústria editorial e gráfica do Brasil.

Isso não se dá sem consequências. Cumpre ressaltar que os livros didáticos criaram sua própria rotina no mercado e no universo escolar.

As relações contratuais que demarcam a figura do autor e a do editor, seguindo um modelo multissecular de garantia do copyright, foram simplesmente abolidas em função da ideia de um novo projeto coletivo. Tal perspectiva podou a formação de novas gerações de autores surgidas na sala de aula ou nos quadros universitários.

Para citar alguns nomes que marcaram época, pensemos em Sérgio Buarque de Holanda, Caio Prado Jr., Massaud Moisés, José Jobson Arruda, Carlos Guilherme Mota, Leo Huberman, Melhem Adas, José Dantas –, sem contar autores não menos clássicos nas áreas de Matemática, Biologia, Física e Química – foram substituídos por inscrições aparentemente democráticas, a exemplo do livro em questão: “Obra coletiva concebida, desenvolvida e produzida pela editora Moderna”. Um único nome impera, soberano e onisciente na folha de rosto: o da “editora executiva”. Ora, publishers não escrevem livros. Editores também não os escrevem.

As relações contratuais que demarcam a figura do autor e a do editor, seguindo um modelo multissecular de garantia do copyright, foram simplesmente abolidas em função da ideia de um novo projeto coletivo. Por trás dessa aparente democratização que dilui a figura do autor em nome de uma coletividade, senão, de um projeto pedagógico, todo o sistema educacional é colocado em xeque.

Afinal de contas, são as escolas que desenvolvem projetos pedagógicos, não as editoras. Da mesma forma que são os autores que propõem metodologias de ensino, expressam suas visões de mundo, elaboram sistemas interpretativos. E, finalmente, cabe ao professor desenvolver seu próprio senso crítico e decidir, pela razão, sobre o melhor livro a ser adotado.

A culpa é de quem?

Ao engajar a comunidade escolar com pacotes completos de ensino, professores e alunos se tornam títeres de um sistema educacional fadado ao malogro. Coordenadores pedagógicos, sobretudo no sistema privado, desempenham o papel de gestores.

Professores são engessados em métodos e cursos de complementação profissional que se resumem a lhes ensinar como empregar o livro didático em sala de aula. Alunos são conduzidos a deglutir conteúdos lúdicos, coloridos, mas cujos equívocos podem comprometer, no presente e no futuro, suas formas de entendimento do mundo e da ciência.

Enquanto isso, a formação docente é acachapada por cursos rápidos de licenciatura que mais se assemelham ao imenso moedor de carne evocado nos anos 80 por Pink Floyd. Mas a culpa, nesse caso, não é dos professores!

A culpa é de uma máquina de produzir informações que não honra o valor do conhecimento gerado e reproduzido nas universidades brasileiras. Não falemos sobre o desrespeito ao profissional formado nas universidades, em suas diferentes áreas.

A culpa é de um sistema de ensino articulado com o mercado editorial que não deixa margens para a expressão e a interação de professores e alunos na sala de aula. A culpa é dos pais que não dispõem de tempo para refletir sobre os conteúdos que são passados aos seus filhos.

Diante de uma paisagem triste e de difícil solução, apenas a mobilização de setores educacionais, mas, sobretudo, da comunidade escolar como um todo (pais, alunos, professores, coordenadores pedagógicos) será capaz de decretar a falência desse modelo de livro didático que desconsidera o direito de propriedade e o dever de responsabilidade intelectual.

A falência moral de um projeto que apresenta impunemente conteúdos duvidosos e que coloca em segundo plano a capacidade de reflexão de professores e alunos, esta certamente já foi decretada.

Marisa Midori Deaecto é historiadora, professora da Escola de Comunicações e Artes (ECA) e doutora Honoris Causa da Universidade Eger, Hungria.

Anúncios

O problema da falta de atenção na escola

Ana Laura Godinho Lima

A falta de atenção tornou-se um dos principais problemas identificados nas escolas atualmente. Quando a desatenção de um aluno ultrapassa certo limite, estabelecido geralmente pela expectativa dos professores em sua experiência com crianças da mesma faixa etária, levanta a suspeita de ser déficit de atenção e hiperatividade. Em casos assim, costuma-se encaminhar o aluno para avaliação especializada e, caso a suspeita se confirme, ele recebe um laudo e pode ser medicado.

Esse itinerário do aluno desatento se tornou comum nas últimas décadas e evidencia um pressuposto que é preciso discutir. Supõe-se que a atenção é um pré-requisito para o bom desempenho, de modo que as crianças que não prestam atenção correm o risco de fracassar na escola. É evidente que as tarefas escolares exigem atenção, mas ela deveria mesmo ser considerada uma aptidão biologicamente determinada e uma condição para o aproveitamento escolar? Ou será a atenção um resultado do processo educativo?

De acordo com um artigo publicado na Revista Brasileira de Psiquiatria, “os estudos nacionais e internacionais situam a prevalência de déficit de atenção/hiperatividade (TDAH) entre 3% e 6%, sendo realizados com crianças em idade escolar na sua maioria” (2000, p. 7).

O mesmo texto apresenta uma extensa série de sintomas, considerados como indícios do transtorno: “dificuldade de prestar atenção a detalhes ou errar por descuido em atividades escolares e de trabalho; dificuldade para manter a atenção em tarefas ou atividades lúdicas; parecer não escutar quando lhe dirigem a palavra; não seguir instruções e não terminar tarefas escolares, domésticas ou deveres profissionais; dificuldade em organizar tarefas e atividades; evitar, ou relutar, em envolver-se em tarefas que exijam esforço mental constante; perder coisas necessárias para tarefas ou atividades; e ser facilmente distraído por estímulos alheios à tarefa e apresentar esquecimentos em atividades diárias (ROHDE et al, 2000, p. 7).”

A partir dessa relação de sintomas, quantas pessoas poderiam se considerar completamente a salvo desse transtorno? Como tem sido observado em uma já extensa produção acadêmica dedicada à crítica da medicalização dos comportamentos na escola, quando a falta de atenção se transforma em doença e passa a ser medicada, o efeito disso para a educação escolar é que “o professor não tem mais nada a ver com isso”, no duplo sentido de que se desresponsabiliza e torna-se impotente para enfrentar a situação. Só o que professor pode fazer é esperar que o remédio tenha o efeito desejado (GUARIDO, VOLTOLINI, 2009, p. 256).

Os professores do ensino superior, que esperam contar com a atenção concentrada de seus alunos por duas horas ou mais, beneficiam-se do trabalho realizado por todos aqueles que os precederam na escolarização básica dos seus alunos, desde o início da vida escolar, quando as professoras da educação infantil e dos primeiros anos do ensino fundamental despendiam grande parte de sua energia para manter a atenção das crianças em uma história ou uma explicação importante por 10 a 15 minutos.

Seria preciso considerar ainda que a atenção não é uma aptidão genérica, mas que se desenvolve na direção de objetos e conteúdos específicos. Não é algo que está contido no cérebro do aluno (ou que lhe falta), mas algo que, na escola, se estabelece na relação entre o aluno e o que lhe é apresentado pelo professor.

Sabe-se bem que os mesmos alunos que se mantêm bem atentos na aula de um professor podem se mostrar completamente dispersos na aula de outro. E cada professor sabe que há temas capazes de despertar uma atenção imediata, enquanto outros demandam um grande investimento em estratégias para prender a atenção.

Assim, parte importante do trabalho dos professores consiste em pensar em modos de “falar à imaginação dos alunos”, de criar um modo de fazer com que os alunos consintam em renunciar a outros estímulos para se concentrar no exame de uma questão, um problema, uma obra.

Bourdieu apresenta um bom exemplo de que a atenção é aprendida e se desenvolve na direção de conteúdos específicos quando apresenta os relatos de operários pouco escolarizados sobre suas impressões em uma visita a um museu. Sem poder contar com uma orientação prévia do olhar, eles sentiam dificuldade em prestar atenção às obras: “Quando não se sabe de nada, diz um operário de Dreux, não se consegue ver muito bem… Acho tudo parecido, é um quadro bonito, é uma bela pintura, mas não se consegue ver muito bem.’ E um outro operário de Lille observa: ‘Para alguém que queira interessar-se, é difícil. Só enxerga pinturas, datas. Para se poder fazer as diferenças, falta um guia, senão tudo fica igual’”(BOURDIEU, p. 214).

Considerando-se a questão por esse ponto de vista, é preciso reconhecer que não há contribuição a esperar da administração de remédios para o cultivo da atenção. O problema precisa ser formulado em outros termos.

Em vez de se considerar que as crianças desatentas precisam ser diagnosticadas e tratadas, poder-se-ia pensar que cabe à escola fomentar uma cultura da atenção, a qual, como bem observou Denice Catani, demandaria dos próprios professores a “disposição para reconhecer-se nos empreendimentos da ciência, da arte e da ética dos sujeitos. Mas é óbvio que tal disposição é ela própria obra de educação” (CATANI, 2010, p. 88).

Poder-se-ia dizer ainda, parafraseando Simone de Beauvoir, que não se nasce atento/a, torna-se atento/a. E a escola tem tudo a ver com isso.

Referências

BOURDIEU, P. “Sistemas de ensino e sistemas de pensamento”. A economia das trocas simbólicas. São Paulo: Perspectiva, 2013.

CATANI, D.B. “Por uma pedagogia da pesquisa educacional e da formação de professores na universidade”. Educar. Curitiba, n. 37, mai-ago, 2010, p. 77-92.

GUARIDO, R.; VOLTOLINI, R. “O que não tem remédio, remediado está?” Educação em Revista. Belo Horizonte, v. 25, n. 01, 2009, p. 239-263.

ROHDE, L.A. et al. “Transtorno de Déficit de atenção/hiperatividade”. Revista Brasileira de Psiquiatria. 2000, 22 (sup.II), p. 7-11.

Ana Laura Godinho Lima é professora da Faculdade de Educação da USP.

Crack, as tintas dramáticas de uma epidemia que se alastra

Paulo Saldiva

O Brasil vive nos dias atuais uma epidemia de consumo de crack. A partir dos anos 1990, o número de usuários cresce mais e mais, atingindo nos dias de hoje mais de um milhão de brasileiros.

Em outras palavras, partimos de um cenário onde se relatava um problema potencial para chegar ao ponto onde estamos, onde nos deparamos diuturnamente com jovens dependentes que perambulam esquálidos pelas ruas de nossas cidades.

No momento, o Brasil é o segundo maior consumidor desta droga. O crack é um derivado da cocaína, onde, por meio de adição de uma base forte à cocaína não purificada, obtém-se um extrato oleoso que, após secagem, pode ser cortado em “pedras”.

Devido às suas características físicas, as pedras podem ser queimadas em cachimbos improvisados e o produto da queima ser inalado e atingir os pulmões. Devido à sua grande superfície e alta capacidade de difusão, a inalação desta cocaína volatilizada faz com que a mesma seja absorvida com grande eficiência, permitindo que os efeitos estimulantes da droga sejam rápidos e intensos.

De todas as variantes do uso de cocaína, a inalação de crack é a que mais induz dependência. Por outro lado, o baixo custo de produção faz com que o crack seja acessível a muitos, definindo então o perfil típico do usuário, que são jovens das classes menos favorecidas, que tomam contato com a droga no início da adolescência.

O crack tem efeitos estimulantes intensos e promove contração dos vasos sanguíneos, que, a longo prazo, causam fibrose cardíaca, estreitamento não reversível das artérias coronárias e de ramos arteriais intracerebrais.

O Brasil vive nos dias atuais uma epidemia de consumo de crack. A partir dos anos 1990, o número de usuários cresce mais e mais, atingindo nos dias de hoje mais de um milhão de brasileiros.

Os jovens perdem função cardíaca e neurônios de forma irreversível, elevando o risco de morte por arritmias ou infarto do miocárdio e, de outra parte, alterações cognitivas e comportamentais permanentes.

A alteração do estado de consciência promovida pela droga facilita em muito as doenças transmitidas sexualmente – Aids, sífilis, gonorreia, hepatites virais, por exemplo – como também precoce. Os “bebês do crack” vão sofrer as consequências cardíacas e cerebrais em maior intensidade, fruto da exposição transplacentária durante o desenvolvimento fetal.

Esse é o quadro que temos pela frente, composto com as tintas dramáticas de uma epidemia que se alastra, provocando deterioração física e mental de jovens, com um nível de dependência que faz com que as taxas de recuperação pós-tratamento sejam ainda muito decepcionantes.

Ao se tornarem dependentes, os jovens perdem os seus lares e ganham as ruas, tornando-se vítimas preferenciais da violência urbana. Temos, portanto, à nossa frente um problema complexo e de difícil solução, uma vez que demanda a conjunção e, principalmente, a integração de diferentes áreas do conhecimento.

Uma plataforma ampla, capaz de produzir diálogos e convergências entre neurociências, toxicologia, psiquiatria, psicologia, ciências sociais, antropologia, educação, economia e urbanismo (entre outras áreas do conhecimento) é talvez um dos caminhos para propor novas abordagens e formas de tratamento, contribuir para a elaboração de políticas públicas eficientes e sugerir estruturas de apoio aos dependentes.

São ações que demandam a participação de pesquisadores de diferentes áreas do saber. A USP tem em seus quadros pesquisadores capazes e alunos interessados em todos os campos acima mencionados e, certamente, poderá contribuir de forma extremamente positiva para vencermos esse enorme desafio.

Paulo Saldiva é professor da Faculdade de Medicina e médico patologista. É o atual diretor do Instituto de Estudos Avançados.

Cursos pela internet

Conheça um programa especial de cursos pela internet, com as últimas tendências do mercado. Fique atento aos cursos que estão disponíveis. Acesse o link https://www.target.com.br/produtos/cursos-tecnicos/disponiveis-pela-internet

Novos elementos superpesados: como são produzidos e identificados

Alinka Lépine-Szily

Em 2016, a União Internacional de Química Pura e Aplicada (IUPAC) anunciou a descoberta de quatro novos elementos superpesados (SHE , de super heavy element) e divulgou seus respectivos nomes. A palavra “descoberta” não descreve bem o processo, pois trata-se na realidade de produzi-los e identificá-los, já que não existem na natureza. Esses novos elementos superpesados (SHE) vivem apenas frações de segundos e se desintegram emitindo partículas alfa em cadeia.

Foram eles: o elemento Z=113 (com 113 prótons) recebeu o nome de Nihonium (Nh), sugerido pela equipe responsável pela descoberta, do RIKEN, Nishina Center for Accelerator Based Sciences, Japão. Os elementos Z=115 e 117 que receberam os nomes de Moscovium (Mc) e Tennessine (Ts), respectivamente, tendo em vista a região em que trabalham os pesquisadores que contribuiram para sua produção. O elemento Z=118, também produzido no laboratório do Joint Institute for Nuclear Research, Dubna (Rússia), pela equipe local de pesquisadores russos e também do Laboratório Nacional de Livermore (EUA),  recebeu o nome de Oganesson (Og), em reconhecimento aos méritos do físico nuclear russo de origem armênia, professor Yuri Oganessian, por sua contribuição pioneira na produção de elementos transactinídeos e superpesados e pela observação da “ilha de estabilidade”, prevista por cálculos de estrutura nuclear.

Vamos recordar que o átomo neutro é feito de um núcleo, constituído por Z prótons e N nêutrons, e também de Z elétrons distribuídos em uma vasta região em torno do núcleo, sendo que o “raio do átomo” é várias ordens de grandeza maior que o “raio do núcleo”.  Os elementos são caracterizados pelo número Z, mas será que suas propriedades são determinadas pelos Z elétrons ou pelos Z prótons? Depende!

Neste artigo gostaríamos de esclarecer como são produzidos e identificados os SHE.  Quando se diz “são sintetizados”, algumas pessoas poderiam pensar que provêm da mistura feita por químicos em um tubo de ensaio. Explicaremos que por métodos químicos não se pode produzir novos elementos, apenas compostos de elementos já existentes. Foi aí que os alquimistas se enganaram, pensando que conseguiriam produzir ouro a partir de metais não nobres como chumbo ou outros.

As ligações moleculares dos compostos de qualquer tipo envolvem trocas de pequenas quantidades de energia entre os elétrons dos componentes. A energia de ligação dos núcleos é da ordem de milhões de eletronvolts e quando se trata de acrescentar mais um próton ao núcleo, para passar do elemento Z para Z+1, energias muito maiores são necessárias e o processo se chama reação nuclear.

Todos os elementos são produzidos por reações nucleares, começando no Big Bang com a nucleossíntese primordial, onde foram formados os elementos mais leves, deutério, hélio (3He e 4He), e os isótopos do lítio (6Li e 7Li), a partir do hidrogênio por reações de transferência e de captura de núcleons. Os elementos mais pesados do que o lítio foram e continuam sendo formados no interior das estrelas por reações de fusão. Até o elemento ferro (56Fe) as reações de fusão liberam energia; porém para núcleos mais pesados a reação de fusão consome energia e não pode ocorrer espontaneamente nas estrelas. Os elementos mais pesados que o ferro são produzidos em eventos explosivos, como explosões de supernovas ou colisão de estrelas de nêutrons, estas últimas sendo observadas  pela primeira vez, recentemente, com detecção de linhas espectrais de elementos pesados em telescópios do mundo inteiro.

Os elementos mais pesados que encontramos em nosso planeta Terra são: o tório (Z=90, 232Th), com meia-vida de 1,4×1010 anos ( 3 vezes a idade da Terra) e os isótopos do Urânio (Z=92, 235U e 238U) com meias-vidas respectivamente de 7×108 e 4,5×109 anos. Os elementos entre Z=89 e Z=103 são chamados actinídeos e correspondem ao período 7 e grupo 3 da Tabela Periódica. Os primeiros da série foram descobertos em minerais contendo óxido de urânio ou tório. A partir de Z > 92 nenhum elemento existe na natureza, sendo que todos os conhecidos foram produzidos artificalmente. Os de Z=99 e 100, em explosão de bomba nuclear. Os outros em laboratórios de física nuclear, usando aceleradores para fornecer a energia necessária para a fusão e usando métodos de física nuclear para detectar e identificar os elementos produzidos. A maioria desses elementos possui isótopos. Após a descoberta, os resultados são publicados em revistas de física, como, por exemplo, Physical Review Letters, Physics Letters B, Physical Review C, Nuclear Physics e outras.

Enquanto os elementos actinídeos puderam ser produzidos com irradiações de algumas horas, ou dias, no caso dos novos SHE, os físicos levam anos para coletar alguns núcleos. Nas experiências de produção de SHE aceleram-se feixes intensos de núcleos de um certo elemento de número atômico  Zprojétil , que incidem sobre um alvo de elemento de número atômico Zalvo .

Nessas colisões, os dois núcleos se fundem produzindo um núcleo composto. Se nenhuma partícula for emitida na fusão, o núcleo composto terá Z=Zprojétil +Zalvo e N= Nprojetil +Nalvo. Em seguida, um equipamento eletromagnético separa o feixe incidente dos produtos de fusão, que juntamente com as partículas alfa de seu decaimento são detectados em uma sequência de detectores (detectores a gás proporcionais multifilares e/ou semicondutores de silício), onde é medida sua posição e energia.

Quanto mais pesado o núcleo final, menor é a probabilidade de formá-lo. Durante muitos anos foram usados ions pesados estáveis como 208Pb ou 209Bi como alvo e feixes como Fe, Ni, Zn com energia incidente próxima à altura da barreira coulombiana. Essas reações chamadas de “fusão fria” ocorriam ao longo da drip-line de prótons e formavam isótopos pesados muito deficientes em nêutrons e com probabilidades muito baixas, conseguindo chegar até Z=113. A equipe de Oganessian de Dubna propôs usar como feixe o 48Ca, rico em nêutrons e alvos radioativos da cadeia de actinídeos, também ricos em nêutrons, como curium (248Cm), plutonium (244Pu), berkelium (249Bk) e californium (249-251Cf). Este processo foi chamado de “fusão quente” e apresentou probabilidades de fusão bem mais altas, chegando a elementos Z=114 – 118 e com isótopos com mais nêutrons.

A identificação se faz detectando todas as partículas alfa na cadeia de decaimento, até chegar em partículas alfa de energia e vida média conhecidas, de algum núcleo também já conhecido. Como exemplo mostramos uma das cadeias na descoberta do Z=117 por Oganessian et al [1] (o símbolo à significa se transforma em )249Bk(Z=97) + 48Ca(Z=20) à 294117+3n à 290115+α(E=10.81MeV, τ=112ms) à 286113+α(E=9.95MeV,τ=0.23s) à282Rg +α(E=9.63MeV, τ=28.3s) à 278Mt + α(E=9.00MeV,τ=0.74s)à 274Bh + +α(E=9.55MeV, τ=11s) à 270Db +α(E=8.8MeV,τ=1.3 min)àFissão espontânea de 270Db (E=291MeV,τ=33.4h). Neste caso é fácil retraçar o Z do núcleo inicial. O elemento Z=117 (Ts) com as vidas médias mais longas que seus vizinhos mais leves é a indicação forte da aproximação da ilha de estabilidade. Obviamente, essa descrição é bastante superficial e simplificada, cada elemento tem suas particularidades e não vamos detalhar tudo neste curto artigo. Em geral, bastam algumas poucas cadeias de decaimento alfa detectadas para poder declarar que um novo elemento foi produzido e identificado. Muitas vezes estas medidas são confirmados por novas medidas, pelo mesmo grupo ou outro grupo, até podendo usar outra reação nuclear.

As experiências para produzir os novos elementos são de física nuclear, realizadas por equipes de físicos nucleares. Depois de publicados os resultados e a comunidade internacional estar avisada da descoberta, a União Internacional de Física Pura e Aplicada (IUPAP) e a União Internacional de Química Pura e Aplicada (IUPAC) constituem uma comissão, chamada Joint Working Party. Cada União indica membros, não ligados à experiência em questão, cujo papel é estudar criticamente o trabalho e avaliar se os resultados são corretos, para validar a descoberta. Em geral quase todos os membros deste grupo são físicos nucleares, pois eles são capazes de avaliar os detalhes da experiência. Infelizmente, esses detalhes não chegam ao grande público e quando da ultima vez, em 30 de dezembro de 2015, a IUPAC sozinha anunciou a descoberta dos quatro novos elementos superpesados, pouca gente sabia que o mérito era de físicos nucleares.

Por enquanto estes elementos não têm aplicação prática, mas servem para confirmar modelos teóricos. Se pudermos medir suas propriedades químicas, como reatividade ou o fato de ser inerte, saberemos se sua posição na tabela periódica está correta e se a tabela ainda funciona para átomos tão pesados. A provável descoberta da ilha de estabilidade na região superpesada, com átomos vivendo anos, ou até milhares de anos, poderá ter aplicações práticas.

Referências: [1] Yu. Ts. Oganessian, J.H. Hamilton and V.K.Utyonkov et al EPJ Web of Conferences17, 02001 (2011) DOI: 10.105/epjconf20111702001

Alinka Lépine-Szily é professora sênior do Instituto de Física (IF) da USP.

Seja crítico quanto à amostragem

Entendendo as diferentes abordagens para o monitoramento de processos e quando usá-las.

Manuel E. Peña-Rodríguez

A amostragem é um dos métodos mais utilizados em sistemas de qualidade para controlar a saída de qualquer processo. Especificamente, a amostragem permite que as organizações distingam entre um produto bom e um defeituoso. Desta forma, o produto defeituoso é rejeitado, enquanto o bom produto continua através do fluxo de produção.

Um dos tópicos mais discutidos na amostragem é o tamanho da amostra. Existem muitos métodos usados para determinar o tamanho da amostra. Há, no entanto, outro aspecto importante na seleção da amostra: a sua representatividade.

Para ser representativo, uma amostra deve ter a mesma chance de ser coletada como as outras. Suponha que um tamanho de amostra seja calculado como 32, por exemplo. A obtenção de uma amostra representativa significaria coletar quatro amostras a cada hora durante um turno de oito horas.

Uma amostra não representativa seria obtida se você coletasse as primeiras 32 amostras do turno ou as últimas 32 amostras do turno. Usando a primeira abordagem (quatro amostras a cada hora), seria mais fácil detectar defeitos se eles ocorressem aleatoriamente durante o turno. A amostragem apenas no início ou no final do turno, no entanto, torna difícil detectar defeitos se eles ocorrerem aleatoriamente durante o turno.

Um exemplo seria amostrar rótulos em um rolo contínuo de papel. Se uma organização apenas pega uma amostra no começo do lançamento ou no final do lançamento (ou ambos), como seria possível detectar defeitos em algum lugar no meio do lançamento? Até mesmo adicionar uma amostra no meio do rolo pode não ser suficiente.

O que acontecerá se, em três quartos do rolo, houver uma falha de energia que faça com que a impressora perca a programação? Se você esperar até a próxima amostra no final do lançamento, será tarde demais. Por essa razão, outra amostra deve ser coletada após qualquer interrupção planejada (ou não planejada) do processo.

Amostragem versus controle estatístico do processo

A amostragem é uma maneira fácil e econômica de monitorar um processo. A sua principal desvantagem é que ela não fornece muita informação sobre o nível de qualidade do processo. Apenas fornece informação binária: bom produto ou defeituoso.

Ela não diz o quão bom é o produto ou o quão ruim é o defeituoso. Com base no conceito tradicional de variação explicado na função de perda de Genichi Taguchi (veja a figura 1), a maioria das organizações mede a qualidade do produto em relação aos limites de especificação. Se o processo estiver dentro dos limites de especificação superior e inferior, o processo é considerado bom e nada mais é feito (lado esquerdo da figura 1).

Mas Taguchi explicou que essa não é uma boa abordagem. As perdas começam a se desenvolver assim que você se desvia do valor alvo (lado direito da Figura 1). Taguchi calculou as perdas usando a fórmula: L = k (y – T)², onde L é a perda monetária, k é um fator de custo, y é o valor real e T é o valor alvo.

Com base na função de perda de Taguchi, se você quiser reduzir as perdas, você deve se concentrar na variação – especificamente, na redução da variação do processo. A partir da fórmula, significa que o valor de saída (y) deve ser o mais próximo possível do valor alvo (T).

Como observado anteriormente, a amostragem não informa sobre a variação do processo. Só permite determinar se o produto é aceito (produto bom) ou rejeitado (produto defeituoso).

Portanto, se você quiser aprender sobre variação de processo, não deve confiar apenas na amostragem de aceitação. Você deve ter uma abordagem mais dinâmica. Um bom método é o controle estatístico de processo (statistical process control – SPC) usando um gráfico de controle.

Uma suposição bem conhecida é que todos os processos estão sujeitos a algum tipo de variação. Os dois principais tipos de variação são a de causa comum e a de causa especial. A variação de causa comum está presente em todos os processos porque nenhum processo é perfeito. É inerente a todo processo.

A variação de causa especial não está presente em todos os processos e é causada por eventos atribuíveis – isto é, por certas coisas que têm um impacto significativo no processo. Em um gráfico de controle, os limites de controle definem onde as causas comuns de variação são esperadas.

Em outras palavras, enquanto o processo estiver em controle estatístico, todos os pontos estarão dentro dos limites de controle definidos pelo intervalo de ± 3s da média, sem qualquer padrão não aleatório. Quando você vê um ponto fora desses limites de controle (ou pontos que mostram um padrão não aleatório), isso indica algum tipo de causa atribuível ou especial que deve ser estudada e corrigida.

Um gráfico de controle não apenas permite que você veja como a centralização e a variação do processo se comportam em uma escala baseada em tempo, mas também permite que você veja o resultado de algumas melhorias no processo. A figura 2 mostra um exemplo de um gráfico de controle no qual melhorias de processos foram implementadas. Observe que, como os limites de controle são calculados com base na variação do processo, quando a variação diminui, os limites de controle devem ser recalculados para refletir a nova variação menor.

Abordagens recomendadas em vários estágios

Agora que você conhece algumas das vantagens e desvantagens das cartas de controle de amostragem e o SPC, vamos explorar quando é conveniente usar amostragem e quando é conveniente usar gráficos de controle para monitorar a qualidade do processo. Vamos dividir o local de inspeção em três áreas: entrada, em processo e final.

Inspeção de entrada: nesta parte do processo, a organização está recebendo matérias-primas, materiais de embalagem, componentes comprados e assim por diante. É importante medir a qualidade dos materiais neste estágio para evitar a aceitação de produtos defeituosos que causem problemas a jusante.

Mas qual é a melhor abordagem nesta fase do processo? Como observado anteriormente, a amostragem por aceitação é uma maneira fácil e econômica de avaliar a qualidade do produto recebido. Os planos de amostragem de aceitação – como a ANSI/ASQ Z1.4 (para dados de atributo) e a ANSI/SQ Z1.9 (para dados variáveis) – são abordagens comuns nesse estágio.

A principal desvantagem desses planos de amostragem de aceitação é que, dependendo dos valores de limite de qualidade de aceitação (acceptance quality limit – AQL) selecionados, você poderia ter um plano que aceitaria o lote inteiro, mesmo com uma ou mais peças defeituosas. Mas esta não é uma restrição importante neste estágio. Por quê?

Porque os processos devem ter controles suficientes para detectar todas as peças defeituosas que não foram detectadas durante o processo de inspeção de entrada e rejeitá-las durante as etapas subsequentes do processo. Esses planos de amostragem de aceitação são projetados para fornecer uma alta probabilidade de aceitação se a porcentagem de defeituosos estiver dentro ou abaixo da AQL estabelecida. Em outras palavras, esses planos fornecem uma proteção para o fornecedor do material recebido porque você ainda aceitaria o lote mesmo com um pequeno número de defeitos.

Inspeção no processo: existem muitas abordagens que as organizações usam para inspecionar o produto enquanto o processo está em andamento. Por exemplo, muitas organizações usam planos de amostragem de aceitação, como a ANSI/ASQ Z1.4. Outras organizações desenvolvem algum tipo de amostragem e estabelecem limites de alerta e limites de ação para determinar o curso de ação após a coleta da amostra.

O principal problema com essas abordagens é que a decisão ainda é aprovada/reprovada (continue o processo ou pare o processo e faça alguns ajustes). Normalmente, a reação é tarde demais. Outra desvantagem desse tipo de abordagem é que ela não tem memória – ou seja, a decisão de cada dia é tomada, mas está registrada apenas na documentação desse dia.

Nesse caso, como os dados não são registrados em uma escala baseada em tempo, não é possível ver nenhuma tendência possível. Uma solução para esse dilema é registrar os dados e plotar em um gráfico de controle.

Por exemplo, uma organização pode estar amostrando peças em uma estação específica usando a abordagem de limite de alerta/limite de ação. No final do dia, se nada fora do limite de ação acontece, a organização apenas arquiva o formulário contendo o número de defeitos para esse dia. Se houver um evento fora do limite de ação, a organização ajusta o processo, registra a quantidade de defeitos e arquiva o formulário. No entanto, nada mais acontece.

A recomendação para essa organização é plotar o número de defeitos a cada dia (ou a cada turno, preferencialmente) em um gráfico de controle tipo c, que é um gráfico de controle para o número de defeitos. Após dados suficientes (pelo menos um mês) terem sido coletados, a organização deve calcular os limites de controle. A partir desse ponto, pode-se usar o gráfico de controle para avaliar o processo e determinar quando uma causa atribuível foi identificada.

O gráfico de controle é uma ferramenta de monitoramento que pode alimentar outras ferramentas estatísticas para melhorar os processos. Se os gráficos de controle mostrarem que a variação de turno para turno é muito alta, por exemplo, outras ferramentas podem ser usadas para determinar a origem de tal variabilidade, como o teste F, o teste de Levene ou o projeto de experimentos. Após as melhorias serem implementadas, os gráficos de controle podem ser usados para rastrear a melhoria, conforme mostrado na figura 2.

Inspeção final: Se todas as inspeções anteriores (entrada e no processo) forem bem executadas, não deve haver muitos defeitos no processo após sua conclusão. A figura 3 mostra como os defeitos devem ser canalizados por meio dos diferentes pontos de inspeção. Ainda assim, uma inspeção final é necessária como uma garantia de que nenhum produto defeituoso é liberado para o cliente.

Uma abordagem comum usada pelas organizações nesse estágio é implementar os mesmos planos de amostragem de aceitação usados na inspeção de entrada: ANSI/ASQ Z1.4 ou ANSI/ASQ Z1.9. No entanto, como mencionado anteriormente, há uma grande desvantagem em usar esse tipo de abordagem: aceitar muito com um ou mais defeitos.

Para evitar essa situação, muitas organizações começam a ajustar os planos de inspeção para obter um plano com aceitação de zero produto defeituoso e a rejeição de um ou mais produtos defeituosos. Na maioria das vezes, pode-se alcançar esse plano selecionando um AQL menor. Esta não é apenas uma aplicação incorreta do plano de amostragem, mas os tamanhos de amostragem obtidos por esses planos também são desnecessariamente altos.

Uma alternativa é usar o plano de amostragem de aceitação zero (c = 0) desenvolvido por Nicholas L. Squeglia. Este plano é uma adaptação dos planos de amostragem de aceitação cobertos anteriormente (especificamente, para a ANSI/ASQ Z1.4). No plano de amostragem de aceitação zero, no entanto, a probabilidade de aceitar um lote com uma certa porcentagem de produto defeituoso ou superior é muito baixa. Nesse caso, há uma proteção para os clientes de que nenhum produto defeituoso será liberado.

Esta salvaguarda para o cliente não é a única razão para se usar este tipo de plano na inspeção final. Na maioria das vezes, os tamanhos de amostra, calculados a partir dos planos de amostragem com aceitação zero, são muito menores do que aqueles para a ANSI/ASQ Z1.4 e com os mesmos valores de AQL. Em outras palavras, os tamanhos das amostras serão muito menores, mantendo a proteção para o cliente.

A tabela 1 mostra um exemplo de um plano de amostragem para um tamanho de lote de 12.000 peças e um AQL de 0.65. Usando a ANSI/ASQ Z1.4, um total de 315 amostras teria que ser coletado, enquanto usando o plano de amostragem c = 0, apenas 77 amostras teriam que ser coletadas (uma redução de 76%).

Não só há uma redução significativa no tamanho da amostra, mas para o plano da ANSI/ASQ Z1.4, o lote poderia ser aceito com cinco partes defeituosas e rejeitado com seis partes rejeitadas. Se zero peças defeituosas for o único nível aceito, o AQL deve ser reduzido para 0,040. Conforme observado anteriormente, a redução da AQL não é a abordagem correta.

É importante notar outro aspecto do plano de amostragem c = 0: Quando um ou mais produtos defeituosos são obtidos usando este plano, o lote é retido. A frase “reter o lote” é significativa porque não significa necessariamente rejeição.

De acordo com esses planos, o inspetor não rejeita necessariamente o lote se um ou mais produtos defeituosos forem encontrados. O inspetor aceita somente o lote se zero produto defeituoso for encontrado na amostra. A retenção do lote força a revisão e a disposição do pessoal de engenharia ou gerência para determinar a extensão e gravidade do produto defeituoso.

Melhorando as atividades de inspeção

A amostragem é uma consideração importante na maioria das organizações, especialmente quando a amostragem é destrutiva por natureza. As organizações gastam grandes quantidades de recursos (pessoal e econômica) durante as atividades de inspeção. Muitas vezes, mesmo com muitas amostras, o produto defeituoso é liberado para o cliente.

Isto é, em parte, porque as abordagens de amostragem corretas não foram implementadas. Ao implantar as abordagens corretas de inspeção de entrada, no processo e final, as organizações podem melhorar suas atividades de inspeção e fornecer um produto melhor para seus clientes.

Bibliografia

Peña-Rodríguez, Manuel E., Statistical Process Control for the FDA-Regulated Industry, ASQ Quality Press, 2013.

Squeglia, Nicholas L., Zero Acceptance Number Sampling Plans, fifth edition, ASQ Quality Press, 2008.

Taguchi, Genichi, Subir Chowdhury and Yuin Wu, Taguchi’s Quality Engineering Handbook, John Wiley & Sons, 2005.

Manuel E. Peña-Rodríguez é consultor da Business Excellence Consulting Inc. em Guaynabo, Porto Rico. Ele ganhou um Juris Doctor da Pontifícia Universidade Católica em Ponce, Porto Rico, e um mestrado em gerenciamento de engenharia pela Cornell University em Ithaca, NY. Peña-Rodríguez é membro sênior da ASQ e engenheiro de qualidade certificado pela ASQ, auditor, gerente de qualidade/excelência organizacional, Six Sigma Black Belt, auditor biomédico e auditor de pontos de controle de risco e análise crítica.

Por quanto tempo você quer o que você quer?

Roberto Camanho

Perenidade é uma palavra instigante. Quando pensada no âmbito do mundo corporativo, “perenidade” nos remete à ideia de uma empresa que resistirá ao tempo, terá continuidade e sustentação apesar das mudanças econômicas, sociais e organizacionais. Ao pensarmos em termos mais pessoais, temos outras variáveis como, por exemplo, o comportamento humano.

Inquieto, criativo e curioso, às vezes mais ousado, outras tantas, mais medroso. O fato é que o ser humano é complexo e nesse jogo de forças que trata secretamente entre o mental e o emocional, encontrar um ponto de equilíbrio é sempre um desafio.

Trabalhando ao lado de parceiros da minha mesma geração e observando quase que diariamente inúmeros alunos mais jovens e menos descompromissados do que eu, me surpreendo em notar o quanto os desejos andam perecíveis, o quanto as conquistas perdem rapidamente seu significado e seu efeito de realização, de “agora estou feliz”.

O que acontece, então? Nos tornamos uns eternos insatisfeitos? Perdemos a capacidade de escolher sozinhos nossos sonhos?

Ficamos perseguindo sonhos massificados e, por conta disso, eles não têm a mínima durabilidade? Espero que possamos descobrir o quanto antes que aquele vazio interno não será preenchido pelas visitas ao shopping, à concessionária de veículos ou na troca da mobília.

Nada contra o consumo, desde que consciente. E nossa conversa aqui é outra: da conquista de um conforto interno, sentir-se à vontade com quem somos.

Talvez nos falte sermos mais seletivos em nossos objetivos. Talvez nos falte mais propósito ao sonhar; entender melhor quem realmente somos, quais os nossos valores e gatilhos emocionais e motivacionais; qual a fronteira entre o “que eu quero” e o “que querem que eu queira”.

O tempo é precioso demais para investirmos anos em algo que vai nos satisfazer por poucos dias, não acham? Essa é uma pergunta importante para se fazer a si mesmo. E eu te pergunto: então, o que temos pra hoje? Vamos levantar todas as manhãs, arregaçar as mangas e lutar pelo quê?

Fique um pouco quietinho e se pergunte: quem de fato eu sou? Ou melhor, quem eu sou quando o expediente acaba e eu não sou mais o agente produtivo ligado a um CNPJ? E este ser, gosta do quê? O que quer da vida?

Se sua principal busca no momento é por uma renovação profissional ou de carreira, essas perguntas continuam válidas, porque você precisa ser feliz para fazer bem feito, seja lá o que for a que se propuser. E para um repaginar profissional, entram novas questões. Que competências eu tenho? Qual meu perfil profissional? Para que novos horizontes eu já estou pronto e que outros conhecimentos preciso adquirir para fazer a tal virada desejada?

Sim, porque um economista não se torna médico em um fim de semana. Alguém de 1,90 m de altura não conseguirá ser um jóquei. Aos 60 anos não é mais possível ser um acrobata do Cirque du Soleil. Então, sonhe muito, sonhe grande, mas dentro do mínimo da racionalidade.

Como, então, migrar da etapa sonho para a etapa de construir a realidade? Avalie criteriosamente se você tem condições de realizar o que está se propondo. Querer é poder, mas não é bem assim…é preciso querer o que se pode executar.

Quais as suas crenças? Quais seus valores? Que valores está disposto a corromper para conquistar um novo cargo ou posição? Com que ferramentas você conta para ir em busca do sucesso? E o que é o sucesso para você?

Longe de minha intenção apontar caminhos ou dar conselhos. Meu papel aqui é trazer ganchos para reflexão. E um deles é sobre a busca de um propósito.

Todo mundo tem uma vocação íntima para ajudar o outro, para construir algo relevante. Produzir algo só tem valor quando o fruto dessa produção impacta positivamente a vida de outros, na sociedade, na família, no meio em que se vive. O que você constrói ajuda a quem?

Dinheiro não é uma mola que se sustenta sozinha, precisa de outras engrenagens para funcionar. Só salário alto não mantém ninguém motivado a longo prazo.

Você precisa descobrir seus indicadores de sucesso para começar a construí-lo de forma consistente. Lembra da palavrinha que abrimos essa conversa? Perenidade!

Então, talvez já tenha passado da hora de entender o mundo por novos códigos de conduta. O ser humano precisa de novos valores. Um mundo “menos” Adam Smith e “mais” John Nash, creio eu.

Eu estou fazendo minha lição de casa. Meu exercício de me analisar crítica e constantemente. Seja seu próprio crítico. Com generosidade, por favor. Você tem valor. E muito. Mas sem autopiedade e vitimismo.

Roberto Camanho conduz decisões que envolvem orçamentos de bilhões de reais, participa de projetos de pesquisa em processos decisórios e publica trabalhos em congressos internacionais. No Brasil, é pioneiro na aplicação de metodologias de apoio a decisões estratégicas. Desde 1996, atua em empresas dos setores financeiro, aeroespacial, petroquímico, de energia, papel e celulose, mineração, de infraestrutura e agências governamentais – camanho@robertocamanho.com.br

Os ensaios de tração de materiais metálicos

Para os projetos ou para a fabricação de dispositivos ou componentes, é essencial conhecer o comportamento do material com o qual se vai trabalhar. Isso significa saber quais são suas propriedades em diversas condições de uso e é isso que os ensaios mecânicos de materiais metálicos realizam.

Assim, os ensaios mecânicos de materiais metálicos são importantes justamente porque através deles se pode conhecer e analisar as propriedades mecânicas de um material ou dispositivo e ainda testá-lo em condições diferentes. Isso proporciona muito mais segurança e eficácia na hora de utilizá-lo na indústria, por exemplo. Essas propriedades mecânicas geralmente abrangem fatores como tipos de cargas e sua frequência de aplicação, temperaturas, desgaste, entre outros.

Conhecer e prever o comportamento do material ou dispositivo utilizado sobre variadas condições de trabalho, força e temperatura é fundamental para que um projetista saiba como ele vai funcionar em determinadas situações e o que esperar dele. É possível obter todas essas informações com a realização dos ensaios mecânicos de materiais metálicos.

Normalmente, os ensaios mecânicos de materiais metálicos envolvem vários tipos sendo capazes de demonstrar todo o perfil de funcionamento do que está sendo ensaiado: o de tração, dobramento, estampabilidade, compreensão, impacto e dureza. Eles devem ser feitos em conformidade com uma série de normas técnicas, respeitando sua metodologia para garantir a eficácia e segurança dos resultados. Isso é essencial para que o material possa obter certificados que irão aumentar o seu valor e atestar seu funcionamento.

A NBR ISO 6892-1 de 04/2013 – Materiais metálicos – Ensaio de Tração – Parte 1: Método de ensaio à temperatura ambiente especifica o método de ensaio de tração de materiais metálicos e define as propriedades mecânicas que podem ser determinadas à temperatura ambiente. O Anexo A apresenta recomendações complementares para máquinas de ensaio controladas por computador. A NBR ISO 6892-2 de 10/2013 – Materiais metálicos – Ensaio de tração – Parte 2: Método de ensaio à temperatura elevada especifica um método de ensaio de tração de materiais metálicos a temperaturas mais altas que à temperatura ambiente.

Durante as discussões acerca da velocidade de ensaio na preparação da NBR ISO 6892, decidiu-se recomendar o emprego do controle da taxa de deformação nas futuras revisões da norma. Na parte 1 da NBR ISO 6892, há disponíveis dois métodos de velocidades de ensaio. O primeiro, método A, é baseado nas taxas de deformação (inclusive a velocidade de separação do travessão) e o segundo, método B, é baseado em taxas de tensão.

O Método A tem por objetivo minimizar a variação das velocidades de ensaio no momento em que são determinados os parâmetros sensíveis à taxa de deformação e, também, minimizar a incerteza de medição dos resultados do ensaio. Na parte 2 da NBR ISO 6892 são descritos dois métodos de velocidade de ensaio. O primeiro, o Método A, é baseado em taxas de deformação (incluindo a taxa de separação do travessão) com tolerâncias apertadas (+- 20%), ao passo que o segundo, o Método B, é baseado em faixas e tolerâncias de taxa de deformação.

O Método A tem por objetivo minimizar a variação das taxas de ensaio no momento em que são determinados os parâmetros sensíveis à taxa de deformação e, também, minimizar a incerteza de medição dos resultados do ensaio. A influência da velocidade de ensaio nas propriedades mecânicas, determinada pelo ensaio de tração, é normalmente maior em uma temperatura elevada que à temperatura ambiente.

Tradicionalmente, as propriedades mecânicas determinadas por ensaios de tração em temperaturas elevadas têm sido determinadas a uma taxa de deformação ou tensão menor do que à temperatura ambiente. A parte 1 recomenda o uso de taxas de deformação pequenas, mas, além disso, são permitidas taxas de deformação maiores para aplicações específicas, como comparação com propriedades à temperatura ambiente na mesma taxa de deformação.

Na preparação da parte 2, houve decisão, durante as discussões relativas à velocidade de ensaio, de se considerar a eliminação do método de taxa de tensão em revisões futuras. O ensaio consiste em deformar um corpo de prova por força de tração, geralmente até a fratura, para a determinação de uma ou mais propriedades mecânicas definidas no item 3. O ensaio deve ser realizado à temperatura ambiente, entre 10°C e 35°C, salvo se especificado de outra maneira.

Os ensaios realizados sob condições controladas devem ser realizados à temperatura de 23 °C +- 5 °C. A forma e as dimensões dos corpos de prova podem ser condicionadas pela forma e dimensões dos produtos metálicos dos quais são extraídos esses corpos de prova. Em geral, o corpo de prova é obtido por usinagem de uma amostra do produto, por estampagem, ou ainda por fundição.

Produtos de seção transversal uniforme (perfis, barras, fios etc.), bem como os corpos de prova fundidos (por exemplo, de ferro fundido ou de ferros-ligas), podem ser ensaiados sem serem usinados. A seção transversal do corpo de prova pode ser circular, quadrada, retangular, anular, ou, em casos especiais, o corpo de prova pode apresentar outro tipo de seção transversal uniforme.

Os corpos de prova devem, preferencialmente, apresentar relação entre o comprimento de medida inicial, Lo, e a área da seção transversal inicial do comprimento paralelo, So, tal que Lo = k So, em que k é um coeficiente de proporcionalidade. Esses são os denominados corpos de prova proporcionais. O valor internacionalmente adotado para k é 5,65. O comprimento de medida inicial não pode ser inferior a 15 mm.

Quando a seção transversal do corpo de prova for muito pequena para que este requisito se aplique com k = 5,65, um valor mais alto (preferencialmente 11,3) ou um corpo de prova não proporcional pode ser usado. Os corpos de prova usinados devem incorporar um raio de transição entre as cabeças e o comprimento paralelo, se esses elementos apresentarem dimensões diferentes.

As dimensões do raio de transição são importantes e é recomendado que sejam definidas na especificação do material, desde que não estejam dadas no anexo apropriado (ver. 6.2). As cabeças podem ser de qualquer tipo, para se adaptarem às garras da máquina de ensaio. O eixo do corpo de prova deve coincidir com o eixo de aplicação da força.

O comprimento paralelo, Lc, ou, no caso de o corpo de prova não apresentar raios de transição, o comprimento livre entre garras deve ser sempre maior que o comprimento de medida inicial, Lo. Nos casos em que o corpo de prova consista de um segmento não usinado do produto ou de uma barra de ensaio não usinada, o comprimento livre entre garras deve ser suficiente para que as marcações do comprimento de medida estejam a uma distância razoável das garras (ver Anexos B a E).

Os corpos de prova fundidos devem incorporar um raio de transição entre as cabeças e o comprimento paralelo. As dimensões desse raio de transição são importantes e é recomendado que sejam definidas na especificação do produto. As cabeças podem ser de qualquer tipo, para se adaptarem às garras da máquina de ensaio.

O comprimento paralelo, Lc, deve ser sempre maior que o comprimento de medida inicial, Lo. Os principais tipos de corpos de prova estão definidos nos Anexos B a E, de acordo com a forma e o tipo do produto, conforme a tabela abaixo. Outros tipos de corpos de prova podem ser especificados nas normas de produto.

As dimensões relevantes do corpo de prova devem ser medidas em um número suficiente de seções transversais, perpendicularmente ao eixo longitudinal, na porção central do comprimento paralelo do corpo de prova. Recomenda-se um número mínimo de três seções transversais. A área da seção transversal inicial, So, é a área média da seção transversal, que deve ser calculada a partir das medições das dimensões apropriadas.

A exatidão deste cálculo depende da natureza e do tipo de corpo de prova. Os Anexos B a E descrevem métodos para a determinação de So para diferentes tipos de corpos de prova e contêm especificações relativas à exatidão da medição. Para a marcação do comprimento de medida inicial, as extremidades do comprimento de medida inicial, Lo, devem ser levemente marcadas com traços ou linhas, mas não com riscos que possam resultar em uma ruptura prematura.

Para corpos de prova proporcionais, o valor calculado do comprimento de medida inicial pode ser arredondado para o múltiplo de 5 mm mais próximo, desde que a diferença entre o comprimento marcado e o calculado seja menor que 10% de Lo. O comprimento de medida inicial deve ser marcado com exatidão de +-1%. Se o comprimento paralelo, Lc, for muito maior que o comprimento de medida inicial, como por exemplo, em corpos de prova não usinados, podem ser marcados vários comprimentos de medida originais parcialmente sobrepostos.

Em alguns casos, pode ser útil traçar, na superfície do corpo de prova, uma linha paralela ao eixo longitudinal, ao longo da qual se marcam os comprimentos de medida originais. Para a determinação da resistência de prova (extensão plástica ou total), o extensômetro utilizado deve estar de acordo com a NBR ISO 9513, classe 1 ou melhor, na faixa pertinente.

Para outras propriedades (com maior extensão), pode ser utilizado na faixa pertinente um extensômetro classe 2 pela NBR ISO 9513. O comprimento de medida extensométrica não pode ser menor que 10 mm e deve corresponder à porção central do comprimento paralelo.

Qualquer parte do extensômetro que se projete além do forno deve ser projetada ou protegida de correntes de ar, de modo que as flutuações na temperatura ambiente tenham apenas efeito mínimo nas leituras. É aconselhável a manutenção de estabilidade térmica razoável da temperatura e da velocidade do ar ao redor da máquina de ensaio.

O dispositivo de aquecimento para o corpo de prova deve ser tal que o corpo de prova possa ser aquecido à temperatura especificada T. As temperaturas indicadas Ti são as temperaturas medidas na superfície do comprimento paralelo do corpo de prova, com correções aplicadas para quaisquer erros sistemáticos conhecidos, mas sem consideração da incerteza do equipamento de medição da temperatura.

Os desvios admitidos entre a temperatura especificada T e as temperaturas indicadas Ti, e a variação de temperatura admissível máxima ao longo do corpo de prova, são dados na tabela abaixo. Para temperaturas especificadas maiores que 1.100 °C, os desvios admitidos devem ser definidos por meio de acordo prévio entre as partes envolvidas.

Quando o comprimento de medida é menor que 50 mm, um sensor de temperatura deve medir a temperatura em cada extremidade do comprimento paralelo diretamente. Quando o comprimento de medida é igual ou maior que 50 mm, um terceiro sensor de temperatura deve medir próximo ao centro do comprimento paralelo. Este número pode ser reduzido se o arranjo geral do forno e do corpo de prova for tal que, a partir da experiência, sabe-se que a variação na temperatura do corpo de prova não excede o desvio admitido especificado em 9.3.1.

Contudo, ao menos um sensor deve estar medindo a temperatura do corpo de prova diretamente. As junções do sensor de temperatura devem fazer contato térmico com a superfície do corpo de prova e estar convenientemente abrigadas da radiação direta da parede do forno.

O sistema de medição de temperatura deve ter uma resolução igual ou melhor que 1°C e uma exatidão de +- 0,004 T °C ou +- 2 °C, o que for maior. O sistema de medição de temperatura inclui todos os componentes da cadeia de medição (sensor, cabos, dispositivo indicador e junção de referência).

Todos os componentes do sistema de medição de temperatura devem ser verificados e calibrados sobre a faixa de trabalho em intervalos que não excedam um ano. Os erros devem ser registrados no relatório de verificação. Os componentes do sistema de medição de temperatura devem ser verificados por métodos rastreáveis à unidade internacional (unidade SI) de temperatura.

O relatório de ensaio deve conter no mínimo as seguintes informações, salvo acordo em contrário das partes interessadas: referência a esta norma NBR ISO 6892 estendida com as informações das condições de ensaio especificadas, por exemplo, NBR ISO 6892-2 A113; identificação do corpo de prova; material especificado, se conhecido; tipo de corpo de prova; localização e direção de amostragem dos corpos de prova, se conhecidas; modos de controle do ensaio e taxas de ensaio ou faixas de taxas de ensaio, respectivamente, se diferente dos métodos recomendados e valores descritos na norma; tempo de encharque; temperatura do ensaio; método para estabelecer o comprimento de medida extensométrica Le; e resultados do ensaio.

Convém que os resultados sejam arredondados com as precisões seguintes (de acordo com a NBR ISO 80000-1) ou melhores, se não estiverem especificadas em normas de produtos: valores de resistência, em megapascals, para o número inteiro mais próximo; valores de extensão percentual no ponto de escoamento, Ae, até 0,1 %; todos os outros valores de alongamento percentual até 0,5 %; e redução de área percentual, Z, até 1 %.