As placas cerâmicas devem ser qualificadas conforme as normas técnicas

As placas cerâmicas para revestimento têm características próprias, determinadas por seu processo produtivo. Por isso é muito importante conhecer as principais delas. O consumidor deve escolher os produtos que atendam obrigatoriamente às normas técnicas.

Uma concorrência desleal pode ser provocada pela existência, no mercado interno, de produtos de baixa qualidade, resultantes de processos de fabricação deficientes, principalmente no que diz respeito à etapa de queima, muito importante para definição das características das placas cerâmicas. Alguns fabricantes, com o objetivo de aumentar a produção e ganhar mercado, reduzem, propositalmente, o tempo de permanência no forno, reduzindo, com isso, os custos de fabricação do produto e gerando produtos de qualidade inferior.

Assim, esses produtos, por serem comercializados a um preço mais baixo, atraem consumidores que utilizam o preço como fator decisivo no momento da compra. Deve ser ressaltado que o setor de cerâmica para revestimento engloba os produtos denominados azulejos, placas cerâmicas, pastilhas ou mosaicos.

Os azulejos são materiais cerâmicos utilizados no revestimento de paredes e são comercializados no mercado brasileiro com três tipos: decorados, coloridos e brancos. Já as placas cerâmicas são, por definição, materiais cerâmicos para revestimento de pisos, sendo um dos materiais mais importantes e amplamente usados para revestir pisos e paredes.

A placa cerâmica é um material muito antigo. O primeiro exemplo de uso para revestir e decorar superfícies foi datado por volta do século VI a.C. nas civilizações da antiga Babilônia. Ao longo dos séculos, a tecnologia de fabricação e o potencial decorativo da placa cerâmica têm sido gradualmente ampliados e melhorados.

Por cerca de 100 anos a placa cerâmica se manteve como um produto de luxo, sendo usada no revestimento de pisos e paredes de opulentas casas. No século passado, especialmente após a 2ª. Guerra, a produção de cerâmica para pisos e paredes sofreu considerável desenvolvimento com o advento da técnica de produção em massa, especialmente em alguns países tais como a Itália, que tem uma longa tradição no uso da cerâmica.

A habilidade de produzir placa numa escala industrial fez abaixar os preços e tornar a placa cerâmica um produto acessível. Os revestimentos têm grande importância na definição do padrão do edifício, na valorização econômica do imóvel e nas características estéticas do conjunto.

As vantagens que o revestimento cerâmico apresenta em comparação aos produtos concorrentes no que diz respeito à estética, design, durabilidade, manutenção e higiene, refletem num volume maior de vendas da cerâmica com relação aos produtos substitutos, como as tintas, nos revestimentos verticais; e a madeira, pedra natural e carpete, nos revestimentos horizontais. Dessa forma, a expectativa do consumidor de cerâmica para revestimento é a qualidade, ou seja, a adequação ao uso que deve ser qualificado pela obrigatoriedade das normas técnicas.

A NBR ISO 10545-1 de 10/2017 – Placas Cerâmicas – Parte 1: Amostragem e critérios para aceitação especifica regras para a formação dos lotes, amostragem, inspeção e aceitação / rejeição de placas cerâmicas para revestimento. A norma fornece um sistema de inspeção por amostragem com o planejamento de dupla amostragem, pelo método da inspeção por atributos (valores individuais) ou pelo método de inspeção pelos valores médios (variáveis). O número de placas a serem ensaiadas varia de acordo com cada propriedade considerada (ver Tabela 1 disponível na norma).

Um lote de inspeção pode consistir em uma ou mais partidas ou subpartidas homogêneas. Qualquer partida que não seja homogênea deve ser dividida em subpartidas, as quais podem ser consideradas homogêneas, para constituir os lotes de inspeção. Se a não homogeneidade não influenciar as propriedades a serem ensaiadas, a partida pode ser considerada homogênea, mediante um acordo entre o fornecedor e o cliente.

Por exemplo, uma partida de placas de mesmo modelo com esmaltes diferentes, pode ser homogênea em relação às dimensões e absorção de água, e não homogênea em relação à qualidade superficial. Do mesmo modo, as peças acessórias que diferem apenas no formato podem ser consideradas homogêneas em relação às outras propriedades.

A escolha das propriedades a serem consideradas para a inspeção deve ser acordada entre o fornecedor e o cliente e pode depender do tamanho do lote de inspeção. Em princípio, a totalidade dos ensaios será realizada somente para os lotes de inspeção superiores a 5.000 m² de placas.

Geralmente, não serão considerados necessários ensaios para lotes de inspeção menores que 1.000 m² de placas. O número de lotes de inspeção a serem programados para a realização dos ensaios deve ser acordado entre as partes interessadas. O local da amostragem deve ser acordado entre o fornecedor e o cliente.

Um ou mais representantes de cada parte interessada pode estar presente no momento da amostragem. As amostras devem ser coletadas de forma aleatória a partir do lote de inspeção. Duas amostras devem ser coletadas. Não necessariamente serão realizados ensaios na segunda amostragem. Cada amostra deve ser embalada separadamente, lacrada e identificada conforme acordado entre as partes interessadas.

A NBR ISO 10545-2 de 10/2017 – Placas Cerâmicas – Parte 2: Determinação das dimensões e qualidade superficial especifica os métodos para a determinação das características dimensionais (comprimento, largura, espessura, retitude dos lados, ortogonalidade e curvatura da superfície) e da qualidade superficial das placas cerâmicas. Peças com áreas menores que 4 cm² são excluídas das medidas de comprimento, largura, retitude dos lados, ortogonalidade e curvatura da superfície. Ao realizar as medidas de comprimento, largura, retitude dos lados e ortogonalidade, devem ser ignorados os espaçadores, pingos de esmalte e outras irregularidades dos lados, se eles ficarem ocultos nas juntas após o assentamento (instalação). Para as medidas de comprimento e largura, deve-se usar paquímetros ou outros aparelhos adequados para medidas lineares. Os corpos de prova devem ser de dez placas inteiras para ser ensaiadas. Deve-se medir, com resolução de 0,1 mm, cada lado da placa ensaiada, a 5 mm de cada canto.

A dimensão média das placas quadradas é a média das quatro medidas. A dimensão média da amostra é a média das 40 medidas. Para placas retangulares, cada par de lados paralelos da peça fornece uma dimensão média da peça, isto é, a média das duas medidas. A dimensão média de comprimento e largura da amostra é a média das 20 medidas.

O relatório de ensaio deve incluir as seguintes informações: referência a esta Parte da NBR ISO 10545; descrição das placas; todas as medidas individuais do comprimento e largura; tamanho médio de cada corpo de prova para placas quadradas e comprimento e largura média para cada placa retangular; tamanho médio dos dez corpos de prova para placas quadradas e média do comprimento e largura para placas retangulares; desvio, em porcentagem, do tamanho médio de cada placa (dois ou quatro lados) em relação ao tamanho de fabricação; desvio, em porcentagem, do tamanho médio de cada placa (dois ou quatro lados) em relação ao tamanho médio da amostra de dez placas (20 ou 40 lados).

A NBR ISO 10545-3 de 11/2017 – Placas Cerâmicas – Parte 3: Determinação da absorção de água, porosidade aparente, densidade relativa aparente e massa aparente especifica os métodos para a determinação da absorção de água, porosidade aparente, densidade relativa aparente e densidade aparente de placas cerâmicas. A NBR ISO 10545-4 de 11/2017 – Placas Cerâmicas – Parte 4: Determinação da carga de ruptura e módulo de resistência à flexão define o método de ensaio para determinação do módulo de resistência à flexão e carga de ruptura para todas as placas cerâmicas.

A NBR ISO 10545-5 de 11/2017 – Placas Cerâmicas – Parte 5: Determinação da resistência ao impacto pela medição do coeficiente de restituição especifica o método de ensaio para determinação da resistência ao impacto de placas cerâmicas pela medição do coeficiente de restituição. A NBR ISO 10545-6 de 11/2017 – Placas cerâmicas – Parte 6: Determinação da resistência à abrasão profunda para placas não esmaltadas especifica o método de ensaio para determinação da resistência à abrasão profunda de todas as placas cerâmicas não esmaltadas, utilizadas para revestimento de pisos.

A NBR ISO 10545-7 de 11/2017 – Placas Cerâmicas – Parte 7: Determinação da resistência à abrasão superficial para placas esmaltadas especifica um método para determinação da resistência à abrasão superficial de todas as placas cerâmicas esmaltadas usadas como revestimentos de pisos. A NBR ISO 10545-8 de 11/2017 – Placas Cerâmicas – Parte 8: Determinação da expansão térmica linear estabelece o método de ensaio para determinação do coeficiente de expansão térmica linear de placas cerâmicas.

A NBR ISO 10545-9 de 11/2017 – Placas Cerâmicas – Parte 9: Determinação da resistência ao choque térmico especifica o método de ensaio para determinação da resistência ao choque térmico para todas as placas cerâmicas sob condições normais de uso. A NBR ISO 10545-11 de 11/2017 – Placas Cerâmicas – Parte 11: Determinação da resistência ao gretamento de placas esmaltadas define um método de ensaio para a determinação da resistência ao gretamento de todas as placas cerâmicas esmaltadas, exceto quando o gretamento é uma característica decorativa inerente do produto.

A NBR ISO 10545-12 de 11/2017 – Placas Cerâmicas – Parte 12: Determinação da resistência ao congelamento especifica um método para determinação da resistência ao congelamento de todas as placas cerâmicas indicadas para o uso em condições de congelamento na presença de água. A NBR ISO 10545-14 de 11/2017 – Placas Cerâmicas – Parte 14: Determinação da resistência ao manchamento especifica um método para determinação da resistência ao manchamento da superfície característica de placas cerâmicas.

Enfim, a NBR ISO 10545, sob o título geral “Placas cerâmicas”, tem previsão de conter as seguintes partes: Parte 1: Amostragem e critérios para aceitação; Parte 2: Determinação das dimensões e qualidade superficial; Parte 3: Determinação da absorção de água, porosidade aparente, densidade relativa aparente e massa aparente; Parte 4: Determinação da carga de ruptura e módulo de resistência à flexão; Parte 5: Determinação da resistência ao impacto pela medição do coeficiente de restituição; Parte 6: Determinação da resistência à abrasão profunda para placas não esmaltadas; Parte 7: Determinação da resistência à abrasão superficial para placas esmaltadas; Parte 8: Determinação da expansão térmica linear; Parte 9: Determinação da resistência ao choque térmico; Parte 10: Determinação da expansão por umidade; Parte 11: Determinação da resistência ao gretamento de placas esmaltadas; Parte 12: Determinação da resistência ao congelamento; Parte 13: Determinação da resistência química; Parte 14: Determinação da resistência ao manchamento; Parte 15: Determinação de cádmio e chumbo presentes nas placas cerâmicas esmaltadas; Parte 16: Determinação de pequenas diferenças de cor.

Lidando com o fogo amigo

“Sempre se ouvirão vozes em discordância, expressando oposição sem alternativa, descobrindo o errado e nunca o certo, encontrando escuridão em toda parte e procurando exercer influência sem aceitar responsabilidade.” (John F. Kennedy)

Claudemir Oribe

Certa vez, há muitos anos atrás, descobri uma solução extremamente simples que, se implantada, economizaria centenas de milhares de reais por ano na manutenção de microcomputadores, que era um dos serviços da empresa em que eu trabalhava. Quando fui comunicar tal achado ao gerente responsável pela atividade, tive uma surpresa: ele não apenas se recusou a adotar tal solução como se negou a tomar conhecimento de qualquer informação adicional a respeito. Perplexo, eu calmamente recuei me perguntando o que estaria por trás da resistência em aceitar algo tão simples e óbvio.

Resolver problemas complexos é um processo que requer bastante esforço. Recursos e tempo são escassos, dados e informações são pouco disponíveis, o apoio técnico e motivacional deixa a desejar. As competências envolvidas não são fáceis de desenvolver.

Sem contar as dificuldades relacionadas ao problema em si, que desafia nosso conhecimento e paciência. As denúncias de corrupção ao qual estão envolvidas diversas organizações, até então tida como admiráveis, traz uma oportunidade para pensar a respeito desse contexto.

Como se não bastassem certos obstáculos, que são até naturais num processo de resolução de problemas, algumas pessoas não contribuem para trata-los. Na verdade, certos indivíduos não apenas não ajudam, como parecem atrapalhar, jogando pistas falsas, pregando a impotência e a desesperança, escondendo ou omitindo pistas relevantes. Essas atitudes, inconscientes ou deliberadas, atrapalham o andamento do projeto de melhoria e não há método de resolução, nem MASP, que dê jeito disso.

A pior coisa que se pode fazer é confrontar a atitude usando um argumento racional. É preciso colocar em prática algumas estratégias para evitar, contornar, reverter a situação ou redirecionar o trabalho. Não há nada de racional nesse tipo de atitude.

Diante do pouco tempo o melhor a fazer é ser assertivo e lidar de maneira inteligente com o “empecilho”. Esse termo será carinhosamente utilizado para indicar esse tipo de atitude, no texto a seguir.

A primeira alternativa é evitar o empecilho. Alguns problemas não são resolvidos, não porque são insolúveis, mas porque simplesmente não deixam. Vários motivos podem existir. Interesses, vaidades, disputas de poder, fraudes e medos são exemplos. Se o histórico do empecilho demonstra uma forte tendência para manter o status quo, e se há alternativas, elas devem ser consideradas.

Se puderem ser criadas, idem. É preciso ter em mente que empecilhos consomem recursos e boa dose de energia humana. Evitar o confronto pode parecer uma atitude evasiva. Mas a empresa tem problemas demais para resolver e, se ela não quer também evita um em específico é bom se manter informado e buscar aconselhamento para não embarcar em canoa furada.

A segunda alternativa é contornar o empecilho. Contornar é usar um caminho um pouco mais longo para chegar a um mesmo lugar. O problema não é evitado, mas sim tratado por uma rota alternativa que, embora seja mais longa, é mais rápida do que bater de frente com o empecilho. Nesse momento, pode ser importante trabalhar de forma silenciosa nas primeiras etapas do processo de resolução para evitar iniciativas que possam impedir que o trabalho avance.

De posse de mais elementos será muito mais fácil e evidente a necessidade da ação sobre o problema. No momento oportuno, quando o projeto de melhoria estiver num estágio sólido e consistente, ele pode ser socializado numa sequência que se reforce o time de aliados a cada compartilhamento.

Se, em algum momento o projeto esbarrar com um empecilho, é preciso ouvir atentamente as objeções, verificar sua pertinência, analisa-las, agradecer e responder às questões uma a uma, esclarecendo os fatos, sem deixar nada para trás. Pode ser uma boa estratégia seguir em frente apenas diante do “de acordo” do empecilho, sempre resgatando o consenso, se necessário for.

É preciso reconhecer que a elucidação de um problema pode ser uma ameaça para algumas pessoas, sobretudo se a causa ou a solução envolvam sua área e forem banais. No meio social parece ecoar a pergunta “como você não pensou nisso antes?”. Portanto, comportamento positivo e político são as melhores saídas para lidar com a irracionalidade contida em tentativas de impedir o avanço inevitável de um processo de melhoria objetivo e bem estruturado.

Finalmente, se não houver alternativas, o trabalho pode ser redirecionado, substituindo objetivos, metas, membros, mudando cronogramas e, mesmo redefinindo o problema, para que uma nova roupagem faça sedimentar as eventuais críticas destrutivas. Redirecionar significa recuar, repensar, mudar o rumo, de forma real ou simbólica, mantendo o objetivo fixo na satisfação dos clientes e de outras partes interessadas. Desistir jamais!

No entanto, deve-se admitir a possibilidade de encontrar algum ponto pertinente e não totalmente esclarecido, fornecido por alguém que fazer parte do problema e não da solução. Há males que, infelizmente, vem para o mal mesmo. Determinação e foco no problema, e não na pessoa, são atitudes construtivas para lidar com o fogo amigo, nesses estranhos casos que infelizmente fazem parte do cotidiano organizacional.

Referências

ORIBE, Claudemir Y. Quem Resolve Problemas Aprende? A contribuição do método de análise e solução de problemas para a aprendizagem organizacional. Belo Horizonte, 2008. Dissertação (Mestre em Administração). Programa de Pós-Graduação em Administração da Pontifícia Universidade Católica de Minas Gerais.

Claudemir Oribe é mestre em administração, consultor e instrutor de MASP, ferramentas da qualidade e gestão de T&D – claudemir@qualypro.com.br

Só há uma saída para o país: educação, educação e educação

Em 2016, cerca de 66,3 milhões de pessoas de 25 anos ou mais de idade (ou 51% da população adulta) tinham concluído apenas o ensino fundamental. Além disso, menos de 20 milhões (ou 15,3% dessa população) haviam concluído o ensino superior.

A desigualdade na instrução da população tem caráter regional: no Nordeste, 52,6% sequer haviam concluído o ensino fundamental. No Sudeste, 51,1% tinham pelo menos o ensino médio completo.

Ainda entre a população com 25 anos ou mais, no Brasil, apenas 8,8% de pretos ou pardos tinham nível superior, enquanto para os brancos esse percentual era de 22,2%. O nível superior completo era mais frequente entre as mulheres (16,9%) do que entre os homens (13,5%).

A taxa de analfabetismo no país foi de 7,2% em 2016 (o que correspondia a 11,8 milhões de analfabetos), variando de 14,8% no Nordeste a 3,6% no Sul. Para pessoas pretas ou pardas, essa taxa (9,9%) era mais que duas vezes a das brancas (4,2%).

Entre as pessoas de 60 anos ou mais de idade, a taxa de analfabetismo chegou a 20,4%, sendo 11,7% para os idosos brancos e 30,7% para os idosos pretos ou pardos. Em média, a população do país tinha 8,0 anos de estudo e as menores médias regionais eram do Norte (7,4 anos) e do Nordeste (6,7 anos). As pessoas brancas mostraram-se mais escolarizadas (9 anos) em relação às pretas ou pardas (7,1 anos).

Cerca de 3,1 milhões de crianças com até 3 anos de idade (ou 30,4% desse grupo etário) frequentavam creche. O Norte apresentou a menor taxa de escolarização para essas crianças (14,4%) e o Sul, a maior (38,0%). Já entre as crianças de 4 e 5 anos, a taxa de escolarização era de 90,2%, ou seja, 4,8 milhões de estudantes.

Para as pessoas de 6 a 14 anos as taxas de escolarização chegaram a 99,2%, e para as pessoas de 15 a 17 anos, 87,9%. Entre os jovens de 18 a 24 anos, 32,8% estavam frequentando escola e 23,8% cursavam o ensino superior.

A frequência de estudantes à rede pública predominava na educação básica: 73% na educação infantil, 83,4% no ensino fundamental e 85,8% no médio. Já no ensino superior de graduação, 74,3% dos estudantes frequentavam a rede privada.

Em 2016, a educação profissional era realizada por 842 mil estudantes de graduação tecnológica, 2,1 milhões em cursos técnico de nível médio e 568 mil pessoas estavam frequentando algum curso de qualificação profissional. No Brasil, 24,8 milhões de pessoas de 14 a 29 anos não frequentavam escola e não haviam passado por todo ciclo educacional até a conclusão do ensino superior. Desse grupo, 52,3% eram homens e mais da metade deles declararam não estar estudando por conta do trabalho, além de 24,1% não terem interesse em continuar os estudos. Entre as mulheres, 30,5% não estudavam por conta de trabalho, 26,1% por causa de afazeres domésticos ou do cuidado de pessoas e 14,9% por não terem interesse.

Atlas do envenenamento alimentar no Brasil

Luiz Marques

No âmbito da expansão global do capitalismo comercial e industrial desde o século XVI, três aspectos indissociáveis conferem ao Brasil posições de indisputada proeminência. Somos o país que, durante quase quatro séculos, mais indivíduos escravizou em toda a história da escravidão humana. A destruição e degradação conjuntas das coberturas vegetais do país constituem, em rapidez e em escala, a mais fulminante destruição da biosfera cometida por uma nação ou império em toda a história da espécie humana. Levamos mais de quatro séculos para remover cerca de 1,2 milhão de km2 dos 1,3 milhão de km2 que compunham originariamente a Mata Atlântica (a destruição ganhou escala apenas a partir do século XIX e ainda continua) (1). Mas apenas nos últimos 50 anos mais de 3,3 milhões de km2 de cobertura vegetal nativa foram suprimidos ou degradados na Amazônia, no Cerrado e na Caatinga (2), sendo que mais quase 1 milhão de km2 podem ser legalmentedesmatados em todo o Brasil segundo o antigo e o novo Código Florestal (3).

O terceiro aspecto, enfim, diz respeito ao uso de agrotóxicos. “O Brasil é o campeão mundial no uso de produtos químicos na agricultura”, afirma José Roberto Postali Parra, ex-diretor da Escola Superior de Agricultura Luiz de Queiroz (Esalq/USP) (4). Nos últimos dez anos, de fato, o Brasil arrebatou dos EUA a posição de maior consumidor mundial de pesticidas (5).

Como bem diz seu nome, um pesticida industrial é um composto químico que visa atacar uma “peste”, termo que designa no jargão produtivista toda espécie que compita com a humana pelos mesmos alimentos ou tenha algum potencial de ameaça à produtividade ou saúde humana ou de espécies que servem de alimentação aos homens. O termo pesticida abrange herbicidas, inseticidas e fungicidas, aplicados os dois últimos em plantas e em animais. Pesticidas são usados também contra pássaros (corbicidas, por exemplo), vermes (nematicidas), mamíferos roedores (rodenticidas), microorganismos, etc. Para entender como e por que o Brasil galgou essa posição de maior consumidor desses compostos, dispomos agora de uma referência fundamental. Trata-se de Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia, de Larissa Mies Bombardi, do Departamento de Geografia da FFLCH/USP (6).  Coroando intervenções já dedicadas pela estudiosa ao problema desde 2011 (7), esse trabalho de maior fôlego eleva nosso conhecimento a outro patamar, inclusive por comparar sistematicamente o uso dos pesticidas e as legislações vigentes a esse respeito no Brasil e na União Europeia. Ele culmina num Atlas do uso de agrotóxicos no país, por estado, cultura agrícola e tipo de pesticida, além de uma distribuição geográfica, etária e étnica de suas principais vítimas diretas. Sobretudo, as análises de Bombardi lançam luz sobre os nexos entre o uso crescente de agrotóxicos no país e a liderança nacional, política e econômica, do agronegócio, em fina sintonia com as megacorporações agroquímicas oligopolizadas que controlam toda a cadeia alimentar: das sementes, agrotóxicos, fertilizantes e demais insumos à distribuição e negociação nos mercados futuros das commodities agrícolas. Após as fusões ou absorções ocorridas nos últimos anos, quase 95% desse mercado global é agora comandado por cinco megacorporações agroquímicas, sendo que apenas três delas controlam 72,6% dele, como mostra a Figura 1.

Figura 1 – As fusões e incorporações da Bayer/Monsanto, ChemChina/Syngenta e Dow/DuPont criam um controle quase total por apenas cinco megacorporações de todo o ciclo agroquímico | Fonte: Bloomberg, citado por Dani Bancroft, “Bayer offers Big Buy out for the infamous Monsanto”.  23/V/2016

Concentração fundiária e agronegócio

Talvez nenhum outro aspecto expresse com tanta crueza a desigualdade da sociedade brasileira quanto a concentração da propriedade fundiária. Embora os governos do PT exibam alguns resultados sociais muito positivos quando comparados a governos de outras siglas (8), no item propriedade fundiária seu pacto com o agronegócio apenas aprofundou o abismo histórico da desigualdade no país. Os governos do PT não apenas perpetuaram a tolerância à grilagem e à concentração da propriedade fundiária, mas acrescentaram a esse quadro de apropriação violenta da terra a participação direta do Estado no agronegócio e a quase inexistente carga tributária incidente sobre os imóveis rurais. Em 2015, apenas 0,1% de todos os recursos arrecadados pela Receita Federal veio do Imposto Territorial Rural (9). Assim, o traço mais saliente das mudanças na estrutura da propriedade fundiária na história recente do Brasil foi sua rápida e extrema concentração entre 2003 e 2014, como mostra a Figura 2.

Fig. 2 – Evolução da estrutura fundiária no Brasil entre 2003 e 2014. | Fonte: Incra, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Tabela 1, p. 30

Em 2003, as 983 propriedades com mais de 10 mil hectares somavam 7% da área dos imóveis rurais no país. Em 2014, elas passaram a ser 3.057 e acumulavam 28% dessa área. Nesse universo do latifúndio, destaca-se a multiplicação dos megalatifúndios com mais de 100 mil hectares. Em 2003, eles eram apenas 22 e representavam 2% da área dos imóveis rurais do país. Em 2014, eles passaram a ser 365 e ocupavam 19% dessa área. No outro extremo da balança, as pequenas propriedades de até 10 hectares, que ocupavam 2% dessa área em 2003, representavam em 2014 apenas 1%.

Esse processo de concentração fundiária foi uma condição de possibilidade da consolidação de um novo modelo de economia rural, o agronegócio, adequado à globalização e à conversão dos alimentos agrícolas em soft commodities (soja, milho, café, cacau, gado etc), cujo valor é negociado na CME (Chicago Mercantile Exchange) e cuja destinação é, sobretudo, a China e, em segundo lugar, a Europa e os EUA. Como bem mostra Bombardi, o crescimento do agronegócio brasileiro apoia-se mais na expansão da área cultivada, frequentemente em detrimento das florestas, que em ganhos de produtividade e no manejo sustentável do solo e no respeito à biodiversidade, como mostra a Figura 3, que compara área, produto e produtividade (kg/ha) no cultivo da soja.

Fig. 3 – Comparação entre área (mil ha), produtividade (Kg/ha) e produto (em mil toneladas) da soja entre as safras de 2002/2003 e de 2015/2016 | Fonte: Companhia Nacional de Abastecimento, 2016, citado por por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 2, p. 25.

Como se vê, a área de cultivo da soja aumentou de 18,5 milhões de hectares em 2002/2003 para 33 milhões em 2015/2016, um salto de 79% em 13 anos para um aumento equivalente de 84% da produção de soja no mesmo período, com incremento quase irrelevante da produtividade. Para o agronegócio é mais barato avançar sobre a floresta, processo que pode inclusive gerar lucro pela venda da madeira, que investir numa cultura de longo prazo. Seu lema é considerar a devastação ambiental como uma externalidade e aniquilar tudo o que ameace a máxima rentabilização imediata de sua mercadoria.

“A monocultura causa desequilíbrios”

Além de desmatamento, esse modelo monocultor e destrutivo de agricultura “causa desequilíbrios”, como reitera José Roberto Postali Parra, da Esalq/USP (10). Para o agronegócio, esses desequilíbrios têm uma solução simples: a supressão ou tentativa de supressão das espécies animais e vegetais (as espécies insensatamente chamadas “daninhas”) por meio do uso intensivo de agrotóxicos. Detentora dos prêmios Miss Desmatamento e Motosserra de Ouro, além de presidente da Confederação da Agricultura e Pecuária do Brasil (CNA) e Ministra da Agricultura durante o governo de Dilma Rousseff, Kátia Abreu definiu com rara felicidade o ideal da classe que ela representa: “Quanto mais defensivos melhor, porque a tendência é os preços caírem em função do aumento da oferta” (11). A Figura 4, abaixo, mostra os saltos sucessivos no uso de agrotóxicos a partir de 2006, de resto a taxas muito superiores às do aumento da área cultivada e do produto. Observe-se que entre 2002 e 2014, o consumo de agrotóxicos, medido por peso do ingrediente ativo, aumentou cerca de 340%, de cerca de 150 mil toneladas para mais de 500 mil toneladas de ingrediente ativo, uma taxa muito maior que os 84% de aumento do produto entre 2002/2003 e 2015/2016, no caso acima ilustrado da soja (de 52 para 97 milhões de toneladas nesse período).

Fig. 4 – Consumo de agrotóxicos no Brasil em toneladas do ingrediente ativo, 2000 –  2014 | Fonte: Ibama, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 10, p. 33

 

O Brasil participa com apenas 4% do comércio mundial do agronegócio (12), mas consome hoje cerca de 20% de todo agrotóxico comercializado no mundo todo. Mais importantes, entretanto, que esse desbalanço são:

(1) a nocividade, constatada ou potencial, para a saúde humana e para o meio ambiente dos ingredientes ativos utilizados;

(2) o uso de ingredientes proibidos no exterior;

(3) o Limite Máximo de Resíduos (LMR) permitido pela legislação brasileira para cada um desses ingredientes nas amostras de alimentos e de água. Como se verá abaixo, esses limites são muito superiores aos permitidos pela legislação europeia, a qual é, de resto, frequentemente acusada de ceder às pressões das megacorporações da agroquímica;

(4) o uso corrente de ingredientes proibidos no Brasil;

(5) as doses excessivas utilizadas;

(6) os resíduos desses compostos encontrados pela Anvisa nos alimentos, que, via de regra, excedem os limites estabelecidos pela legislação brasileira.

Exemplos dos problemas aqui elencados nos itens 4 a 6 abundam na imprensa e nos estudos científicos. A Agência Nacional de Vigilância Sanitária (Anvisa) “aponta que quase 30% dos principais alimentos da cesta brasileira apresentaram irregularidades no uso de defensivos agrícolas” (13). No ano passado, a revista Examenoticiou que a Anvisa “encontrou níveis elevados de resíduos agrotóxicos em um terço das frutas, vegetais e hortaliças analisadas entre 2011 e 2012. Pior, um a cada três exemplares avaliados apresenta ingredientes ativos não autorizados, entre eles dois agrotóxicos que nunca foram registrados no Brasil: o azaconazol e o tebufempirade (14) ”. Segundo a já citada reportagem da CBN, “em São Paulo, por exemplo, desde 2002, nenhuma multa por irregularidades foi aplicada, nem mesmo em casos de repetidas reincidências”. Baseando-se em pesquisas de Karen Friedrich, da Associação Brasileira de Saúde Coletiva (Abrasco) e da Fundação Oswaldo Cruz (Fiocruz), Marina Rossi afirma: “Segundo o Dossiê Abrasco (…), 70% dos alimentos in natura consumidos no país estão contaminados por agrotóxicos. Desses, segundo a Anvisa, 28% contêm substâncias não autorizadas. Isso sem contar os alimentos processados, que são feitos a partir de grãos geneticamente modificados e cheios dessas substâncias químicas (…). Mais da metade dos agrotóxicos usados no Brasil hoje são banidos em países da União Europeia e nos Estados Unidos” (15).

Sobre a nocividade dos ingredientes utilizados, muitos deles já proibidos no exterior, e sobre as brutais discrepâncias entre as legislações europeia e brasileira no tocante ao Limite Máximo de Resíduos (LMR) permitido de cada um desses ingredientes nas amostras de alimentos e de água (os itens 1 a 3, acima), os dados são igualmente estarrecedores. Em 6 de abril de 2015, o Instituto Nacional do Câncer José Alencar Gomes da Silva (INCA), órgão do Ministério da Saúde, divulgou um documento em que afirma: “Dentre os efeitos associados à exposição crônica a ingredientes ativos de agrotóxicos podem ser citados infertilidade, impotência, abortos, malformações, neurotoxicidade, desregulação hormonal, efeitos sobre o sistema imunológico e câncer. (…) Vale ressaltar que a presença de resíduos de agrotóxicos não ocorre apenas em alimentos in natura, mas também em muitos produtos alimentícios processados pela indústria, como biscoitos, salgadinhos, pães, cereais matinais, lasanhas, pizzas e outros que têm como ingredientes o trigo, o milho e a soja, por exemplo. Ainda podem estar presentes nas carnes e leites de animais que se alimentam de ração com traços de agrotóxicos, devido ao processo de bioacumulação” (16).

O aumento da variedade dos ingredientes ativos impulsionado pelas pesquisas agroquímicas é impressionante. Segundo a Agência de Proteção Ambiental dos EUA (EPA), havia em 2007 “mais de 1055 ingredientes ativos registrados como pesticidas, formulados em milhares de produtos disponíveis no mercado” (17). A Figura 5, abaixo, elenca os 10 ingredientes ativos mais utilizados na agricultura brasileira.

Fig. 5 – Os 10 ingredientes ativos mais vendidos no Brasil em 2014, em ordem decrescente | Fonte: Ibama, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 10, p. 35

Perturbadores endócrinos, carcinogênicos, mutagênicos, teratogênicos

Por motivos de espaço, reportamos abaixo a toxicidade de apenas cinco desses compostos para os humanos, não humanos e para o meio ambiente, bem como o Limite Máximo de Resíduos (LMR) permitido no produto e na água segundo a legislação europeia e a brasileira (18):

1º – Glifosato (glicina + fosfato). As sementes geneticamente modificadas, chamadas Roundup Ready (RR), da Monsanto, são capazes de resistir ao herbicida Roundup, o mais vendido no Brasil e no mundo, produzido à base de glifosato. Trata-se de um herbicida sistêmico, isto é, desenhado para matar quaisquer plantas, exceto as geneticamente modificadas para resistir a ele. Seu uso tem sido associado a maior incidência de câncer, à redução da progesterona em células de mamíferos, a abortos e a alterações teratogênicas por via placentária. Em 15 de março de 2015, o Centro Internacional de Pesquisas sobre o Câncer (IARC) considerou que havia “evidência suficiente” de que o composto causava câncer em animais e “evidência limitada” de que o causava em humanos, classificando assim o glifosato no Grupo 2A, isto é, como cancerígeno “provável no homem” (ao lado de quatro outros pesticidas) (19). O Limite Máximo de Resíduos (LMR) de glifosato permitido na soja na UE é de 0,05 mg/kg, no Brasil é de 10 mg/kg, portanto um limite 200 vezes maior.

2º – 2,4-D (ácido diclorofenóxiacético). Mais de 1.500 herbicidas contêm esse ingrediente ativo. A OMS coloca-o no grupo II, isto é, “moderadamente tóxico” (moderately hazardous) e o IARC afirma: “o herbicida 2,4-D foi classificado como possivelmente carcinogênico para humanos (Grupo 2B). (…) Há forte evidência de que 2,4-D induz estresse oxidativo, um mecanismo que pode ocorrer em humanos, e evidência moderada de que 2,4-D causa imunossupressão, a partir de estudos in vivo in vitro” (20). Para o National Resource Defense Council (NRDC), há provas conclusivas de que o 2,4-D é um perturbador endócrino, isto é, um composto que interfere no funcionamento normal do sistema hormonal dos organismos: “Estudos em laboratório sugerem que o 2,4-D pode impedir a ação normal de hormônios estrógenos, andrógenos e, mais conclusivamente, da tireoide (21). Dezenas de estudos epidemiológicos, animais e de laboratório mostraram uma associação entre 2,4-D (22) e perturbações da tireoide”. Luiz Leonardo Foloni (FEAGRI/Unicamp) assegura numa entrevista a irrestrita aceitação internacional do 2,4-D. Na realidade, esse composto foi banido no estado de Ontário, no Canadá, em 2009, na Austrália em 2013 e no Vietnã em 2017 (23). E há reiteradas demandas de proibição do 2,4-D nos EUA, não atendidas pelas autoridades desse país (24). O Limite Máximo de Resíduos (LMR) de 2,4-D permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 30 μg, portanto um limite 300 vezes maior.

3º – Acefato. Pertencente à classe dos organofosforados, o acefato é o inseticida mais usado no Brasil (25). A OMS coloca-o no grupo II, isto é, “moderadamente tóxico” (moderately hazardous). O Limite Máximo de Resíduos (LMR) de acefato permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama); no Brasil, ele não tem limite estabelecido.

5º – Clorpirifós. Inseticida da classe dos organofosforados, que altera o funcionamento de neurotransmissores (acetilcolina) no sistema nervoso central. Em 2009, a Organização Mundial da Saúde (OMS) classifica o clorpirifós como “moderadamente tóxico” (II – Moderately hazardous). Mas em 2012, esse produto foi associado a potenciais riscos ao desenvolvimento neurológico e o editorial da revista Environmental Health Perspectives, de 25 de abril de 2012, intitulado “A Research Strategy to Discover the Environmental Causes of Autism and Neurodevelopmental Disabilities” (26), afirma que: “Estudos prospectivos (…) associaram comportamentos autistas a exposições pré-natais a inseticidas organofosforados clorpirifós”. Já em 2001, seu uso doméstico fora banido dos EUA e ao final da administração Obama, a Agência de Proteção Ambiental desse país (EPA) recomendou seu banimento total, recomendação anulada por Donald Trump, beneficiário durante a campanha eleitoral de doações da Dow Chemical, produtora desse composto (27). Na União Europeia (UE), a avaliação da toxicidade do cloropirifós está em curso de revisão. O Limite Máximo de Resíduos (LMR) de clorpirifós permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 30 μg, portanto um limite 300 vezes maior.

7º – Atrazina. Produzido pela Syngenta, a atrazina é um herbicida que afeta a fotossíntese e atua em sinergia com outros herbicidas. Tyrone B. Hayes, da Universidade de Berkeley, e colegas mostraram que esse composto pode mudar o sexo da rã-de-unha africana (Xenopus laevis) e que “a atrazina e outros pesticidas perturbadores endócrinos são prováveis fatores em ação nos declínios globais dos anfíbios” (28). Em 2015, Andrea Vogel e colegas mostraram que a atrazina é um perturbador endócrino em invertebrados (29). A Itália e a Alemanha baniram a atrazina em 1991, e em 2004 a atrazina foi proibida em toda a UE (3). O Limite Máximo de Resíduos (LMR) de atrazina permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 2 μg, portanto um limite 20 vezes maior.

A guerra química insensata e de antemão perdida contra a natureza

Há pelo menos 55 anos, desde o célebre livro de Rachel Carson, Primavera Silenciosa (1962), sabemos que os pesticidas industriais lançaram a espécie humana numa guerra biocida, suicida e de antemão perdida. A ideia mesma de um pesticida sintético usado sistematicamente contra outras espécies no fito de aniquilá-las dá prova cabal da insanidade da agricultura industrial: envenenam-se nossos alimentos para matar outras espécies ou impedi-las de comê-los. As doses do veneno, pequenas em relação à massa corpórea humana, não nos matam. Mas, ao atirarem numa espécie com uma metralhadora giratória, os pesticidas provocam “danos colaterais”: matam ou debilitam espécies não visadas, provocando desequilíbrios sistêmicos que promovem seleções artificiais capazes de reforçar a tolerância das espécies visadas, ou a invasão de espécies oportunistas, por vezes tão ou mais ameaçadoras para as plantações e para os homens que as espécies visadas pelos pesticidas. Além disso, a médio e longo prazo os pesticidas intoxicam e adoecem o próprio homem, tanto mais porque somos obrigados a aumentar as doses dos pesticidas e a combiná-los com outros em coquetéis cada vez mais tóxicos, à medida que as espécies visadas se tornam tolerantes à dose ou ao princípio ativo anterior. Uma suma de pesquisas científicas (31) mostra o caráter contraproducente dos agrotóxicos, seja do ponto de vista de seus efeitos sobre outras espécies – por exemplo, as abelhas e demais polinizadores –, seja do ponto de vista da saúde humana e de outras espécies não visadas, seja ainda da própria produtividade agrícola. Citemos apenas três desses estudos. Um documento da FAO de 2003 mostra que o uso crescente de pesticidas desde os anos 1960 não aumenta, mas, ao contrário, diminui relativamente as colheitas, sendo que as perdas de safra por causa de pestes eram em 1998 já da ordem de 25% a 50%, dependendo da cultura. O documento assim comenta esse fato: “É perturbador que ao longo dos últimos três ou quatro decênios, as perdas de colheitas em todas as maiores culturas aumentaram em termos relativos. (…) É interessante notar que o aumento das perdas de colheitas é acompanhado por um crescimento na taxa de uso de pesticidas” (32). Em 2013, um artigo publicado na revista Proceedings of the National Academy of Sciences refere-se ao morticínio de diversas espécies causado por pesticidas, mesmo utilizados em concentrações consideradas seguras pela legislação europeia: “Pesticidas causam efeitos estatisticamente significantes em espécies em ambas as regiões [Europa e Austrália], com perdas de até 42% nas populações taxonômicas registradas. Além disso, os efeitos na Europa foram detectados em concentrações que a atual legislação considera ambientalmente protetiva. Portanto, a atual avaliação de risco ecológico de pesticidas falha em proteger a biodiversidade, tornando necessárias novas abordagens envolvendo ecologia e ecotoxicologia” (33). Enfim, em 2014, um grupo internacional de trabalho de quatro anos sobre os pesticidas sistêmicos, o Task Force on Systemic Pesticides (TFSP), reunindo 29 pesquisadores, declara em seus resultados que os pesticidas sistêmicos (os neonicotinoides, por exemplo) constituem uma inequívoca e crescente ameaça tanto à agricultura quanto aos ecossistemas. Jean-Marc Bonmatin, um pesquisador do CNRS francês, pertencente a esse grupo de trabalho, assim resumiu esses resultados: “A evidência é clara. Estamos testemunhando uma ameaça à produtividade de nosso ambiente natural e agrícola, uma ameaça equivalente à dos organofosfatados ou DDT [denunciados em 1962 por Rachel Carson]. Longe de proteger a produção de alimentos, o uso de inseticidas neonicotinoides está ameaçando a própria infraestrutura que permite essa produção” (34).

Pesticidas, o outro lado da moeda das armas químicas de destruição em massa

Entre os pesticidas industriais e as guerras químicas há uma íntima interação, passada e presente. Ambos impõem-se como um fato absolutamente novo na história da destruição do meio ambiente pelo homem e de sua autointoxicação. Os inseticidas organoclorados e organofosforados, e os herbicidas baseados em hormônios sintéticos nascem nos anos 1920-1940 como resultado das pesquisas sobre armas químicas usadas durante a I Grande Guerra pelos dois campos beligerantes. Essa interação continua no período entre-guerras, em especial na Alemanha, então em busca de recuperar sua supremacia na indústria química. Em seu quadro de cientistas, a Degesh (Deutsche Gesellschaft für Schädlingsbekämpfung – Sociedade Alemã para o Controle de Pragas), criada em 1919, contava químicos como Fritz Haber (Prêmio Nobel) e Ferdinand Flury, que desenvolveu em 1920 o Zyklon A, um pesticida à base de cianureto, precedente imediato de outro inseticida, o Zyklon B, patenteado em 1926 por Walter Heerdt eusado sucessivamente nas câmaras de gás dos campos de extermínio de Auschwitz-Birkenau e Majdanek. Outro exemplo é o da IG Farben, de cujo desmembramento após 1945 resultou a Agfa, a BASF, a Hoechst e a Bayer. Para esse conglomerado industrial alemão, trabalhavam químicos como Gerhard Schrader (1903-1990), funcionário da Bayer e responsável pela descoberta e viabilização industrial dos compostos de organofosforados que agem sobre o sistema nervoso central. De tais compostos derivam pesticidas como o bladan e o parathion (E 605) e armas químicas como o Tabun (1936), o Sarin (1938), o Soman (1944) e o Cyclosarin (1949), as três primeiras desenvolvidas, ainda que não usadas, pelo exército alemão na II Grande Guerra. Após a guerra, Schrader foi por dois anos mantido prisioneiro dos Aliados, que o obrigaram a comunicar-lhes os resultados de suas pesquisas sobre ésteres de fosfato orgânicos, em seguida desenvolvidos na fabricação de novos pesticidas.

Essa interação entre pesticidas e armas químicas, hoje melhor denominadas químico-genéticas, continua em nossos dias. O Defense Advanced Research Projects Agency (Darpa), do Pentágono, está investindo US$ 100 milhões em projetos, potencialmente catastróficos, de “extinção genética” de espécies consideradas nocivas ao homem, sem esconder, contudo, seu interesse em possíveis desdobramentos militares dessas pesquisas (35). Um especialista da Convenção sobre Diversidade Biológica (CBD) da ONU declarou ao The Guardian: “Pode-se ser capaz de erradicar um vírus ou a inteira população de um mosquito, mas isso pode ter efeitos ecológicos em cascata”. O potencial militar das pesquisas em edição genética (o chamado “gene drive”) manifesta-se já no fato de que seu principal patrocinador é o Pentágono. Entre 2008 e 2014, o governo dos EUA investiu US$ 820 milhões em biologia sintética, sendo que desde 2012 a maior parte desse investimento veio do Darpa e de outras agências militares. Referindo-se ao risco de que armas baseadas em tecnologias químico-genéticas sejam usadas por “hostile or rogue actors”, um porta-voz do Darpa afirmou que essas pesquisas são de “crítica importância para permitir ao Departamento de Defesa defender seu pessoal e preservar sua prontidão militar. (….) É de responsabilidade do Darpa desenvolver tais pesquisas e tecnologias que podem proteger contra seu mau-uso, acidental ou intencional”. É preciso uma boa dose de amnésia para não perceber nessa interação “defensiva” entre o Pentágono e a pesquisa químico-genética de aniquilação biológica um revival das interações entre “defensivos agrícolas” e a guerra química e de extermínio humano, durante e após a I Grande Guerra (36).

Referências
[1] Segundo o Instituto Brasileiro de Florestas, a área original da Mata Atlântica era originalmente 1.315.460 km², 15% do território brasileiro. Atualmente o remanescente é 102.012 km², 7,91% da área original. Entre 1985 e 2013, a Mata Atlântica perdeu mais 18.509 km2. “A cada 2 dias, um Ibirapuera de Mata Atlântica desaparece”. Cf. SOS Mata Atlântica. “Divulgados novos dados sobre o desmatamento da Mata Atlântica”, 27/V/2014.

[2] Na Amazônia brasileira, a área de corte raso da floresta (1970-2017) chega a 790 mil km2, sendo 421.775 km2 de corte raso no acumulado de 1988-2016 (INPE). Mas “a área de corte raso e a de degradação representam juntas cerca de dois milhões de km2, ou seja 40% da floresta amazônica brasileira” (dados de 2013). Cf. A. D. Nobre, “Il faut un effort de guerre pour reboiser l’Amazonie”. Le Monde, 24/XI/2014. No Cerrado, um bioma de cerca de 2 milhões de km2, a devastação em 35 anos [1980-2015] foi da ordem de 1 milhão de km2. “Entre 2002 e 2011, as taxas de desmatamento nesse bioma (1% ao ano) foram 2,5 vezes maior que na Amazônia. (…) Mantidas as tendências atuais, 31% a 34% da área restante da cobertura vegetal do Cerrado deve ser suprimida até 2050 (…), levando à extinção ~480 espécies de plantas endêmicas – três vezes mais que todas as extinções documentadas desde 1500”. Cf. Bernardo B.N. Strassburg et al., “Moment of truth for the Cerrado hotspot”. Nature Ecology & Evolution, 23/III/2017. Segundo o INPE, a Caatinga já perdeu cerca de 45% dos 734.478 km² originais de sua vegetação natural.

[3] Mais precisamente, 957 mil km2, segundo Gerd Sparovek (Esalq/USP), Observatório do Código Florestal . Para Britaldo Soares Filho e colegas, “tanto o antigo quanto o novo Código Florestal permitem um desmatamento legal de ainda mais 88 (+/-6) milhões de hectares [880 mil km2] em propriedades privadas. Essa área de vegetação nativa, ao abrigo das exigências de Reserva Legal e Entornos de Cursos de Água, constituem um ‘excedente ambiental’ (“environmental surplus) com potencial de emissão de 18 Gt de CO2-eq”. Cf. Britaldo Soares-Filho et al.“Cracking Brazil’s Forest Code”. Science, 344, 6182, 25/IV2014, pp. 363-364.

[4] Entrevista concedida a Marcos Pivetta e Marcos de Oliveira, “Agricultor de insetos”. Pesquisa Fapesp, 18, 261, novembro de 2017, pp. 32-37.

[5] Cf. Michelle Moreira, “Brasil é o maior consumidor de agrotóxicos do mundo”. Agência Brasil, 3/XII/2015; Flávia Milhorance, “Brasil lidera o ranking de consumo de agrotóxicos”. O Globo, 8/IV/2015.

[6] Cf. Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia, Laboratório de Geografia Agrária, FFLCH/USP, Novembro, 2017, 296 p.

[7] Para a bibliografia anterior de Bombardi, veja-se <https://www.larissabombardi.blog.br/blog-geo>, em particular, “Intoxicação e morte por agrotóxicos no Brasil: a nova versão do capitalismo oligopolizado”. Boletim Dataluta, setembro de 2011 (em rede).

[8] Veja-se Sérgio Lírio, “O abismo não é intransponível”. Carta Capital, 29/XI/2017, pp. 26-28.

[9] Cf. Pedro Durán, “Desde 2009, o Brasil é o maior consumidor de agrotóxicos do mundo”. CBN, 3/V/2016.

[10] Pivetta & Oliveira, “Agricultor de insetos” (cit): “a monocultura causa desequilíbrios”.

[11] “Kátia Abreu quer liberação mais rápida de agrotóxicos pela ANVISA”. Viomundo, 19/X/2011.

[12] Cf. Dante D. G. Scolari, “Produção agrícola mundial: o potencial do Brasil”. Embrapa, 2007.

[13] Cf. Michelle Moreira, “Brasil é o maior consumidor de agrotóxicos do mundo”. Agência Brasil, 3/XII/2015.

[14] Cf. Vanessa Barbosa, “Anvisa aponta 13 alimentos que pecam no uso de agrotóxicos”. Exame, 13/IX/2016.

[15] Cf. Marina Rossi, “O ‘alarmante’ uso de agrotóxicos no Basil atinge 70% dos alimentos”. El País, edição em português, 30/IV/2015.

[16] Veja-se “Posicionamento do Insituto Nacional de Câncer José Alencar Gomes da Silva acerca dos Agrotóxicos”. 

[17] Cf. EPA, “Assessing Health Risks from Pesticides” (em rede).

[18] Os dados comparativos sobre os LMR no Brasil e na União Europeia (UE) são retirados do já citado trabalho de Bombardi.

[19] Cf. Daniel Cressey, « Widely used herbicide linked to cancer ». Nature, 24/III/2015: “Two of the pesticides — tetrachlorvinphos and parathion — were rated as “possibly carcinogenic to humans”, or category 2B. Three — malathion, diazinon and glyphosate — were rated as “probably carcinogenic to humans”, labelled category 2A”.

[20] Cf. IARC Monographs evaluate DDT, lindane, and 2,4-D. Press release n. 236, 23/VI/2015. Veja-se também OMS.

[21] Cf. Danielle Sedbrook, “2,4-D: The Most Dangerous Pesticide You’ve Never Heard Of”. NRDC, 15/III/2016.

[22] Veja-se sua entrevista | L. L. Foloni, O Herbicida 2,4-D: Uma Visão Geral, 2016.

[23] Cf. “APVMA [Australian Pesticides and Veterinary Medicines Authority]: Australia Bans Toxic Herbicide 2,4-D Products”. Sustainable Pulse, 24/VIII/2013; “Govt bans 2,4-D, paraquat in Vietnam”. Vietnamnet, 16/II/2017.

[24] Veja-se, por exemplo, Andrew Pollack, “E.P.A. Denies an Environmental Group’s Request to Ban a Widely Used Weed Killer”. The New York Times, 9/IV/2012.

[25] Cf. Idiana Tomazelli & Mariana Sallowicz, “Uso de agrotóxicos no País mais que dobra entre 2000 e 2012”. O Estado de São Paulo,19/VI/2015. “O agrotóxico mais empregado foi o glifosato, um herbicida apontado por pesquisadores como nocivo à saúde. Entre os inseticidas, o mais usado foi o acefato”.

[26] Cf. Philip J. Landrigan, Luca Lambertini, Linda S. Birnbaum, “A Research Strategy to Discover the Environmental Causes of Autism and Neurodevelopmental Disabilities” (Editorial). Environmental Health Perspectives, 25/IV/2012..

[27] Cf. “Don’t let feds make pesticide call”, Daily Record (USA Today), Editorial, 27/XI/2017.

[28] Cf. Tyrone B. Hayes et al., “Atrazine induces complete feminization and chemical castration in male African clawed frogs (Xenopus laevis)”. Proceedings of the National Academy of Sciences, 107, 10, 9/III/2010, pp. 4612-4617: “The present findings exemplify the role that atrazine and other endocrine-disrupting pesticides likely play in global amphibian declines”.

[29] Cf. Andrea Vogel et al., “Effects of atrazine exposure on male reproductive performance in Drosophila melangaster”. Journal of Insect Physiology, 72, janeiro, 2015, pp. 14-21.

[30] Cf. Franck Akerman, “The Economics of Atrazine”, International Journal of Occupational and Environmental Health, 13, 4, outubro-dezembro de 2007, pp. 441-449.

[31] Veja-se, por exemplo, Jan Dich et al., “Pesticides and Cancer”. Cancer, causes & control, maio, 1997, 8, 3, pp. 420-443. IDEM, “Pesticide and prostate cancer. Again”. Pesticide Action Network, 23/I/2013.(1997, 8, pp. 420-443); Idem (23/I/2013).

[32] Report of the First External Review of the Systemwide Programme on Integrated Pest Management (SP-IPM). Interim Science Council Secretariat – FAO, agosto de 2003.

[33] Cf. Mikhail A. Beketov et al., “Pesticides reduce regional biodiversity of stream invertebrates”. PNAS, online, 17/VI/2013.Também Sharon Oosthoek, “Pesticides spark broad biodiversity loss”. Nature, 17/VI/2013.

[34] Citado por Damian Carrington, “Insecticides put world food supplies at risk, say scientists”. TG, 24/VI/2014.

[35] Cf. Arthur Neslen, “Us military agency invests $ 100m in genetic extinction technologies”. The Guardian, 4/XII/2017.

[36] No período entreguerras, armas químicas continuaram a ser utilizadas pela aviação inglesa, por exemplo, em 1919 contra os bolcheviques e em 1925 contra a cidade de Sulaimaniya, capital do Kurdistão iraquiano; a aviação italiana utilizou-as em 1935 e 1936 em sua tentativa de exterminar a população da Etiópia, e o exército bolchevique, segundo uma documentação aparentemente confiável, dizimou com armas químicas os revoltosos de Tambov, uma das 118 revoltas camponesas contra o exército vermelho reportadas pela Cheka, em fevereiro de 1921. Cf. Eric Croddy, Clarisa Perez-Armendaruz & John Hart, Chemical and Biological Warfare. A comprehensive survey for the concerned citizen. Nova York, Springer-Verlag, 2002.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

Não perca a receita

Matthew Barsalou e Robert Perkin

A vovó de Robert Perkin era famosa em sua família por sua torta de caramelo. Era um alimento básico do jantar de Ação de Graças, desde que alguém pudesse se lembrar disso.

Mas, ninguém jamais pensou exatamente como ela fazia ou o que aconteceria se ela parasse de fazer isso. Eventualmente, a vovó Perkin faleceu, assim como a sua receita amada. A irmã de Robert sempre tentou recriar a receita, mas sem sucesso.

Esta história familiar ilustra um problema que, infelizmente, é muito comum em um ambiente produtivo. Por algum motivo, um processo que funcionou bem durante anos começa a falhar e ninguém consegue descobrir o porquê. De repente, a receita está perdida.

Muitas vezes, isso acontece quando um empregado de produção de longa data sai da organização e toma sua receita especial, ou método, que quase sempre não é documentado.

A maneira superior de fazer de um empregado é chamada de habilidade. Um funcionário que sabe de experiência arquivar um componente crítico em um sistema que está sendo montado, por exemplo, tem uma habilidade. Outros funcionários não sabem que a peça deve ser arquivada porque a ação nunca foi documentada, resultando em sucata para funcionários sem a habilidade. (1)

Para resolver este problema, a habilidade deve ser identificada e documentada. Mas, em primeiro lugar, o investigador da análise da causa raiz deve descobrir qual a diferença entre os funcionários que potencialmente podem resultar em uma habilidade.

Um bom primeiro passo em uma investigação é graficar os dados e procurar recursos expressivos (2). Os recursos expressivos destacam-se e podem estar relacionados à causa, mas garantem uma investigação mais aprofundada porque muitas vezes eles fornecem pistas durante uma análise de causa raiz. A Figura 1 mostra um gráfico de execução da sucata total de um processo de fabricação. Há bons dias e dias ruins, mas nada se destaca.

A estratificação pode fornecer informações adicionais sobre os dados (3) e deve ser usada quando os dados consistem em um agregado de múltiplas fontes. O gráfico na Figura 1 consiste na sucata total de quatro funcionários. O gráfico na Figura 2 mostra os mesmos dados estratificados por empregado. A estratificação mostra que Charles tem uma taxa de sucata significativamente menor que as demais. Então, o que Charles está fazendo diferente?

Para ajudar a identificar a habilidade, pode ser necessário observar todos os quatro funcionários e criar um fluxograma de processo de cada movimento que eles fazem durante a operação de montagem. Após a descoberta, o procedimento deve ser revisado.

A documentação deve ser específica e acionável ao nível do operador, caso contrário, o conhecimento pode ser perdido quando o empregado com a habilidade já não está por perto para fornecer orientação. Depois que a habilidade é encontrada e documentada, documentar formalmente a “receita” para garantir um sucesso consistente. Agora, me passe essa torta.

Referências

(1) Frank M. Gryna, Quality Planning and Analysis: From Product Development Through Use, fourth edition, McGraw-Hill, 2001.

(2) Jeroen de Mast and Albert Trip, “Quality-Improvement Projects”, Journal of Quality Technology, Vol. 39, No.4, 2007, pp. 301-311.

(3) Kaoru Ishikawa, Guide to Quality Control, second edition, Asian Productivity Organization, 1991.

Matthew Barsalou atua em estatística do problema Master Black Belt na BorgWarner Turbo Systems Engineering GmbH em Kirchheimbolanden, na Alemanha. Possui mestrado em administração e engenharia de empresas na Wilhelm Büchner Hochschule em Darmstadt, Alemanha, e mestrado em estudos liberais na Fort Hays State University em Hays, KS. Barsalou é um membro sênior da ASQ e possui várias certificações. Robert Perkin é gerente sênior de resolução de problemas de engenharia e métodos estatísticos na BorgWarner Turbo Systems. Perkin possui mestrado em gerenciamento de tecnologia e de engenharia na Universidade de Washington em St. Louis. Ele é um Black Six Sigma Master Black Belt certificado para soluções mais inteligentes.

Fonte: Quality Progress/2017 October

Tradução: Hayrton Rodrigues do Prado Filho

As regras do compliance para os presentes de final de ano

Normas comentadas

NBR 14039 – COMENTADA de 05/2005Instalações elétricas de média tensão de 1,0 kV a 36,2 kV – Versão comentada.

Nr. de Páginas: 87

NBR 5410 – COMENTADA de 09/2004Instalações elétricas de baixa tensão – Versão comentada.

Nr. de Páginas: 209

Antonio Carlos Hencsey

A troca de presentes e entretenimento pode fortalecer as relações comerciais, mas por outro lado o envio de regalos e divertimentos, como jantares e idas a shows ou peças teatrais, podem criar, ou aparentar, influências inadequadas no ambiente de trabalho. Todo cuidado é pouco ao receber mimos do parceiro ou fornecedor, uma prática muito comum que ocorre agora, principalmente, durante as festas de fim de ano. Tudo porque o recebimento de gratificações tem grades chances de ser visto como propinas, capazes de manchar a reputação e destoar as disposições do código de normas e condutas éticas da companhia.

É importante ressaltar que itens promocionais de baixo valor, tais como canetas, calendários, blocos de anotações ou outros brindes menores, que normalmente possuem a logomarca da empresa, não se encaixam na categoria de gratificação indevida. Aqui é falado de presentes de alto valor, que superam as cifras de 150 reais e que podem influenciar a objetividade do presenteado quando for tomar uma decisão comercial.

Alguns cuidados podem (e devem) ser tomados para que as empresas sigam suas regras de ética e compliance sem apresentar grosseria no momento do recebimento do presente em face ao período de festividades.

– Reforce com todos os colaboradores as políticas de oferta e recebimento de gratificações estabelecidas pela sua empresa. Delimite um preço para os presentes a serem recebidos. Por exemplo, itens acima de R$ 100 já são considerados fora do padrão de item promocional de baixo valor.

– Proponha conversas sobre o porquê da oferta de presentes. Faça reflexões com a equipe a fim de identificar qual a motivação de quem presenteia. Interesse comercial ou apenas um ato de agradecimento por mais um ano de parceria?

– Deixe claro que mesmo que o profissional acredite ser isento ou não influenciável pelo recebimento de alguma gratificação, somos seres humanos. Não existe neutralidade total nas relações interpessoais. Sempre algum viés ou vínculo é estabelecido com esta ação.

– Sabemos que a alta direção, em alguns casos, recebe presentes como forma de reforçar vínculos estratégicos para a organização, mas estes também devem seguir as políticas estabelecidas. Lembre-se: o exemplo vem de cima. Ao receberem os presentes é preciso, de forma explicita, que seja cumprido os procedimentos padrão, deixando clara a importância que esta prática tem para a empresa.

– Valorize os profissionais que agirem da forma certa. As pessoas podem sentir que estão perdendo algo ao negarem um presente ou entregarem o item para a área responsável. Demonstre ao colaborador a importância de cumprir as normas éticas da organização e fortaleça a conduta do funcionário para as outras pessoas da empresa.

Antonio Carlos Hencsey é líder de prática de ética & compliance da Protiviti.

Perdão no ambiente de trabalho é a melhor forma de evitar o desemprego

O Target Genius Respostas Diretas é o mais avançado e inovador sistema de perguntas e respostas sobre requisitos de normas técnicas. É, basicamente, um conjunto de perguntas mais comuns sobre determinados assuntos das normas técnicas, acompanhadas das respectivas respostas. Definitivamente, a solução para as dúvidas sobre normas técnicas. Selecione o Comitê Técnico desejado e clique sobre o código ou título para consultar. Acesse o link https://www.target.com.br/produtos/genius-respostas-diretas

As brigas no ambiente de trabalho costumam ocorrer quando as pessoas se esquecem que não dá para atuar de acordo com todas as suas emoções no contexto profissional. Todos correm o risco de se desentender com o patrão ao menos uma vez na vida.

Apesar da tradicional desculpa de que “errar é humano”, precisamos estar preparados para assumir as falhas e corrigir possíveis erros ao longo de nossa vida profissional. Se você errou ou erraram com você, não tente definir o mais culpado, e sim admita a limitação e seja profissional na hora de se posicionar diante do chefe.

De acordo com Madalena Feliciano, gestora de carreiras da Outlieers Carriers, na maioria das vezes é melhor usar da sensatez e dar um fim ao mau entendido, do que gerar um maior desconforto, futuramente. O perdão e a atitude de pedir desculpas, podem ser uma maneira de separar o passado do presente e do futuro, encerrando o conflito e começando uma etapa nova.

Qualquer pessoa pode ficar com raiva quando sente que foi agredida, ofendida ou magoada. Madalena destaca que “direcionar a raiva a alguém é um desperdício de energia que impede a pessoa de prestar atenção em sua reação emocional, na intensidade dessa emoção e nos seus aspectos íntimos que mobilizam essa emoção, como a dificuldade de lidar com as pressões por resultados ou com pontos de vista diferentes”.

“As tensões que ocorrem num ambiente de trabalho devem ser consideradas como sinais que podem revelar atitudes e valores pessoais que estimulam certos comportamentos como a intolerância com outros colegas, a dificuldade de respeitar as pessoas que têm opiniões diferentes e a falta de disposição para o trabalho em equipe, o que prejudica a convivência profissional”, exalta Madalena.

Ela diz que “apesar de ser fácil apontar os culpados, procure assumir o erro sozinho e deixe que cada profissional assuma sua fração de culpa. O melhor a fazer é passar logo por esta fase e procurar soluções para melhorar no futuro”, aconselha.

A especialista conclui que “depois de ter suas desculpas aceitadas, é bom evitar levantar o problema novamente. Se outra pessoa insistir em discutir o que aconteceu, tente encerrar a conversa e dizer que você já encontrou uma solução para que o fato não se repita. Senão, isso pode comprometer até mesmo o seu emprego”, finaliza.

O bem que deriva do mal

José Pio Martins

Em nossa vida, uma coisa importante é o que obtemos. Porém, mais importante é como obtemos. Esse adágio se aplica a situações diversas em economia, e faz parte de estudos sobre o resultado das ações humanas e a forma como tais ações são executadas. Atualmente, o Brasil está vivendo uma situação em que tal raciocínio se aplica. Durante anos, o país foi esmagado pela inflação e sua versão mais demolidora: a hiperinflação. Hoje, a inflação está controlada em níveis baixos – o que é bom –, mas cabe perguntar se não se trata de um bem derivado de um mal.

Comumente definida como um processo de aumento generalizado e contínuo de preços, a inflação foi um dos estopins da queda do presidente João Goulart, em 1964. No ano anterior, a inflação chegara a 78% e desorganizou o sistema de preços, lançou a economia em recessão e empobreceu os assalariados. Alguns economistas definem que há hiperinflação quando o índice anual de preços passa dos 50%. Outros acham que ela ocorre quando os preços sobem acima dos 100% ao ano.

O Brasil conseguiu controlar aquela inflação de 1963, mas em 1974 o monstro voltou e os preços subiram 34%. Em 1979, a inflação atingiu 78%, o mesmo índice de 1963, e o Brasil começou uma fase de hiperinflação, que acabaria resultando em cinco planos econômicos nos governos Sarney, Collor e Itamar Franco, na tentativa de combatê-la. Foi somente em 1994, com o Plano Real, que o país conseguiu vencer a hiperinflação e iniciar uma fase de estabilidade de preços.

Após 1994, parecia que o monstro da inflação havia deixado o Brasil. Mas inflação não morre. Apenas adormece, sempre pronta a atacar quando é cutucada. Desde 1996, a inflação não passa de um dígito, à exceção de 2002, quando foi de 12,5%, e depois em 2015, quando chegou a 10,67%. Esse histórico deixou os agentes econômicos assustados no início do segundo governo Dilma, quando a inflação subiu em 2015, e o medo da hiperinflação reapareceu. Hoje, o pânico passou e a inflação deve ficar abaixo da meta do Banco Central, que é de 4,5%.

Atualmente, estamos presenciando certa euforia com a inflação baixa. Entretanto, há um problema com as razões que levaram à redução no índice de preços. Se estivesse baixa em um ambiente de crescimento econômico e reduzido desemprego, daria para dizer que temos um bem assentado em causas boas. Entretanto, a inflação está baixa em 2017 depois de três anos de recessão pesada – o Produto Interno Bruto (PIB) do ano 7,4% menor do que era em 2013 – e desemprego de 14,2 milhões de trabalhadores, sobre um total de 103,6 milhões de pessoas em condições de trabalhar.

A inflação baixa é boa para a nação, mas, se deriva de produção baixa e desemprego alto, ela não é estável. Há dúvidas quanto à capacidade da economia em manter a inflação baixa quando o produto nacional voltar a crescer e o desemprego cair. Alguns analistas acreditam que a inflação pode voltar a subir, pois há variáveis macroeconômicas – como déficit do setor público, controle da dívida governamental e expansão monetária – que não dão mostras de melhoras e vão pressionar a inflação para cima.

Se um sujeito emagreceu se exercitando numa academia, é uma coisa boa. Se outro emagreceu porque ficou doente, é uma coisa ruim. A inflação brasileira caiu porque o país adoeceu (recessão e desemprego). A recessão até ajuda a combater a inflação, desde que sejam feitos os ajustes fiscais e monetários. Sem isso, é sucesso não sustentável.

José Pio Martins é economista e reitor da Universidade Positivo.

“Tostados, assados e grelhados”

Luiz Marques

​“Como disse antes, se não fizermos nada a respeito da mudança climática, seremos tostados, assados e grelhados num horizonte de tempo de 50 anos. (…) Se não encararmos essas duas questões – mudança climática e desigualdade crescente – avançaremos a partir de agora em direção a sombrios 50 anos” (I). Quem fala é Christine Lagarde, diretora do Fundo Monetário Internacional, durante um painel da Future Investment Initiative, ocorrido em 25 de outubro em Riad, na Arábia Saudita.

É positivo que o FMI funcione como uma caixa de ressonância da ciência e que junte sua voz ao coro dos alertas sobre a situação-limite em que a humanidade e a biosfera se encontram. Mas o FMI é o primogênito e um dos principais gendarmes da ordem econômica internacional que está condenando os homens e a biosfera a serem “tostados, assados e grelhados num horizonte de tempo de 50 anos”. Não tem, portanto, autoridade moral para emitir alertas desse gênero. “Como disse antes”, afirma acima Lagarde…

De fato, já em 2012, às vésperas da Rio+20, ela havia declarado num encontro do Center for Global Development, em Washington, que “a mudança climática é claramente um dos grandes desafios de nosso tempo, um dos grandes testes de nossa geração. Para os mais pobres e mais vulneráveis do mundo, a mudança climática não é uma possibilidade distante. É uma realidade presente” (II). E anunciava então que o FMI desenvolveria pesquisas e daria suporte analítico aos países com políticas de redução de emissões de gases de efeito estufa (GEE), em particular através de instrumentos fiscais, como precificação do carbono e eliminação dos subsídios. Passados cinco anos, eis o que aconteceu:

1. Os subsídios à indústria de combustíveis fósseis continuam a crescer. Em 2013, eles montavam a US$ 4,9 trilhões e em 2015 atingiram US$ 5,3 trilhões, ou 6,5% do PIB mundial, segundo um estudo recente. “A eliminação desses subsídios”, afirmam seus autores, “teria reduzido as emissões de carbono, em 2013, em 21%, e em 55%, as mortes por poluição causada pela queima de combustíveis fósseis, ao mesmo tempo em que teria elevado a renda em 4% do PIB global e o bem-estar social em 2,2%” (III). Se entendidos stricto sensu, ou seja, como privilégio fiscal ou transferência de recursos estatais para essa indústria, os subsídios dos governos do G20 – os mesmos que prometeram seu fim em 2009 – montavam em 2015 a US$ 444 bilhões (IV).

2. Imposto sobre a emissão de carbono (carbon tax). A segunda medida apoiada por Lagarde era a precificação adequada do carbono: “corrigir seus preços significa usar uma política fiscal capaz de garantir que o malefício que causamos reflita-se nos preços que pagamos” (V). Tal imposto foi sugerido já em 1973 por David Gordon Wilson (VI), do MIT, e reproposto agora, pela enésima vez, por 13 economistas, no âmbito de uma iniciativa presidida por Joseph Stiglitz e Sir Nicholas Stern (VII). O estudo sugere que este seja em 2020 de 40 a 80 dólares por tonelada de CO2 emitido e, em 2030, de 50 a 100 dólares. Não se sabe em quanto esse imposto, se adotado, contribuiria para a redução das emissões de GEE. Mas se sabe que o FMI em nada tem contribuído para viabilizá-lo. De resto, em março último, Trump descartou-o e sem o apoio dos EUA, um dos maiores produtores mundiais de petróleo, ele parece hoje mais irrealista que nunca.

Leonardo Martinez-Diaz, do World Resources Institute, percebe bem a hipocrisia do FMI: “Uma das funções centrais do FMI é a vigilância macroeconômica. (…) O Fundo deveria colocar o risco climático no diálogo com os Estados, como um item formal de suas consultas”. E, sobretudo, “considerar as despesas em resiliência como investimentos dos Estados devedores” (VIII). Mas, isso Christine Lagarde não fez, e não fará, porque prejudicaria os interesses dos credores.

CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO

Voluntários posam nus, na geleira de Aletsch, nos Alpes suíços, durante campanha ambiental sobre o aquecimento global, em 2007 | Foto: Reprodução | Greenpeace

Quatro décadas de alertas científicos

Se é nula a credibilidade do FMI no que se refere à sua contribuição para mitigar essa situação extremamente grave, isso não altera o fato de que o diagnóstico de Lagarde baseia-se no mais consolidado consenso científico. Há décadas a ciência adverte que o aquecimento continuado da atmosfera e dos oceanos – causado sobretudo pela queima de combustíveis fósseis, pelo desmatamento e pelo surto global de carnivorismo – lançaria o século XXI num série de crescentes desastres sociais e ambientais. Quase quatro décadas atrás, em 1981, quando o aquecimento global era ainda de apenas 0,4o C acima dos anos 1880, James Hansen e colegas afirmavam num trabalho da Science (IX):

“Efeitos potenciais sobre o clima no século XXI incluem a criação de zonas propensas a secas na América do Norte e Ásia Central como parte de uma mudança nas zonas climáticas, erosão das camadas de gelo da Antártica com consequente elevação global do nível do mar e a abertura da famosa passagem do Noroeste [no Ártico]. (…) O aquecimento global projetado para o próximo século é de uma magnitude quase sem precedentes. Baseados nos cálculos de nosso modelo, estimamos que ele será de ~2,5o C para um cenário com lento crescimento de energia e um misto de combustíveis fósseis e não fósseis. Esse aquecimento excederia a temperatura durante o período antitermal (6.000 anos atrás) e o período interglacial anterior (Eemiano) e se aproximaria da temperatura do Mesozoico, a idade dos dinossauros”.

Entre 1984 e 1988, James Hansen depôs três vezes no Senado dos Estados Unidos. Na última vez, diante de 15 câmaras de televisão, projetou cenários de aquecimento global de até 1,5o C em 2019 em relação à média do período 1951-1980, como mostra a Figura 1, reproduzida a partir desse histórico documento de 1988.

Figura 1 – Projeção de aquecimento médio superficial global até 2019, segundo três cenários

O Cenário A supõe uma taxa de aumento das emissões de CO2 típica dos 20 anos anteriores a 1987, isto é, um crescimento a uma taxa de 1,5% ao ano. O Cenário B assume taxas de emissão que estacionam aproximadamente no nível de 1988. O Cenário C é de drástica redução dessas emissões atmosféricas no período 1990 – 2000. A linha contínua descreve o aquecimento observado até 1987. A faixa cinza recobre o nível pico de aquecimento durante os períodos Antitermal (6.000 anos AP) e Eemiano (120.000 anos AP). O ponto zero das observações é a média do período 1951-1980.

Fonte: “The Greenhouse Effect: Impacts on Current Global Temperature and Regional Heat Waves”, figura 3. Documento apresentado ao Senado por James Hansen em 1988. Veja-se:https://climatechange.procon.org/sourcefiles/1988_Hansen_Senate_Testimony.pdf

As projeções de Hansen são uma das mais espetaculares demonstrações de inteligência do sistema Terra na história recente da ciência, que só hoje podemos aquilatar em sua real dimensão. Seus Cenários A e B anteciparam a uma distância de 30 anos um aquecimento médio global entre ~1,1o C e 1,5o C. Foi exatamente o que aconteceu, como mostra a Figura 2

Figura 2 – Temperaturas superficiais globais em relação ao período de base 1880-1920 | Fonte:Earth Institute. Columbia University

Como se vê, desde 1970 as temperaturas médias globais têm se elevado 0,18o C por década e em 2016 elas atingiram +1,24o C em relação a 1880-1920. Mantida a aceleração do aquecimento médio global observada no triênio 2015-2017 (~0,2o C), deveremos atingir ou estar muito próximos, em 2019, do nível de aquecimento previsto no pior cenário assumido por James Hansen e colegas.

Energias fósseis x energias renováveis e de baixo carbono

Naturalmente, quem está no controle do mundo não se interessa por acurácia científica, quando esta interfere em seus planos de negócios. Os alertas de toda uma legião de cientistas no mundo todo continuam a se espatifar contra o muro inexpugnável das corporações, que impuseram e continuam a impor à humanidade e à biosfera o “Cenário A” previsto por James Hansen. Os números, melhor que quaisquer argumentos, revelam a extensão do crime: desde 1988, data do testimony de Hansen no Senado dos EUA, mais CO2 foi lançado na atmosfera do que entre 1750 e 1987, como mostra a Figura 3

Figura 3 – Emissões industriais de CO2 entre 1751 e 2014. De 1751 a 1987 foram emitidas 737 Gt (bilhões de toneladas). Entre 1988 e 2014 foram emitidas 743 Gt.  | Fonte: T. J. Blasing, “Recent Greenhouse Gas Concentrations”. Carbon Dioxide Information Analysis Center (CDIAC), Abril, 2016, baseado em Le Quéré et al. (2014) e Boden, Marland e Andres (2013).

Em 2017 teremos já ultrapassado 800 Gt de CO2 emitidos na atmosfera em quarenta anos. As corporações que lucram com essas emissões e com a destruição das florestas – em especial os xifópagos Big Oil & Big Food – venceram e continuam vencendo. Em Riad, na semana passada, Christine Lagarde acrescentou que “as decisões devem ser imediatas, o que provavelmente significará que nos próximos 50 anos o petróleo se tornará uma commodity secundária”. Foi contradita por Amin Nasser, presidente da estatal Saudi Arabian Oil Company (Aramco): “Alternativas, carros elétricos e renováveis estão definitivamente ganhando participação no mercado e estamos vendo isso. Mas décadas serão ainda necessárias antes que assumam uma participação maior na oferta de energia global” (X).

Mantido o paradigma expansivo do capitalismo (obviamente dependente das reservas restantes de petróleo, algo incerto), o prognóstico de Amin Nasser afigura-se mais credível que o de Christine Lagarde. Ele ecoa a convicção de seus pares de que a hegemonia dos combustíveis fósseis não será sequer ameaçada, quanto menos superada, por energias de baixo carbono pelos próximos dois ou três decênios. Barry K. Worthington, diretor da toda poderosa United States Energy Association, afirma, e é fato, que “nenhuma projeção credível” mostra uma participação menor que 40% dos combustíveis fósseis em 2050 (XI). Mesmo o carvão, cujo declínio iniciado nos dois últimos anos parecia a muitos ser irreversível, resiste. Nos EUA, sua produção em 2017 será 8% maior que em 2016 (XII). No mundo todo havia, em outubro de 2017, 154 unidades termelétricas movidas a carvão em construção e 113 em expansão, um número ainda superior ao das unidades que estão sendo desativadas (XIII).

Um argumento em favor da ideia de uma ainda longa hegemonia futura dos combustíveis fósseis provém de um trabalho de três pesquisadores da Universidade de Bergen, na Noruega (XIV). Os autores partem da constatação de que em 2015 o consumo energético global foi de 17 Terawatts (TW), dos quais apenas 3,9% (0,663 TW) provieram de energias eólica (0,433 TW) e fotovoltaica (0,230 TW). Assumem em seguida a projeção de que esse consumo quase dobre em 2050, atingindo 30 TW. Detectam então indícios de que a taxa de crescimento das energias eólica e fotovoltaica comece a declinar já ao longo da próxima década, saturando sua capacidade instalada não acima de 1,8 TW em 2030, o que as levaria a assumir a forma da curva de uma função logística ou sigmóide (em “S”), como mostra a Figura 4.

Figura 4 – Capacidade instalada global total de energia eólica e fotovoltaica (pontos verdes)
A linha contínua é a do modelo logístico (curva sigmóide), semelhante à evolução das energias hidrelétrica e nuclear. As linhas pontilhadas indicam um intervalo de confiança de 95%. O ponto vermelho indica os prognósticos das associoções de acionistas. O quadro inserido mostra o declínio previsto das taxas de crescimento dessas energias. | Fonte: J.P. Hansen, P.A. Narbel, D.L. Aksnes, “Limits to growth in the renewable energy sector”. Renewable and Sustainable Energy Reviews, 70, IV/2017, pp. 769-774.

A COP 23 e a “catastrófica brecha climática”

Como se sabe, abre-se hoje, 6 de novembro de 2017, em Bonn, mais uma reunião anual da Convenção-Quadro das Nações Unidas sobre as Mudanças Climáticas (UNFCCC), a 23ª Conferência das Partes (COP23). Sua agenda central será fazer avançar as diretrizes (rule-book) de implementação do Acordo de Paris, preparadas por um grupo de trabalho – o Ad-hoc Working Group on the Paris Agreement (APA) –, coordenado pela Nova Zelândia e pela… Arábia Saudita. Por improvável que seja a projeção de Christine Lagarde de que “nos próximos 50 anos o petróleo se tornará uma commodity secundária”, suas declarações na capital mundial do petróleo têm o mérito de reforçar o senso de urgência requerido para mais essa rodada de negociações.  Esse senso de urgência é mais que nunca necessário, pois o contexto político e ambiental em que se abre a COP23 não poderia ser mais adverso, como bem indica o quadro atual de bloqueio do Acordo, em contraste com a angustiante aceleração da degradação ambiental nos últimos meses:

1. Quase dois anos após sua assinatura, o Acordo de Paris não foi ainda ratificado (não está em vigor) por 13 países produtores e detentores das maiores reservas mundiais de petróleo, conforme mostra a tabela abaixo

Fontes: Paris Agreement – Status of Ratification U.S. | EIA Production of Crude Oil including Lease Condensate 2016

A esses 13 países que não ratificaram o Acordo, acrescentam-se os EUA, em vias de deixá-lo. De modo que mais de um terço da produção mundial de petróleo encontra-se em nações que não reconhecem oficialmente o Acordo de Paris, e não o reconhecem, declaradamente ou não, porque não têm intenção de diminuir sua produção.

(2) Em julho, reunido na China, o G20 deu uma demonstração de fraqueza ou de oportunismo ao ceder às pressões dos EUA e da Arábia Saudita para eliminar de sua declaração conjunta final qualquer menção à necessidade de financiar a adaptação dos países pobres às mudanças climáticas, condição de possibilidade do Acordo de Paris (XV).

(3) Em 18 de outubro passado, o Global Forest Watch revelou que em 2016 foram destruídos globalmente 297 mil km2 de florestas pelo avanço da agropecuária, da mineração, da indústria madeireira e de incêndios mais devastadores, criminosos e/ou exacerbados pelas mudanças climáticas (XVI). Trata-se de um recorde absoluto em área destruída e de um recorde no salto de 51% em relação a 2015, como mostra a Figura 5.

Figura 5 – Perdas de cobertura florestal global de 2011 a 2016 | Fonte: Global Forest Watch

(4) Em 30 de outubro, a Organização Meteorológica Mundial (OMM) reconheceu um avanço de 3,3 ppm (partes por milhão) nas concentrações atmosféricas de CO2 no intervalo de apenas 12 meses. Essas concentrações “deram em 2016 um salto, numa velocidade recorde, atingindo seu mais alto nível em 800 mil anos”. Desde 1990, afirma o boletim da OMM, houve um aumento de 40% na forçante radiativa total (o balanço entre a energia incidente e a energia refletida de volta para o espaço pelo sistema climático da Terra) causada pelas emissões de GEE, e um aumento de 2,5% apenas em 2016 em relação a 2015 (XVII).

(5) Enfim, o oitavo Emissions Gap Report, de 2017, publicado pelo Programa das Nações Unidas para o Meio Ambiente (PNUMA), adverte que as reduções de emissões de GEE acordadas em Paris estão muito aquém do requerido para conter o aquecimento médio global abaixo de 2o C ao longo deste século. Como faz notar Erik Solheim, diretor do (PNUMA), “as promessas atuais dos Estados cobrem não mais que um terço das reduções necessárias. (…) Os governos, o setor privado e a sociedade civil devem superar essa catastrófica brecha climática” (XVIII). E reafirma que, se os compromissos nacionais (NDCs) forem implementados, chegaremos ao final deste século com um aquecimento médio global de cerca de 3,2o C (2,9o C a 3,4o C). Mas os governos estão descumprindo até mesmo esse terço por eles prometido em 2015. Segundo Jean Jouzel, ex-vice-presidente do IPCC, “os primeiros balanços das políticas nacionais mostram que, globalmente, estamos abaixo dos engajamentos assumidos em Paris. E sem os EUA, será muito difícil pedir aos outros países que aumentem suas ambições. (…) Para manter alguma chance de permanecer abaixo dos 2o C é necessário que o pico das emissões seja atingido no mais tardar em 2020” (XIX).

Não há que se preocupar. Faltam ainda mais de dois anos…

 

[I] Citado em Anmar Frangoul, “IMF’s Lagarde: If nothing is done about climate change, we will be ‘toasted, roasted and grilled’.” CNBC, 25/X/2017: “As I’ve said before, if we don’t do anything about climate change now, in 50 years’ time we will be toasted, roasted and grilled. (…) If we don’t address those two issues — of climate change and growing inequalities — we will be moving towards a dark 50 years from now”.

[II] Cf. Lawrence MacDonald, “IMF Chief Warns of Triple Crisis – Economic, Environment, Social – Details IMF Actions to Help on Climate”. Center for Global Development, 12/VI/2012.

[III] Cf. David Coady, Ian Parry, Louis Sears, Baoping Shang, “How Large Are Global Fossil Fuel Subsidies?”. World Development, 91, 17/III/2017. Para os autores, subsídios ocorrem: “when consumer prices are below supply costs plus environmental costs and general consumption taxes”.

[IV] Cf. Elizabeth Bast, Alex Doukas, Sam Pickard, Laurie van der Burg & Shelagh Whitley, Empty Promises. G20 Subsidies to Oil, Gas and Coal Production”, Novembro de 2015, p. 9 (em rede).

[V] Citado por Lawrence MacDonald (cit.).

[VI] Cf. Chris Berdik, “The unsung inventor of the carbon tax”. The Boston Globe, 10/VIII/2014.

[VII] Cf. Carbon Price Leadership Coalition (World Bank), Report of The High-Level Commission on Carbon Prices. 29/V/2017 (em rede).

[VIII] Cf. Leonardo Martinez-Diaz, “The IMF and Climate Change: Three Things Christine Lagarde Can Do to Cement Her Legacy on Climate”. World Resources Institute, 10/X/2017.

[IX] Cf. J. Hansen et al., “Climate Impact of Increasing Atmospheric Carbon Dioxide”. Science, 213, 4511, 28/VIII/1981.

[X] Citado por A. Frangoul (cit.).

[XI] Citado por Lisa Friedman, “Trump Team to Promote Fossil Fuels and Nuclear Power at Bonn Climate Talks”. The Washington Post, 2/XI/2017.

[XII] Cf. U.S. Energy Information Administration, Short-Term Energy Outlook, Coal, 11/X/2017 (em rede).

[XIII] Cf. Adam, Morton, “The world is going slow on coal, but misinformation is distorting the facts”. The Guardian, 16/X/2017: “More coal-fired capacity is still being built than closed each year, though the gap has narrowed significantly”.

[XIV] Cf. J.P. Hansen, P.A. Narbel, D.L. Aksnes, “Limits to growth in the renewable energy sector”. Renewable and Sustainable Energy Reviews, 70, IV/2017, pp. 769-774.

[XV] Cf. John Sharman, “US ‘forces G20 to drop any mention of climate change’ in joint statement”. The Independent, 18/III/2017.

[XVI] Cf. Mikaela Weisse & Liz Goldman, “Global Tree Cover Loss Rose 51% in 2016”, GFW, 18/X/2016.

[XVII] “Greenhouse gas concentrations surge to new record”. World Meteorological Organisation, 30/X/2017..

[XVIII] Cf. Erik Solheim, The Emissions Gap Report 2017. A UN Environment Synthesis Report, p. XIII.

[XIX] Cf. Pierre Le Hir, “Réchauffement climatique: la bataille des 2o C est presque perdue”. Le Monde, 31/XII/2017.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

Como as novas tecnologias apoiam o combate à corrupção nas empresas

Cassiano Machado

Atos de corrupção e outros desvios são cada vez mais difíceis de serem perpetuados sem deixar rastros digitais. Os avanços na tecnologia ampliaram a capacidade de as empresas prospectarem cada vez mais informações sobre a ocorrência de atos ilícitos em seu ambiente e interfaces, potencializando a descoberta destas irregularidades e a condução efetiva das investigações.

Nesta realidade, o Big Data e o Data Analytics contribuem de forma relevante nas estruturas de controle e investigações. Estas tecnologias processam e analisam dados capturados de diferentes origens, tornando-se uma rica fonte para o desenvolvimento de análises preditivas e correlações, além de trazerem ganhos para a eficácia dos esforços de apuração das irregularidades.

Assim como o mapeamento de dados na internet, por meio de buscas automáticas ou manuais de conteúdos disponíveis nas redes sociais, marketplaces, como o Mercado Livre, e órgãos públicos e privados de informação, permitem o entendimento de diversos aspectos, dentre eles, o perfil comportamental e o estilo de vida do investigado fora do ambiente corporativo. É possível analisar suas redes de relacionamentos, situação patrimonial, posição societária, histórico judicial e até sua presença em listas de restrições financeiras ou governamentais.

Logs de acesso físico, varredura de arquivos em rede, análise forense de discos rígidos e celulares, além da análise de imagens de circuito interno de TV são também outras fontes de dados digitais disponíveis que ajudam as organizações a detectarem o ato ilícito de seus colaboradores. Inclusive contando com a ação de denunciantes, de dentro ou fora do ambiente de trabalho, que podem encaminhar ao canal de denúncias da empresa evidências em formato digital, como gravações de áudio, vídeo e fotos.

Por falar em canal de denúncia, a ferramenta pode ser o primeiro passo das companhias no combate à corrupção. Com o apoio da internet, dos smartphones e das conexões globais de dados e telefonia o canal interliga o denunciante com a estrutura especializada de captação de denúncia, agilizando a etapa de investigação sem risco de exposição do denunciante. A Odebrecht, por exemplo, reforçou o seu compliance ao terceirizar o Linha de Ética, um canal dedicado a receber relatos e denúncias de comportamentos não éticos e violações às políticas internas, regras e legislações.

Todas estas tecnologias já estão disponíveis e outras estão em plena evolução. Quando empregadas com inteligência, expandem a capacidade de combate à corrupção e outras irregularidades nas empresas, promovendo inibição, maior segurança e facilidade para o registro de denúncias e para a detecção de sinais suspeitos e coleta de evidências. Tudo isso maximiza a capacidade de gestão e atuação preventiva e investigativa das organizações.

Cassiano Machado é sócio-diretor da ICTS Outsourcing.

Cursos pela internet

Conheça um programa especial de cursos pela internet, com as últimas tendências do mercado. Fique atento aos cursos que estão disponíveis. Acesse o link https://www.target.com.br/produtos/cursos-tecnicos/disponiveis-pela-internet