Dissociar o Estado das corporações e associar ciência e política

Luís Marques

Foto: Reprodução | shutterstock

Em 1972, Barbara Ward e René Dubos escreveram, por encomenda de Maurice Strong, o documento preparatório para a Conferência das Nações Unidas sobre o Meio Ambiente Humano realizada naquele ano em Estocolmo. Esse documento foi publicado na forma de um livro, intitulado Only One Earth: The Care and Maintenance of a Small Planet. Seu primeiro capítulo concluía-se com essas palavras lapidares:

“Os dois mundos do homem – a biosfera de sua herança, a tecnosfera de sua criação – estão em desequilíbrio, na realidade, potencialmente em profundo conflito. E o homem está no meio. Esse é o ponto de inflexão da história, em que nos encontramos, com a porta do futuro abrindo-se para uma crise mais súbita, mais global, mais inescapável e mais desconcertante que qualquer outra jamais confrontada pela espécie humana. Uma crise que tomará sua forma decisiva no intervalo de vida das crianças já nascidas.”

Paralelamente a esse livro seminal de Ward e Dubos, e visando igualmente interagir com a Conferência de Estocolmo, um manifesto assinado por mais de 30 cientistas eminentes, entre os quais Julian Huxley, Frank Fraser Darling, Peter Medawar e Peter Scott, publicava em janeiro de 1972 A Blueprint for survival. O impacto desse documento foi então imenso, como o atestam as 750 mil cópias vendidas da revista The Ecologist de Edward Goldsmith, que o redigiu e publicou. Sua mensagem é idêntica à de Only one Earth, nomeadamente no que se refere ao prognóstico temporal de desfecho dessa crise ambiental: “no intervalo de vida das crianças já nascidas” (I):

“O principal defeito do modo de vida industrial, com seu ethos expansivo, é que ele não é sustentável. Seu término no intervalo de vida de alguém nascido hoje é inevitável – a menos que seja mantido ainda um pouco mais por uma minoria entrincheirada ao custo de impor grande sofrimento ao resto da humanidade” (itálicos acrescidos).

A ciência em que se baseava a assertividade e a projeção temporal pioneira desses dois documentos nada tinha de sua maturidade e robustez atuais. Também ela, por certo, era pouco mais que uma criança recém-nascida. De modo que ambos os documentos não avançavam projeções quantitativas sobre a evolução dessas crises. Podiam já prever, entretanto, que a Geração X, nascida entre a metade dos anos 1960 e a segunda metade do anos 1970,  seria a primeira testemunha e vítima de uma crise ambiental “mais súbita, mais global, mais inescapável e mais desconcertante que qualquer outra jamais confrontada pela espécie humana”. Previam também o fim de nosso modelo insustentável de civilização, “a menos que [esse modelo] seja mantido ainda um pouco mais por uma minoria entrincheirada ao custo de impor grande sofrimento ao resto da humanidade”. Rupturas socioambientais maiores viriam a ocorrer, portanto, segundo esses dois documentos, no intervalo de vida das crianças nascidas nos anos 1960, vale dizer, grosso modo até os anos 2030, rupturas que uma “minoria entrincheirada” tentaria denegar e postergar ao máximo, impondo um sempre maior sofrimento ao resto da humanidade.

“Mais rápido que previsto”

A capacidade preditiva desses dois documentos é indubitável. Passados quase cinquenta anos, a ciência não cessa de se surpreender com a velocidade crescente com que os fenômenos se antecipam às projeções. Em 2007, o IPCC (AR4) afirmava:

“Segundo os resultados dos modelos atualmente disponíveis, a ocorrência de mudanças climáticas abruptas, tais como o colapso das geleiras da Antártica Ocidental, a rápida perda das geleiras da Groenlândia ou mudanças em larga escala nos sistemas de circulação oceânica, não é considerada provável no século XXI. Contudo, a ocorrência de tais mudanças torna-se crescentemente mais provável à medida que a perturbação do sistema climático progride” (II).

E é justamente essa sempre crescente probabilidade de descontinuidades fundamentais no sistema Terra, sobretudo no clima e na resiliência da biodiversidade, que dá o tom dos alertas da comunidade científica neste segundo decênio. Alguns poucos exemplos. Carlos Nobre e Thomas Lovejoy alertam, no editorial da revista Science Advances de 21 de fevereiro de 2018, já comentado nesta coluna (III), que o desmatamento da floresta amazônica pode estar em vias de atingir um ponto crítico, levando-a a uma rápida transição para um bioma de tipo savana (IV). A taxa de aquecimento dos oceanos dobrou desde 1992, em relação ao período precedente (1950 – 1990), algo não previsto pelos modelos (V). Desde 2007, um estudo mostrava que o declínio observado do gelo no Oceano Ártico era “mais rápido que previsto” pelos modelos então analisados pelo IPCC (VI).

Em seu quinto relatório, mesmo o IPCC, relativamente conservador, por força de seu estatuto intergovernamental e de outras circunstâncias que condicionam seu modus operandi, admite ao menos um cenário de verão sem gelo no Ártico já para 2050 (e não mais para 2100), mas há projeções que antecipam em muito esse novo estado do oceano (VII). A aceleração da perda de gelo da Groenlândia é um fato que vem surpreendendo a comunidade científica: “Ninguém esperava que as geleiras [da Groenlândia] perdessem tanta massa tão rapidamente. As coisas estão acontecendo muito mais rapidamente do que era nossa expectativa”, afirma Isabella Velicogna, num artigo publicado na Science no ano passado (VIII).

Estamos vendo agora na Groenlândia inclusive incêndios de suas turfeiras derretidas, com liberações maiores de metano e diminuição de sua reflexividade ou albedo, num típico, embora ainda incipiente, circulo vicioso: mais aquecimento, mais degelo, mais liberação de metano, mais aquecimento. Como observa Andreas Stohl, do Norwegian Institute for Air Research (NILU): “Esta é uma advertência de que algo assim pode acontecer nos pergelissolos, que se supunha estariam derretendo apenas no final do século” (IX). Enfim, por causa do aquecimento oceânico e do derretimento do gelo na Groenlândia e no Ártico, a poderosa corrente marítima que tem função crucial na manutenção do estado atual do sistema climático, a Circulação de Revolvimento do Atlântico, ou Circulação Termoalina do Atlântico (Atlantic Meridional Overturning Circulation ou AMOC), vem arrefecendo desde 2004. Esse arrefecimento, já advertido por vários cientistas (X), é objeto de recente editorial da Nature e de diversos artigos de divulgação científica que ecoam e analisam trabalhos recém-publicados (XI), mostrando justamente a ocorrência de “mudanças em larga escala nos sistemas de circulação oceânica”, fenômenos que em 2007, como visto acima, o IPCC, com base nos resultados então disponíveis, considerava improváveis no século XXI.

Os exemplos são inúmeros a ilustrar, em suma, o fato que a ciência vem hoje insistindo sobre a crescente probabilidade de cruzarmos pontos críticos no sistema Terra já nos próximos decênios, vale dizer, justamente nos anos 2030, previstos pelos dois documentos de 1972. Essa consciência hoje consensual de que os prazos fixados pelos dois documentos de 1972 estão se esgotando não deixou de crescer nesse último meio século. Ela se reflete nas declarações que sublinham a insuficiência dos resultados dos grandes encontros internacionais passados sobre o clima e o meio ambiente. Em 1992, vinte anos depois da Conferência de Estocolmo, Maurice Strong (1929-2015), presidindo as negociações da ECO-92, exortava a agir contra os interesses econômicos dominantes em face do agravamento das crises socioambientais desde 1972 (XII): “Não temos outros 20 anos para desperdiçar. Temos que tomar o caminho mais rápido a partir do Rio. (…) A principal mensagem dessa Conferência é que não se pode tratar de questões ambientais sem tratar de questões econômicas”.

Em 2012, passados os tais 20 anos e constatado o desperdício de tempo que foi o Protocolo de Kyoto e o fracasso da própria Rio+20, Ban Ki-moon, então secretário-geral da ONU, declarou: “Permitam-me ser franco. Nossos esforços não estiveram à altura do desafio. A natureza não espera. A natureza não negocia com os seres humanos” (XIII). E Pavan Sukhdev, ex-Conselheiro especial do PNUMA e chefe do projeto Green Economy Initiative da ONU, repetiu a mesma mensagem num tom ainda mais enfático: “Precisamos de ação urgente. Não podemos ter uma Rio+40. Não haverá tempo. Estamos nos comportando como idiotas. A questão do desenvolvimento sustentável não é para a próxima geração, é para a nossa” (XIV).

Não há tempo para uma Rio+40

Seis anos se passaram após a Rio+20 e estamos nos aproximando do aniversário de três anos do Acordo de Paris. E malgrado os esforços envidados para mitigar as crises ambientais – e eu seria o último a menosprezá-los –, é cada dia mais difícil tergiversar sobre o fato de que continuamos, ano a ano, a aumentar o que a Convenção-Quadro das Nações Unidas sobre as Mudanças Climáticas (UNFCCC) chamou de “Interferência Antropogênica Perigosa” (DAI) sobre o sistema Terra. Estamos nos distanciando a passos de gigante dos 17 Objetivos do Desenvolvimento Sustentável e apenas insistir em sua importância não fará nos aproximar deles. Sucessivos balanços negativos exibem o fracasso dos esforços para atingir as 20 Metas de Aichi (Aichi Biodiversity Targets) para a conservação da biodiversidade até 2020, sendo a perda de biodiversidade, como bem afirma Richard Gregory, “uma das maiores crises com que se defronta a humanidade” (XV).

No âmbito climático, continuar invocando como uma fórmula apotropaica as promessas (pledges) feitas pelos signatários do Acordo de Paris não pode e não deve mais ocultar o fato de que a tendência constatada revela o vazio dessas promessas. O Acordo de Paris não foi ainda ratificado por 13 países produtores de mais de um quarto da produção mundial de petróleo, aí incluídos a Rússia, o Iraque, o Irã e o Kuwait (XVI). Com a decisão dos EUA de abandonar o Acordo, mais de um terço da produção mundial de petróleo provém de países que não podem ser acusados, como os demais, de não cumprir o Acordo de Paris porque nem sequer o reconhecem. As emissões antropogênicas de gases de efeito estufa (GEE) montavam a cerca de 39 GtCO2-eq em 1990 e atingiram 53,4 GtCO2-eq em 2016, um aumento de 37% em apenas 26 anos, aumento que o Acordo de Paris não foi capaz de limitar em 2016, como mostra a Figura 1

Reprodução
Fonte: baseado em Trends in global CO2 and total greenhouse gas emissions: Summary of the 2017 Report, com dados do Emission Database for Global Atmospheric Research (EDGAR v4.3.2 database). PBL Netherlands Environmental Assessment  Agency.

Figura 1 – Emissões de GEE por tipo de gás e por fonte de emissão entre 1990 e 2016
Entre 2016 e 2017, as emissões antropogênicas de GEE aumentaram ainda cerca de 1,5%. Nada prenuncia sua diminuição e muito menos na velocidade requerida para evitar um aquecimento médio global superior a 2 oC. Dado o peso crescente das alças de retroalimentação na dinâmica das mudanças climáticas, é possível que esse nível “perigoso” de aquecimento seja atingido, ou mesmo ultrapassado, já no horizonte dos anos 2030 (e não mais no “longínquo” 2100), confirmando mais uma vez os prognósticos dos dois documentos de 1972 acima citados. Em todo o caso, evitar um aquecimento médio global dessa magnitude tornou-se uma impossibilidade “sociofísica”, pois suporia zerar o desmatamento e reduzir o consumo de combustíveis fósseis a uma velocidade incompatível com os paradigmas, a visão de mundo e os planos de negócios que as corporações impõem à humanidade e às demais espécies.

Duas condições de possibilidade para virar o jogo

Dissociar o Estado das corporações

Para estabelecermos uma premissa da qual partir é preciso entender que não há saída para as políticas efetivas de mitigação fora de um embate frontal e incontornável entre interesses conflitantes. É preciso, portanto, definir quem são os aliados e quem são os adversários dos esforços reais para mitigar as crises ambientais. As sociedades têm fracassado em confrontar a engrenagem devastadora do capitalismo global por causa, antes de mais nada, do crescente e sempre mais exorbitante poder das corporações sobre os Estados.

É preciso entender que esse poder é, hoje, de um novo tipo. Ele o é, antes de mais nada, em decorrência dos recursos imensos dessas corporações. Se consideradas as 28 “entidades” mais ricas do mundo – países com riquezas medidas pela renda nacional e corporações, medidas por seu faturamento –, dez dessas entidades são corporações, sendo que das 20 maiores corporações do mundo, com um faturamento total de 4,5 trilhões de dólares, nove são umbilicalmente ligadas ao petróleo e seis pertencem à esfera do Big Food (XVII). A atual interdependência entre Estado e as megacorporações – notadamente no que se refere à influência destas sobre os mercados, as finanças públicas, a informação, a energia, a mineração, a agropecuária, a agroquímica (fertilizantes e agrotóxicos), a comercialização e os preços das commodities em geral –, não se atém mais apenas às políticas econômicas, mas atinge a identidade mesma do Estado.

Esse novo Estado absorvido pela corporação, a que se pode dar o nome de Estado-Corporação, foi bem descrito em 2008 por Sheldon Wolin que cunhou o termo “Democracy Incorporated” (XVIII), caracterizada por: “uma relação simbiótica entre o governo tradicional e o sistema de governança ‘privada’ representado pela moderna corporação empresarial. O resultado é, não já um sistema de co-determinação por colaboradores que mantêm distintas identidades, mas um sistema que representa a passagem à maturidade política do poder corporativo”

Isso posto, a primeira condição de possibilidade para virar o jogo é a reconquista democrática do Estado numa perspectiva de superação do unilateralismo e de fortalecimento da governança global. Há aqui um longo caminho a trilhar, e que deve ser trilhado rapidamente, pois, como visto, não temos mais 20 anos para desperdiçar. Ele começa por abandonar de uma vez por todas o “pensamento mágico” de que uma mitigação significativa das crises ambientais pode ser capitaneada pelo mercado. Por melhores que sejam as intenções das corporações, publicitadas em Davos e em outros fóruns corporativos – a se admitir que sejam mais que simples greenwashing –, essas multinacionais não podem internalizar seus custos ambientais em seus planos de negócios. Elas estão condenadas a ser, na prática, as principais responsáveis pela destruição da biodiversidade e pela desestabilização do clima. Dado que, para elas, ser é expandir-se, sua ação inerentemente expansiva representa, objetivamente, a mais sistêmica e cumulativa ameaça à humanidade. Acreditar que as megacorporações podem ser parceiras da luta pela sustentabilidade equivale a acreditar que o agronegócio é nosso aliado nos esforços por uma agricultura orgânica e local, por uma agricultura de alimentos e não de commodities, e que a “bancada do boi” no Congresso nacional é nosso parceiro no combate ao desmatamento e na luta pela democratização da propriedade da terra.

Associar ciência e política

A própria sociedade, através de seus partidos e outras associações, é a protagonista desse processo de retomada democrática do Estado numa perspectiva de governança global. Mas esse processo passa, de qualquer modo, por uma convergência entre ciência e política porque é justamente da dissociação entre ambas que nascem hoje as maiores debilidades de cada uma.

Será talvez necessário repensar a história do último meio século como a história da progressiva dissociação entre ciência e política. Para ilustrar o abismo existente em nossos dias entre ambas, tomemos uma das reiteradas advertências de James Hansen (XIX): “A situação é que temos, na realidade, uma emergência, mas não estamos agindo como se tivéssemos entendido isso. Vamos ter que abandonar as emissões de carbono muito rapidamente. Isso é tecnicamente possível e faz sentido do ponto de vista econômico. Mas tal solução não está sendo perseguida e, de fato, não está sendo proposta por nenhum partido político”.

Essa advertência caracteriza à perfeição a situação política brasileira e mundial. De fato, a política permaneceu ancorada no embate ideológico entre as diversas formas (históricas ou imaginárias) de auto-organização da sociedade, ignorando que nossa civilização termo-fóssil está em vias de romper os equilíbrios ambientais imperantes no Holoceno, a época geológica cuja relativa estabilidade favoreceu toda a civilização. Continuar ignorando isso em nossa reflexão e prática políticas é ignorar que a história obedece, volente nolente, às leis da física e que essas, para relembrar a afirmação de Ban-ki-moon, não negociam com os seres humanos. Portanto, todo programa político, por mais progressista que se pretenda, será reacionário e irracional se não levar na devida conta os alertas lançados pela ciência sobre as crises ambientais contemporâneas.

Entendamos bem o quê na política tornou-se anacronicamente irracional. Tal como nos séculos passados, também em nossos dias a racionalidade política, le bon combat, continua sendo a luta pelo aprofundamento da democracia, pelas liberdades civis, pelo trabalho digno e bem remunerado, por um Estado capaz de assegurar educação, saúde, mobilidade e segurança, por equidade econômica, étnica e de gênero, pela laicidade, pela autonomia sobre o próprio corpo e pelo respeito aos direitos das outras espécies. Essa continuidade entre passado e presente é mais que nunca necessária, já que os últimos três ou quatro decênios vêm provocando, globalmente, retrocessos dramáticos em todas, ou quase todas, essas frentes de luta. Mas a política perde toda racionalidade e atualidade desde o momento em que ignora ou se recusa a agir em sintonia com o que se sabe sobre as leis bioquímicas e físicas que determinam o comportamento e os limites do sistema Terra, do qual as sociedades são parte e dependem existencialmente.

Se a política deve se repensar a partir da nova situação do planeta descrita pelas ciências da natureza, a situação histórica atual requer destas assumir responsabilidades políticas num nível sem precedentes. É fato que após Hiroshima, e mais ainda após 1968, os cientistas começaram a se sentir mais concernidos pelas implicações políticas de seu saber. Mas eles continuam ainda a excluir de seu job description toda dimensão político-prescritiva. Os grandes relatórios científicos, sejam eles do IPCC ou do IPBES, limitam-se a uma introdução destinada aos políticos, intitulada Summary for Policymakers. Essa postura de simples advertências e aconselhamentos é insuficiente. Como são insuficientes, ainda que importantíssimos, os sucessivos apelos e alertas dos cientistas à sociedade, como os de 1972, acima citados, seguidos pelos de 1992 e de 2017 (XX). A aceleração da degradação ambiental demonstra à saciedade essa insuficiência. É preciso que os cientistas tenham a audácia de reivindicar, doravante, um novo estatuto na sociedade, algo como um poder de veto em todas as decisões políticas que contrariem o consenso científico sobre os dossiês fundamentais das crises ambientais. O que pressupõe que a democracia entenda e institua a necessidade desse poder de veto. Essa nova simbiose entre ciência e política é o antídoto imprescindível para neutralizar os impactos nefastos da simbiose entre Estado e corporações.

Essa ideia foi esboçada num livro importante, intitulado Em direção a uma democracia ecológica. O cidadão, o cientista e o político (2010). Nele, Dominique Bourg e Kerry Whiteside enfrentam a tarefa de imaginar uma nova estrutura política capaz de conciliar democracia e esse novo poder da ciência (XXI). Essa nova estrutura supõe a superação de um governo representativo clássico, baseado na tradição liberal individualista, para a qual o indivíduo é a última instância do juízo sobre seus próprios interesses. Lembram os autores que:

“O sistema representativo clássico supõe que eu sou in fine o único juiz da minha condição. Quem pode, com efeito, melhor que eu julgar sobre meu bem- estar? Os representantes devem, portanto, retornar regularmente a seus eleitores para se assegurar do bem-fundado de suas políticas. Ora, a complexidade dos problemas ambientais, o fato de nos afetarem indiretamente ou de longe, impede-nos de apreciá-los por nós mesmos”.

De fato, porque as crises ambientais em que o mundo contemporâneo afunda não são apenas locais, mas transnacionais, porque são sistêmicas e cumulativas, e seus efeitos em cascata são, como afirma um comunicado de 5 de novembro de 2014 do IPCC, “severos, pervasivos e irreversíveis” (XXII), podendo produzir por retroalimentação positiva mudanças não lineares no sistema Terra susceptíveis de pôr em risco a própria sobrevivência das sociedades, os cidadãos não dispõem mais dos meios que lhes permitam ajuizar seus próprios interesses e, portanto, suas decisões políticas.

Assim como o capitalismo industrial significou a separação do trabalhador dos meios de produção, o capitalismo da era das grandes crises ambientais globais significa a separação do cidadão dos meios de seu próprio juízo político. Isso não implica a infantilização política do cidadão porque obviamente ninguém pode pretender tutelá-lo. Mas significa que os cidadãos globais que somos precisamos, doravante, convocar a ciência para entender onde está, de fato, o nosso próprio interesse político. As crises ambientais põem problemas para cuja resolução as instituições democráticas do passado não estão mais habilitadas, porque ciência e política, saber e interesse, eram ainda, no paradigma anterior, instâncias separadas. Elas não o são mais. De onde a necessidade da presença direta da ciência como instância inapelável de veto em todas as decisões econômicas e políticas estratégicas. Desde Hans Jonas, começamos a perceber que, hoje, o objeto central da ciência e da política é o mesmo. Não se trata mais para ambas de desejar a infinitude, mas de conseguir viabilizar nossa sobrevivência na finitude de nossa condição, o que pressupõe a convivência prudente e respeitosa com as demais formas de vida, nos limites cada vez menores desse “pequeno planeta”.

Todos os parâmetros do sistema Terra mensurados pela ciência mostram hoje, com crescente grau de confiabilidade, que as gerações nascidas nos anos 1960 e após deverão sofrer cruelmente as agruras de um mundo muito mais adverso para a vida do que o usufruído por nossos pais. Se o que estamos fazendo, politicamente, até agora resume o que somos capazes de fazer, essas gerações mais jovens serão lançadas – é a perspectiva mais provável – no abismo de um verdadeiro colapso ambiental. Sem uma nova aliança estratégica entre ciência e política que capacite as sociedades a saber para agir e a agir em sintonia com o que sabem, não resta muita esperança de que possamos evitar um futuro pior ou muito pior. A Universidade, “lugar natural” e possível de uma sinergia entre ciência e reflexão crítica, filosófica e sócio-política, só manterá sua relevância na atual situação histórica se entender e cumprir sua missão de fortalecer (e explicar à sociedade que a sustenta) a crucial importância estratégica dessa aliança.

Referências

[I] Cf. Edward Goldsmith, Peter Allen, “A Blueprint for survival”, The Ecologist, Londres, Janeiro de 1972.

[II] Cf. Climate Change 2007: Working Group I: The Physical Science Basis: “Abrupt climate changes, such as the collapse of the West Antarctic Ice Sheet, the rapid loss of the Greenland Ice Sheet or large-scale changes of ocean circulation systems, are not considered likely to occur in the 21st century, based on currently available model results. However, the occurrence of such changes becomes increasingly more likely as the perturbation of the climate system progresses”.

[III] Cf. L. Marques, “Ponto critico na Amazônia”. Jornal da Unicamp, 5/III/2018.

[IV] Cf. Thomas E. Lovejoy, Carlos Nobre, “Amazon Tipping Point” (Editorial). Science Advances, vol. 4, 2, 21/II/2018.

[V] Lijing Cheng et al., “Improved estimates of ocean heat content from 1960 to 2015”. Science Advances, 10/III/2017.

[VI] Cf. J. Stroeve et al., « Arctic sea ice decline: Faster than forecast ». Geophysical Research Letters, 34, 9, 2007: “All models participating in the IPCC AR4 show declining Arctic ice cover over this period. However, depending on the time window for analysis, none or very few individual model simulations show trends comparable to observations”.

[VII] Cf. Peter Wadham, A Farewell to ice. A Report from the Arctic. 2017. Londres, 2017. Para uma síntese do problema do degelo do Ártico e de suas consequências, cf. Claudio Angelo, A espiral da morte, São Paulo, 2017.

[VIII] Citada por Eli Kintish, “The great Greenland meltdown”. Science, 23/II/2017.

[IX] Cf. Megan Gannon, “Greenland’s biggest fire is a ‘warning’ for its future”. LiveScience, 13/IV/2018.

[X] Cf. M. A. Srokosz, & H.L. Bryden, “Observing the Atlantic Meridional Overturning Circulation yields a decade of inevitable surprises”. Science, 348, 19/VI/2015; James Hansen, “Ice melt, sea level rise and superstorms: evidence from paleoclimate data, climate modeling, and modern observations that 2 ◦C global warming could be dangerous”. Atmospheric Chemistry and Physics, 16, 2016, pp. 3761-3812.

[XI] David J.R. Thornalley et al., “Anomalously weak Labrador Sea convection and Atlantic overturning during the past 150 years”. Nature, 556, 11/IV/2018, pp. 227-230.

[XII] Citado por Anne Harrison, “Earth Summit makes political gains for environment”. UPI, 14/VI/1992: “We don’t have another 20 years to squander. We need to take the fast track out of Rio. (…) The main message of this conference is that you can’t deal with environment issues without dealing with the economic issues”. Veja-se também Tom Whipple, “There is no time to waste, they said 23 years ago”, The Times, 30/XI/2015.

[XIII] Citado pela Agência Reuters, em “Rio+20 summit begins under a cloud of criticism”, 20/VI/2012. Pressionado por Dilma Rousseff, Ban Ki-moon convocou em seguida apenas jornalistas brasileiros aos quais repetiu seis vezes, durante uma entrevista de 8 minutos, que a Conferência foi um “sucesso”. Cf. Denise Menchen, Fernando Rodrigues, “Pressionado, Secretário da ONU recua e elogia texto”. Folha de São Paulo, 22/VI/2012.

[XIV] Entrevista publicada em rede.

[XV] Citado por Adam Vaughan, “Global biodiversity targets won’t be met by 2020, scientists say”. The Guardian, 3/X/2014.

[XVI] Cf. Paris Agreement – Status of Ratification http://unfccc.int/paris_agreement/items/9444.php.

>[XVII]  Veja-se a respeito a ONG inglesa Global JusticeSão elas: 1. Walmart;  2. State Grid; 3. China National Petroleum; 4. Sinopec Group; 5. Shell ; 6.  Exxon ; 7. Volkswagen; 8. Toyota; 9. Apple; 10. BP; 11. Berkshire Hathaway; 12. McKesson; 13. Samsung; 14. Glencore; 15. Ind. & Com. Bank of China; 16. Daimler; 17. UnitedHealth Group; 18. CVS Health; 19. General Motors e 20. Ford Motors.

[XVIII]  Cf. Sheldon Wolin, Democracy Incorporated. Managed Democracy and the Specter of the Inverted Totalitarianism. Princeton University Press, 2008.

[XIX] Cf. James Hansen, CNA Conference + Trade Show, 12/III/2015.

[XX] Veja-se “Advertência dos Cientistas do Mundo à Humanidade”, documento patrocinado em 1992 pela Union of Concerned Scientists do MIT, e World Scientists’ Warning to Humanity: A Second Notice, que retoma e atualiza em 2017 o apelo de 1992. Cf. L. Marques, “Por uma Universidade implicada na agenda de nosso tempo”. Jornal da Unicamp, 14/VIII/2017.

[XXI] Cf. Dominique Bourg  & Kerry Whiteside, Vers une démocratie écologique. Le citoyen, le savant et le politique, Paris, Seuil, 2010.

[XXII] Cf. IPCC 5/XI/2014, Climate Change 2014. Synthesis Report.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

Anúncios

Conciliar maternidade com carreira requer esforço, mas compensa

Apesar da rotina se tornar muito mais cansativa, é importante que a mulher não deixe de lado suas aspirações pessoais, ao mesmo tempo em que cuida do lar.

Com o passar do tempo, a mulher começou a exercer funções que, antes, eram considerados masculinos- como CEOs de empresas ou, até mesmo, como presidente do país, como foi o caso de Dilma, a primeira mulher a presidir o Brasil. Além disso, diversas foram as conquistas sociais e a quebra de certos preconceitos. A mulher sempre pode tudo e agora que a sociedade está compreendendo essa situação.

Entretanto, as mulheres que desejam ser mães enfrentam uma dupla jornada: a de cuidar dos filhos e do lar, e, também, participar da renda familiar. Conquistas como estas, muitas vezes, são acompanhadas por um sentimento de culpa por deixar os filhos, ainda bebês, aos cuidados de outras pessoas, para que elas possam trabalhar fora de casa. “O maior desafio é saber lidar com a culpa, mas é preciso reconhecer que abrir mão do trabalho pode significar prejuízo financeiro e insatisfação pessoal. Assim como ser mãe, trabalhar e ganhar o próprio dinheiro faz parte dos sonhos da maioria das mulheres”, explica Madalena Feliciano, diretora de projetos da empresa Outliers Careers, e mãe de cinco filhos.

Madalena diz que, com o Dia das Mães chegando, é preciso que as mulheres se lembrem de que, além de boas profissionais, elas precisam ser presentes em casa, também. “Claro, chegar cansada depois de um longo dia de trabalho é muito compreensivo, mas participar da vida de seus filhos também é essencial. Acompanhar os estudos deles, convida-los para jogar alguma coisa ou fazer algum passeio durante o fim de semana são ótimas maneiras de tomar parte da vida de seus filhos, sem sufoca-los e deixá-los muito soltos, ao mesmo tempo”, conta a profissional.

A gestora conclui, dizendo que é preciso que as mulheres se lembrem de separar um tempo, alheio da vida profissional e maternal, para elas mesmas. “Apesar de parecer uma missão impossível, é necessário lembrar-se, sempre, de guardar um tempo para fazer alguma atividade que lhe dê satisfação, sem que ela seja feita para os outros, mas em benefício próprio. Com a correria do dia a dia, faz bem cuidar de si mesma, também”.

Cursos pela internet

Conheça um programa especial de cursos pela internet, com as últimas tendências do mercado. Fique atento aos cursos que estão disponíveis. Acesse o link https://www.target.com.br/produtos/cursos-tecnicos/disponiveis-pela-internet

Teste: você sofre de transtorno bipolar?

Ernesto Berg

Considerado uma das principais causas que provocam mudança de humor, o transtorno bipolar é resultado de determinadas anomalias que ocorrem na química do cérebro. Isto pode determinar grandes alterações no temperamento da pessoa afetada – em todas as áreas de sua vida -, inclusive na atuação profissional, na produtividade e no relacionamento de equipe. Cerca de 1% da população mundial sofre dessa disfunção que começa habitualmente na adolescência – ou no início da idade adulta -, e atinge indistintamente pessoas do sexo masculino e feminino.

Esse teste permite verificar a existência ou não de um possível transtorno bipolar, e seu grau de alcance, em caso afirmativo. Não pretende ser um diagnóstico minucioso, nem definitivo, mas serve de alerta sobre a existência de uma provável disfunção. Responda às 18 afirmações levando em conta seu estado atual, isto é, como você se sente e de fato se conduz em relação à questão.

Atribua notas conforme os critérios abaixo:

Nunca = 0

Algumas vezes = 1

Várias vezes = 2

Muitas vezes = 3

Sempre ou quase sempre = 4

  1. Passo por períodos de grande otimismo, alternados por períodos de grande pessimismo. ______
  2. Tenho tido grandes oscilações na quantidade e qualidade do meu trabalho. ______
  3. Às vezes tenho uma sensação de culpa, mesmo que eu nada tenha feito de errado. ______
  4. Tenho dificuldade em me concentrar nas coisas. ______
  5. Tenho períodos em que rio e brinco excessivamente, e outros, em que choro demasiadamente. ______
  6. Existem momentos em que entro num estado de aceleração mental e fico muito irritado. ______
  7. Há períodos em que fico muito agitado. ______
  8. Há momentos em que tenho grande dificuldade de adormecer, e outros, em que durmo excessivamente. _____
  9. Há momentos em que sou produtivo muito acima do meu normal. ______
  10. Tenho períodos em que me sinto muito feliz e criativo. ______
  11. Minha confiança oscila entre a extrema autoconfiança, e extrema dúvida sobre mim mesmo. ______
  12. Há momentos que tenho a impressão que sou capaz de assumir qualquer risco, sem nenhum receio. ______
  13. Tem momentos em que sou bem mais conversador do que costumo ser. _____
  14. Há ocasiões em que tenho muito interesse em estar em meio às pessoas, e outras em que quero ficar sozinho, com meus próprios pensamentos. ______
  15. Algumas vezes me sinto transbordante de energia, e outras, sem qualquer energia. ______
  16. Passo por períodos de embotamento mental, e períodos de grande criatividade mental. ______
  17. Às vezes fico furioso, ou muito hostil, sem aparente razão. ______
  18. Às vezes tenho a sensação de ter a capacidade de controlar tudo o que acontece ao meu redor e em minha vida. ______

TOTAL DE PONTOS_______

SUA AVALIAÇÃO

De 0 a 11 pontos. Esta contagem indica que você não tem qualquer tipo de transtorno bipolar. Você experimenta os altos e baixos normais da vida.

De 12 a 25 pontos. A contagem mostra alguns tipos leves de sintomas depressivos muito comuns na população em geral, e nenhum, – ou poucos – indícios de transtorno bipolar.

De 26 a 42 pontos. O escore revela algum tipo de transtorno bipolar ou de sintomas depressivos, que ocorre em boa parte da população, possivelmente beirando já alguma forma de síndrome depressiva.

De 43 a 63 pontos. Este resultado mostra sintomas de transtorno bipolar que variam de moderados a agudos. É aconselhável que pessoas que têm esse escore procurem auxílio profissional para tratamento dos sintomas.

De 64 a 72 pontos. A pontuação indica severos sintomas associados ao transtorno bipolar. É fortemente aconselhado buscar ajuda profissional especializada para o devido tratamento.

Ernesto Berg é consultor de empresas, professor, palestrante, articulista, autor de 18 livros, especialista em desenvolvimento organizacional, negociação, gestão do tempo, criatividade na tomada de decisão, administração de conflitos – berg@quebrandobarreiras.com.br

Atlas do envenenamento alimentar no Brasil

Luiz Marques

No âmbito da expansão global do capitalismo comercial e industrial desde o século XVI, três aspectos indissociáveis conferem ao Brasil posições de indisputada proeminência. Somos o país que, durante quase quatro séculos, mais indivíduos escravizou em toda a história da escravidão humana. A destruição e degradação conjuntas das coberturas vegetais do país constituem, em rapidez e em escala, a mais fulminante destruição da biosfera cometida por uma nação ou império em toda a história da espécie humana. Levamos mais de quatro séculos para remover cerca de 1,2 milhão de km2 dos 1,3 milhão de km2 que compunham originariamente a Mata Atlântica (a destruição ganhou escala apenas a partir do século XIX e ainda continua) (1). Mas apenas nos últimos 50 anos mais de 3,3 milhões de km2 de cobertura vegetal nativa foram suprimidos ou degradados na Amazônia, no Cerrado e na Caatinga (2), sendo que mais quase 1 milhão de km2 podem ser legalmentedesmatados em todo o Brasil segundo o antigo e o novo Código Florestal (3).

O terceiro aspecto, enfim, diz respeito ao uso de agrotóxicos. “O Brasil é o campeão mundial no uso de produtos químicos na agricultura”, afirma José Roberto Postali Parra, ex-diretor da Escola Superior de Agricultura Luiz de Queiroz (Esalq/USP) (4). Nos últimos dez anos, de fato, o Brasil arrebatou dos EUA a posição de maior consumidor mundial de pesticidas (5).

Como bem diz seu nome, um pesticida industrial é um composto químico que visa atacar uma “peste”, termo que designa no jargão produtivista toda espécie que compita com a humana pelos mesmos alimentos ou tenha algum potencial de ameaça à produtividade ou saúde humana ou de espécies que servem de alimentação aos homens. O termo pesticida abrange herbicidas, inseticidas e fungicidas, aplicados os dois últimos em plantas e em animais. Pesticidas são usados também contra pássaros (corbicidas, por exemplo), vermes (nematicidas), mamíferos roedores (rodenticidas), microorganismos, etc. Para entender como e por que o Brasil galgou essa posição de maior consumidor desses compostos, dispomos agora de uma referência fundamental. Trata-se de Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia, de Larissa Mies Bombardi, do Departamento de Geografia da FFLCH/USP (6).  Coroando intervenções já dedicadas pela estudiosa ao problema desde 2011 (7), esse trabalho de maior fôlego eleva nosso conhecimento a outro patamar, inclusive por comparar sistematicamente o uso dos pesticidas e as legislações vigentes a esse respeito no Brasil e na União Europeia. Ele culmina num Atlas do uso de agrotóxicos no país, por estado, cultura agrícola e tipo de pesticida, além de uma distribuição geográfica, etária e étnica de suas principais vítimas diretas. Sobretudo, as análises de Bombardi lançam luz sobre os nexos entre o uso crescente de agrotóxicos no país e a liderança nacional, política e econômica, do agronegócio, em fina sintonia com as megacorporações agroquímicas oligopolizadas que controlam toda a cadeia alimentar: das sementes, agrotóxicos, fertilizantes e demais insumos à distribuição e negociação nos mercados futuros das commodities agrícolas. Após as fusões ou absorções ocorridas nos últimos anos, quase 95% desse mercado global é agora comandado por cinco megacorporações agroquímicas, sendo que apenas três delas controlam 72,6% dele, como mostra a Figura 1.

Figura 1 – As fusões e incorporações da Bayer/Monsanto, ChemChina/Syngenta e Dow/DuPont criam um controle quase total por apenas cinco megacorporações de todo o ciclo agroquímico | Fonte: Bloomberg, citado por Dani Bancroft, “Bayer offers Big Buy out for the infamous Monsanto”.  23/V/2016

Concentração fundiária e agronegócio

Talvez nenhum outro aspecto expresse com tanta crueza a desigualdade da sociedade brasileira quanto a concentração da propriedade fundiária. Embora os governos do PT exibam alguns resultados sociais muito positivos quando comparados a governos de outras siglas (8), no item propriedade fundiária seu pacto com o agronegócio apenas aprofundou o abismo histórico da desigualdade no país. Os governos do PT não apenas perpetuaram a tolerância à grilagem e à concentração da propriedade fundiária, mas acrescentaram a esse quadro de apropriação violenta da terra a participação direta do Estado no agronegócio e a quase inexistente carga tributária incidente sobre os imóveis rurais. Em 2015, apenas 0,1% de todos os recursos arrecadados pela Receita Federal veio do Imposto Territorial Rural (9). Assim, o traço mais saliente das mudanças na estrutura da propriedade fundiária na história recente do Brasil foi sua rápida e extrema concentração entre 2003 e 2014, como mostra a Figura 2.

Fig. 2 – Evolução da estrutura fundiária no Brasil entre 2003 e 2014. | Fonte: Incra, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Tabela 1, p. 30

Em 2003, as 983 propriedades com mais de 10 mil hectares somavam 7% da área dos imóveis rurais no país. Em 2014, elas passaram a ser 3.057 e acumulavam 28% dessa área. Nesse universo do latifúndio, destaca-se a multiplicação dos megalatifúndios com mais de 100 mil hectares. Em 2003, eles eram apenas 22 e representavam 2% da área dos imóveis rurais do país. Em 2014, eles passaram a ser 365 e ocupavam 19% dessa área. No outro extremo da balança, as pequenas propriedades de até 10 hectares, que ocupavam 2% dessa área em 2003, representavam em 2014 apenas 1%.

Esse processo de concentração fundiária foi uma condição de possibilidade da consolidação de um novo modelo de economia rural, o agronegócio, adequado à globalização e à conversão dos alimentos agrícolas em soft commodities (soja, milho, café, cacau, gado etc), cujo valor é negociado na CME (Chicago Mercantile Exchange) e cuja destinação é, sobretudo, a China e, em segundo lugar, a Europa e os EUA. Como bem mostra Bombardi, o crescimento do agronegócio brasileiro apoia-se mais na expansão da área cultivada, frequentemente em detrimento das florestas, que em ganhos de produtividade e no manejo sustentável do solo e no respeito à biodiversidade, como mostra a Figura 3, que compara área, produto e produtividade (kg/ha) no cultivo da soja.

Fig. 3 – Comparação entre área (mil ha), produtividade (Kg/ha) e produto (em mil toneladas) da soja entre as safras de 2002/2003 e de 2015/2016 | Fonte: Companhia Nacional de Abastecimento, 2016, citado por por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 2, p. 25.

Como se vê, a área de cultivo da soja aumentou de 18,5 milhões de hectares em 2002/2003 para 33 milhões em 2015/2016, um salto de 79% em 13 anos para um aumento equivalente de 84% da produção de soja no mesmo período, com incremento quase irrelevante da produtividade. Para o agronegócio é mais barato avançar sobre a floresta, processo que pode inclusive gerar lucro pela venda da madeira, que investir numa cultura de longo prazo. Seu lema é considerar a devastação ambiental como uma externalidade e aniquilar tudo o que ameace a máxima rentabilização imediata de sua mercadoria.

“A monocultura causa desequilíbrios”

Além de desmatamento, esse modelo monocultor e destrutivo de agricultura “causa desequilíbrios”, como reitera José Roberto Postali Parra, da Esalq/USP (10). Para o agronegócio, esses desequilíbrios têm uma solução simples: a supressão ou tentativa de supressão das espécies animais e vegetais (as espécies insensatamente chamadas “daninhas”) por meio do uso intensivo de agrotóxicos. Detentora dos prêmios Miss Desmatamento e Motosserra de Ouro, além de presidente da Confederação da Agricultura e Pecuária do Brasil (CNA) e Ministra da Agricultura durante o governo de Dilma Rousseff, Kátia Abreu definiu com rara felicidade o ideal da classe que ela representa: “Quanto mais defensivos melhor, porque a tendência é os preços caírem em função do aumento da oferta” (11). A Figura 4, abaixo, mostra os saltos sucessivos no uso de agrotóxicos a partir de 2006, de resto a taxas muito superiores às do aumento da área cultivada e do produto. Observe-se que entre 2002 e 2014, o consumo de agrotóxicos, medido por peso do ingrediente ativo, aumentou cerca de 340%, de cerca de 150 mil toneladas para mais de 500 mil toneladas de ingrediente ativo, uma taxa muito maior que os 84% de aumento do produto entre 2002/2003 e 2015/2016, no caso acima ilustrado da soja (de 52 para 97 milhões de toneladas nesse período).

Fig. 4 – Consumo de agrotóxicos no Brasil em toneladas do ingrediente ativo, 2000 –  2014 | Fonte: Ibama, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 10, p. 33

 

O Brasil participa com apenas 4% do comércio mundial do agronegócio (12), mas consome hoje cerca de 20% de todo agrotóxico comercializado no mundo todo. Mais importantes, entretanto, que esse desbalanço são:

(1) a nocividade, constatada ou potencial, para a saúde humana e para o meio ambiente dos ingredientes ativos utilizados;

(2) o uso de ingredientes proibidos no exterior;

(3) o Limite Máximo de Resíduos (LMR) permitido pela legislação brasileira para cada um desses ingredientes nas amostras de alimentos e de água. Como se verá abaixo, esses limites são muito superiores aos permitidos pela legislação europeia, a qual é, de resto, frequentemente acusada de ceder às pressões das megacorporações da agroquímica;

(4) o uso corrente de ingredientes proibidos no Brasil;

(5) as doses excessivas utilizadas;

(6) os resíduos desses compostos encontrados pela Anvisa nos alimentos, que, via de regra, excedem os limites estabelecidos pela legislação brasileira.

Exemplos dos problemas aqui elencados nos itens 4 a 6 abundam na imprensa e nos estudos científicos. A Agência Nacional de Vigilância Sanitária (Anvisa) “aponta que quase 30% dos principais alimentos da cesta brasileira apresentaram irregularidades no uso de defensivos agrícolas” (13). No ano passado, a revista Examenoticiou que a Anvisa “encontrou níveis elevados de resíduos agrotóxicos em um terço das frutas, vegetais e hortaliças analisadas entre 2011 e 2012. Pior, um a cada três exemplares avaliados apresenta ingredientes ativos não autorizados, entre eles dois agrotóxicos que nunca foram registrados no Brasil: o azaconazol e o tebufempirade (14) ”. Segundo a já citada reportagem da CBN, “em São Paulo, por exemplo, desde 2002, nenhuma multa por irregularidades foi aplicada, nem mesmo em casos de repetidas reincidências”. Baseando-se em pesquisas de Karen Friedrich, da Associação Brasileira de Saúde Coletiva (Abrasco) e da Fundação Oswaldo Cruz (Fiocruz), Marina Rossi afirma: “Segundo o Dossiê Abrasco (…), 70% dos alimentos in natura consumidos no país estão contaminados por agrotóxicos. Desses, segundo a Anvisa, 28% contêm substâncias não autorizadas. Isso sem contar os alimentos processados, que são feitos a partir de grãos geneticamente modificados e cheios dessas substâncias químicas (…). Mais da metade dos agrotóxicos usados no Brasil hoje são banidos em países da União Europeia e nos Estados Unidos” (15).

Sobre a nocividade dos ingredientes utilizados, muitos deles já proibidos no exterior, e sobre as brutais discrepâncias entre as legislações europeia e brasileira no tocante ao Limite Máximo de Resíduos (LMR) permitido de cada um desses ingredientes nas amostras de alimentos e de água (os itens 1 a 3, acima), os dados são igualmente estarrecedores. Em 6 de abril de 2015, o Instituto Nacional do Câncer José Alencar Gomes da Silva (INCA), órgão do Ministério da Saúde, divulgou um documento em que afirma: “Dentre os efeitos associados à exposição crônica a ingredientes ativos de agrotóxicos podem ser citados infertilidade, impotência, abortos, malformações, neurotoxicidade, desregulação hormonal, efeitos sobre o sistema imunológico e câncer. (…) Vale ressaltar que a presença de resíduos de agrotóxicos não ocorre apenas em alimentos in natura, mas também em muitos produtos alimentícios processados pela indústria, como biscoitos, salgadinhos, pães, cereais matinais, lasanhas, pizzas e outros que têm como ingredientes o trigo, o milho e a soja, por exemplo. Ainda podem estar presentes nas carnes e leites de animais que se alimentam de ração com traços de agrotóxicos, devido ao processo de bioacumulação” (16).

O aumento da variedade dos ingredientes ativos impulsionado pelas pesquisas agroquímicas é impressionante. Segundo a Agência de Proteção Ambiental dos EUA (EPA), havia em 2007 “mais de 1055 ingredientes ativos registrados como pesticidas, formulados em milhares de produtos disponíveis no mercado” (17). A Figura 5, abaixo, elenca os 10 ingredientes ativos mais utilizados na agricultura brasileira.

Fig. 5 – Os 10 ingredientes ativos mais vendidos no Brasil em 2014, em ordem decrescente | Fonte: Ibama, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 10, p. 35

Perturbadores endócrinos, carcinogênicos, mutagênicos, teratogênicos

Por motivos de espaço, reportamos abaixo a toxicidade de apenas cinco desses compostos para os humanos, não humanos e para o meio ambiente, bem como o Limite Máximo de Resíduos (LMR) permitido no produto e na água segundo a legislação europeia e a brasileira (18):

1º – Glifosato (glicina + fosfato). As sementes geneticamente modificadas, chamadas Roundup Ready (RR), da Monsanto, são capazes de resistir ao herbicida Roundup, o mais vendido no Brasil e no mundo, produzido à base de glifosato. Trata-se de um herbicida sistêmico, isto é, desenhado para matar quaisquer plantas, exceto as geneticamente modificadas para resistir a ele. Seu uso tem sido associado a maior incidência de câncer, à redução da progesterona em células de mamíferos, a abortos e a alterações teratogênicas por via placentária. Em 15 de março de 2015, o Centro Internacional de Pesquisas sobre o Câncer (IARC) considerou que havia “evidência suficiente” de que o composto causava câncer em animais e “evidência limitada” de que o causava em humanos, classificando assim o glifosato no Grupo 2A, isto é, como cancerígeno “provável no homem” (ao lado de quatro outros pesticidas) (19). O Limite Máximo de Resíduos (LMR) de glifosato permitido na soja na UE é de 0,05 mg/kg, no Brasil é de 10 mg/kg, portanto um limite 200 vezes maior.

2º – 2,4-D (ácido diclorofenóxiacético). Mais de 1.500 herbicidas contêm esse ingrediente ativo. A OMS coloca-o no grupo II, isto é, “moderadamente tóxico” (moderately hazardous) e o IARC afirma: “o herbicida 2,4-D foi classificado como possivelmente carcinogênico para humanos (Grupo 2B). (…) Há forte evidência de que 2,4-D induz estresse oxidativo, um mecanismo que pode ocorrer em humanos, e evidência moderada de que 2,4-D causa imunossupressão, a partir de estudos in vivo in vitro” (20). Para o National Resource Defense Council (NRDC), há provas conclusivas de que o 2,4-D é um perturbador endócrino, isto é, um composto que interfere no funcionamento normal do sistema hormonal dos organismos: “Estudos em laboratório sugerem que o 2,4-D pode impedir a ação normal de hormônios estrógenos, andrógenos e, mais conclusivamente, da tireoide (21). Dezenas de estudos epidemiológicos, animais e de laboratório mostraram uma associação entre 2,4-D (22) e perturbações da tireoide”. Luiz Leonardo Foloni (FEAGRI/Unicamp) assegura numa entrevista a irrestrita aceitação internacional do 2,4-D. Na realidade, esse composto foi banido no estado de Ontário, no Canadá, em 2009, na Austrália em 2013 e no Vietnã em 2017 (23). E há reiteradas demandas de proibição do 2,4-D nos EUA, não atendidas pelas autoridades desse país (24). O Limite Máximo de Resíduos (LMR) de 2,4-D permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 30 μg, portanto um limite 300 vezes maior.

3º – Acefato. Pertencente à classe dos organofosforados, o acefato é o inseticida mais usado no Brasil (25). A OMS coloca-o no grupo II, isto é, “moderadamente tóxico” (moderately hazardous). O Limite Máximo de Resíduos (LMR) de acefato permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama); no Brasil, ele não tem limite estabelecido.

5º – Clorpirifós. Inseticida da classe dos organofosforados, que altera o funcionamento de neurotransmissores (acetilcolina) no sistema nervoso central. Em 2009, a Organização Mundial da Saúde (OMS) classifica o clorpirifós como “moderadamente tóxico” (II – Moderately hazardous). Mas em 2012, esse produto foi associado a potenciais riscos ao desenvolvimento neurológico e o editorial da revista Environmental Health Perspectives, de 25 de abril de 2012, intitulado “A Research Strategy to Discover the Environmental Causes of Autism and Neurodevelopmental Disabilities” (26), afirma que: “Estudos prospectivos (…) associaram comportamentos autistas a exposições pré-natais a inseticidas organofosforados clorpirifós”. Já em 2001, seu uso doméstico fora banido dos EUA e ao final da administração Obama, a Agência de Proteção Ambiental desse país (EPA) recomendou seu banimento total, recomendação anulada por Donald Trump, beneficiário durante a campanha eleitoral de doações da Dow Chemical, produtora desse composto (27). Na União Europeia (UE), a avaliação da toxicidade do cloropirifós está em curso de revisão. O Limite Máximo de Resíduos (LMR) de clorpirifós permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 30 μg, portanto um limite 300 vezes maior.

7º – Atrazina. Produzido pela Syngenta, a atrazina é um herbicida que afeta a fotossíntese e atua em sinergia com outros herbicidas. Tyrone B. Hayes, da Universidade de Berkeley, e colegas mostraram que esse composto pode mudar o sexo da rã-de-unha africana (Xenopus laevis) e que “a atrazina e outros pesticidas perturbadores endócrinos são prováveis fatores em ação nos declínios globais dos anfíbios” (28). Em 2015, Andrea Vogel e colegas mostraram que a atrazina é um perturbador endócrino em invertebrados (29). A Itália e a Alemanha baniram a atrazina em 1991, e em 2004 a atrazina foi proibida em toda a UE (3). O Limite Máximo de Resíduos (LMR) de atrazina permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 2 μg, portanto um limite 20 vezes maior.

A guerra química insensata e de antemão perdida contra a natureza

Há pelo menos 55 anos, desde o célebre livro de Rachel Carson, Primavera Silenciosa (1962), sabemos que os pesticidas industriais lançaram a espécie humana numa guerra biocida, suicida e de antemão perdida. A ideia mesma de um pesticida sintético usado sistematicamente contra outras espécies no fito de aniquilá-las dá prova cabal da insanidade da agricultura industrial: envenenam-se nossos alimentos para matar outras espécies ou impedi-las de comê-los. As doses do veneno, pequenas em relação à massa corpórea humana, não nos matam. Mas, ao atirarem numa espécie com uma metralhadora giratória, os pesticidas provocam “danos colaterais”: matam ou debilitam espécies não visadas, provocando desequilíbrios sistêmicos que promovem seleções artificiais capazes de reforçar a tolerância das espécies visadas, ou a invasão de espécies oportunistas, por vezes tão ou mais ameaçadoras para as plantações e para os homens que as espécies visadas pelos pesticidas. Além disso, a médio e longo prazo os pesticidas intoxicam e adoecem o próprio homem, tanto mais porque somos obrigados a aumentar as doses dos pesticidas e a combiná-los com outros em coquetéis cada vez mais tóxicos, à medida que as espécies visadas se tornam tolerantes à dose ou ao princípio ativo anterior. Uma suma de pesquisas científicas (31) mostra o caráter contraproducente dos agrotóxicos, seja do ponto de vista de seus efeitos sobre outras espécies – por exemplo, as abelhas e demais polinizadores –, seja do ponto de vista da saúde humana e de outras espécies não visadas, seja ainda da própria produtividade agrícola. Citemos apenas três desses estudos. Um documento da FAO de 2003 mostra que o uso crescente de pesticidas desde os anos 1960 não aumenta, mas, ao contrário, diminui relativamente as colheitas, sendo que as perdas de safra por causa de pestes eram em 1998 já da ordem de 25% a 50%, dependendo da cultura. O documento assim comenta esse fato: “É perturbador que ao longo dos últimos três ou quatro decênios, as perdas de colheitas em todas as maiores culturas aumentaram em termos relativos. (…) É interessante notar que o aumento das perdas de colheitas é acompanhado por um crescimento na taxa de uso de pesticidas” (32). Em 2013, um artigo publicado na revista Proceedings of the National Academy of Sciences refere-se ao morticínio de diversas espécies causado por pesticidas, mesmo utilizados em concentrações consideradas seguras pela legislação europeia: “Pesticidas causam efeitos estatisticamente significantes em espécies em ambas as regiões [Europa e Austrália], com perdas de até 42% nas populações taxonômicas registradas. Além disso, os efeitos na Europa foram detectados em concentrações que a atual legislação considera ambientalmente protetiva. Portanto, a atual avaliação de risco ecológico de pesticidas falha em proteger a biodiversidade, tornando necessárias novas abordagens envolvendo ecologia e ecotoxicologia” (33). Enfim, em 2014, um grupo internacional de trabalho de quatro anos sobre os pesticidas sistêmicos, o Task Force on Systemic Pesticides (TFSP), reunindo 29 pesquisadores, declara em seus resultados que os pesticidas sistêmicos (os neonicotinoides, por exemplo) constituem uma inequívoca e crescente ameaça tanto à agricultura quanto aos ecossistemas. Jean-Marc Bonmatin, um pesquisador do CNRS francês, pertencente a esse grupo de trabalho, assim resumiu esses resultados: “A evidência é clara. Estamos testemunhando uma ameaça à produtividade de nosso ambiente natural e agrícola, uma ameaça equivalente à dos organofosfatados ou DDT [denunciados em 1962 por Rachel Carson]. Longe de proteger a produção de alimentos, o uso de inseticidas neonicotinoides está ameaçando a própria infraestrutura que permite essa produção” (34).

Pesticidas, o outro lado da moeda das armas químicas de destruição em massa

Entre os pesticidas industriais e as guerras químicas há uma íntima interação, passada e presente. Ambos impõem-se como um fato absolutamente novo na história da destruição do meio ambiente pelo homem e de sua autointoxicação. Os inseticidas organoclorados e organofosforados, e os herbicidas baseados em hormônios sintéticos nascem nos anos 1920-1940 como resultado das pesquisas sobre armas químicas usadas durante a I Grande Guerra pelos dois campos beligerantes. Essa interação continua no período entre-guerras, em especial na Alemanha, então em busca de recuperar sua supremacia na indústria química. Em seu quadro de cientistas, a Degesh (Deutsche Gesellschaft für Schädlingsbekämpfung – Sociedade Alemã para o Controle de Pragas), criada em 1919, contava químicos como Fritz Haber (Prêmio Nobel) e Ferdinand Flury, que desenvolveu em 1920 o Zyklon A, um pesticida à base de cianureto, precedente imediato de outro inseticida, o Zyklon B, patenteado em 1926 por Walter Heerdt eusado sucessivamente nas câmaras de gás dos campos de extermínio de Auschwitz-Birkenau e Majdanek. Outro exemplo é o da IG Farben, de cujo desmembramento após 1945 resultou a Agfa, a BASF, a Hoechst e a Bayer. Para esse conglomerado industrial alemão, trabalhavam químicos como Gerhard Schrader (1903-1990), funcionário da Bayer e responsável pela descoberta e viabilização industrial dos compostos de organofosforados que agem sobre o sistema nervoso central. De tais compostos derivam pesticidas como o bladan e o parathion (E 605) e armas químicas como o Tabun (1936), o Sarin (1938), o Soman (1944) e o Cyclosarin (1949), as três primeiras desenvolvidas, ainda que não usadas, pelo exército alemão na II Grande Guerra. Após a guerra, Schrader foi por dois anos mantido prisioneiro dos Aliados, que o obrigaram a comunicar-lhes os resultados de suas pesquisas sobre ésteres de fosfato orgânicos, em seguida desenvolvidos na fabricação de novos pesticidas.

Essa interação entre pesticidas e armas químicas, hoje melhor denominadas químico-genéticas, continua em nossos dias. O Defense Advanced Research Projects Agency (Darpa), do Pentágono, está investindo US$ 100 milhões em projetos, potencialmente catastróficos, de “extinção genética” de espécies consideradas nocivas ao homem, sem esconder, contudo, seu interesse em possíveis desdobramentos militares dessas pesquisas (35). Um especialista da Convenção sobre Diversidade Biológica (CBD) da ONU declarou ao The Guardian: “Pode-se ser capaz de erradicar um vírus ou a inteira população de um mosquito, mas isso pode ter efeitos ecológicos em cascata”. O potencial militar das pesquisas em edição genética (o chamado “gene drive”) manifesta-se já no fato de que seu principal patrocinador é o Pentágono. Entre 2008 e 2014, o governo dos EUA investiu US$ 820 milhões em biologia sintética, sendo que desde 2012 a maior parte desse investimento veio do Darpa e de outras agências militares. Referindo-se ao risco de que armas baseadas em tecnologias químico-genéticas sejam usadas por “hostile or rogue actors”, um porta-voz do Darpa afirmou que essas pesquisas são de “crítica importância para permitir ao Departamento de Defesa defender seu pessoal e preservar sua prontidão militar. (….) É de responsabilidade do Darpa desenvolver tais pesquisas e tecnologias que podem proteger contra seu mau-uso, acidental ou intencional”. É preciso uma boa dose de amnésia para não perceber nessa interação “defensiva” entre o Pentágono e a pesquisa químico-genética de aniquilação biológica um revival das interações entre “defensivos agrícolas” e a guerra química e de extermínio humano, durante e após a I Grande Guerra (36).

Referências
[1] Segundo o Instituto Brasileiro de Florestas, a área original da Mata Atlântica era originalmente 1.315.460 km², 15% do território brasileiro. Atualmente o remanescente é 102.012 km², 7,91% da área original. Entre 1985 e 2013, a Mata Atlântica perdeu mais 18.509 km2. “A cada 2 dias, um Ibirapuera de Mata Atlântica desaparece”. Cf. SOS Mata Atlântica. “Divulgados novos dados sobre o desmatamento da Mata Atlântica”, 27/V/2014.

[2] Na Amazônia brasileira, a área de corte raso da floresta (1970-2017) chega a 790 mil km2, sendo 421.775 km2 de corte raso no acumulado de 1988-2016 (INPE). Mas “a área de corte raso e a de degradação representam juntas cerca de dois milhões de km2, ou seja 40% da floresta amazônica brasileira” (dados de 2013). Cf. A. D. Nobre, “Il faut un effort de guerre pour reboiser l’Amazonie”. Le Monde, 24/XI/2014. No Cerrado, um bioma de cerca de 2 milhões de km2, a devastação em 35 anos [1980-2015] foi da ordem de 1 milhão de km2. “Entre 2002 e 2011, as taxas de desmatamento nesse bioma (1% ao ano) foram 2,5 vezes maior que na Amazônia. (…) Mantidas as tendências atuais, 31% a 34% da área restante da cobertura vegetal do Cerrado deve ser suprimida até 2050 (…), levando à extinção ~480 espécies de plantas endêmicas – três vezes mais que todas as extinções documentadas desde 1500”. Cf. Bernardo B.N. Strassburg et al., “Moment of truth for the Cerrado hotspot”. Nature Ecology & Evolution, 23/III/2017. Segundo o INPE, a Caatinga já perdeu cerca de 45% dos 734.478 km² originais de sua vegetação natural.

[3] Mais precisamente, 957 mil km2, segundo Gerd Sparovek (Esalq/USP), Observatório do Código Florestal . Para Britaldo Soares Filho e colegas, “tanto o antigo quanto o novo Código Florestal permitem um desmatamento legal de ainda mais 88 (+/-6) milhões de hectares [880 mil km2] em propriedades privadas. Essa área de vegetação nativa, ao abrigo das exigências de Reserva Legal e Entornos de Cursos de Água, constituem um ‘excedente ambiental’ (“environmental surplus) com potencial de emissão de 18 Gt de CO2-eq”. Cf. Britaldo Soares-Filho et al.“Cracking Brazil’s Forest Code”. Science, 344, 6182, 25/IV2014, pp. 363-364.

[4] Entrevista concedida a Marcos Pivetta e Marcos de Oliveira, “Agricultor de insetos”. Pesquisa Fapesp, 18, 261, novembro de 2017, pp. 32-37.

[5] Cf. Michelle Moreira, “Brasil é o maior consumidor de agrotóxicos do mundo”. Agência Brasil, 3/XII/2015; Flávia Milhorance, “Brasil lidera o ranking de consumo de agrotóxicos”. O Globo, 8/IV/2015.

[6] Cf. Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia, Laboratório de Geografia Agrária, FFLCH/USP, Novembro, 2017, 296 p.

[7] Para a bibliografia anterior de Bombardi, veja-se <https://www.larissabombardi.blog.br/blog-geo>, em particular, “Intoxicação e morte por agrotóxicos no Brasil: a nova versão do capitalismo oligopolizado”. Boletim Dataluta, setembro de 2011 (em rede).

[8] Veja-se Sérgio Lírio, “O abismo não é intransponível”. Carta Capital, 29/XI/2017, pp. 26-28.

[9] Cf. Pedro Durán, “Desde 2009, o Brasil é o maior consumidor de agrotóxicos do mundo”. CBN, 3/V/2016.

[10] Pivetta & Oliveira, “Agricultor de insetos” (cit): “a monocultura causa desequilíbrios”.

[11] “Kátia Abreu quer liberação mais rápida de agrotóxicos pela ANVISA”. Viomundo, 19/X/2011.

[12] Cf. Dante D. G. Scolari, “Produção agrícola mundial: o potencial do Brasil”. Embrapa, 2007.

[13] Cf. Michelle Moreira, “Brasil é o maior consumidor de agrotóxicos do mundo”. Agência Brasil, 3/XII/2015.

[14] Cf. Vanessa Barbosa, “Anvisa aponta 13 alimentos que pecam no uso de agrotóxicos”. Exame, 13/IX/2016.

[15] Cf. Marina Rossi, “O ‘alarmante’ uso de agrotóxicos no Basil atinge 70% dos alimentos”. El País, edição em português, 30/IV/2015.

[16] Veja-se “Posicionamento do Insituto Nacional de Câncer José Alencar Gomes da Silva acerca dos Agrotóxicos”. 

[17] Cf. EPA, “Assessing Health Risks from Pesticides” (em rede).

[18] Os dados comparativos sobre os LMR no Brasil e na União Europeia (UE) são retirados do já citado trabalho de Bombardi.

[19] Cf. Daniel Cressey, « Widely used herbicide linked to cancer ». Nature, 24/III/2015: “Two of the pesticides — tetrachlorvinphos and parathion — were rated as “possibly carcinogenic to humans”, or category 2B. Three — malathion, diazinon and glyphosate — were rated as “probably carcinogenic to humans”, labelled category 2A”.

[20] Cf. IARC Monographs evaluate DDT, lindane, and 2,4-D. Press release n. 236, 23/VI/2015. Veja-se também OMS.

[21] Cf. Danielle Sedbrook, “2,4-D: The Most Dangerous Pesticide You’ve Never Heard Of”. NRDC, 15/III/2016.

[22] Veja-se sua entrevista | L. L. Foloni, O Herbicida 2,4-D: Uma Visão Geral, 2016.

[23] Cf. “APVMA [Australian Pesticides and Veterinary Medicines Authority]: Australia Bans Toxic Herbicide 2,4-D Products”. Sustainable Pulse, 24/VIII/2013; “Govt bans 2,4-D, paraquat in Vietnam”. Vietnamnet, 16/II/2017.

[24] Veja-se, por exemplo, Andrew Pollack, “E.P.A. Denies an Environmental Group’s Request to Ban a Widely Used Weed Killer”. The New York Times, 9/IV/2012.

[25] Cf. Idiana Tomazelli & Mariana Sallowicz, “Uso de agrotóxicos no País mais que dobra entre 2000 e 2012”. O Estado de São Paulo,19/VI/2015. “O agrotóxico mais empregado foi o glifosato, um herbicida apontado por pesquisadores como nocivo à saúde. Entre os inseticidas, o mais usado foi o acefato”.

[26] Cf. Philip J. Landrigan, Luca Lambertini, Linda S. Birnbaum, “A Research Strategy to Discover the Environmental Causes of Autism and Neurodevelopmental Disabilities” (Editorial). Environmental Health Perspectives, 25/IV/2012..

[27] Cf. “Don’t let feds make pesticide call”, Daily Record (USA Today), Editorial, 27/XI/2017.

[28] Cf. Tyrone B. Hayes et al., “Atrazine induces complete feminization and chemical castration in male African clawed frogs (Xenopus laevis)”. Proceedings of the National Academy of Sciences, 107, 10, 9/III/2010, pp. 4612-4617: “The present findings exemplify the role that atrazine and other endocrine-disrupting pesticides likely play in global amphibian declines”.

[29] Cf. Andrea Vogel et al., “Effects of atrazine exposure on male reproductive performance in Drosophila melangaster”. Journal of Insect Physiology, 72, janeiro, 2015, pp. 14-21.

[30] Cf. Franck Akerman, “The Economics of Atrazine”, International Journal of Occupational and Environmental Health, 13, 4, outubro-dezembro de 2007, pp. 441-449.

[31] Veja-se, por exemplo, Jan Dich et al., “Pesticides and Cancer”. Cancer, causes & control, maio, 1997, 8, 3, pp. 420-443. IDEM, “Pesticide and prostate cancer. Again”. Pesticide Action Network, 23/I/2013.(1997, 8, pp. 420-443); Idem (23/I/2013).

[32] Report of the First External Review of the Systemwide Programme on Integrated Pest Management (SP-IPM). Interim Science Council Secretariat – FAO, agosto de 2003.

[33] Cf. Mikhail A. Beketov et al., “Pesticides reduce regional biodiversity of stream invertebrates”. PNAS, online, 17/VI/2013.Também Sharon Oosthoek, “Pesticides spark broad biodiversity loss”. Nature, 17/VI/2013.

[34] Citado por Damian Carrington, “Insecticides put world food supplies at risk, say scientists”. TG, 24/VI/2014.

[35] Cf. Arthur Neslen, “Us military agency invests $ 100m in genetic extinction technologies”. The Guardian, 4/XII/2017.

[36] No período entreguerras, armas químicas continuaram a ser utilizadas pela aviação inglesa, por exemplo, em 1919 contra os bolcheviques e em 1925 contra a cidade de Sulaimaniya, capital do Kurdistão iraquiano; a aviação italiana utilizou-as em 1935 e 1936 em sua tentativa de exterminar a população da Etiópia, e o exército bolchevique, segundo uma documentação aparentemente confiável, dizimou com armas químicas os revoltosos de Tambov, uma das 118 revoltas camponesas contra o exército vermelho reportadas pela Cheka, em fevereiro de 1921. Cf. Eric Croddy, Clarisa Perez-Armendaruz & John Hart, Chemical and Biological Warfare. A comprehensive survey for the concerned citizen. Nova York, Springer-Verlag, 2002.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

“Tostados, assados e grelhados”

Luiz Marques

​“Como disse antes, se não fizermos nada a respeito da mudança climática, seremos tostados, assados e grelhados num horizonte de tempo de 50 anos. (…) Se não encararmos essas duas questões – mudança climática e desigualdade crescente – avançaremos a partir de agora em direção a sombrios 50 anos” (I). Quem fala é Christine Lagarde, diretora do Fundo Monetário Internacional, durante um painel da Future Investment Initiative, ocorrido em 25 de outubro em Riad, na Arábia Saudita.

É positivo que o FMI funcione como uma caixa de ressonância da ciência e que junte sua voz ao coro dos alertas sobre a situação-limite em que a humanidade e a biosfera se encontram. Mas o FMI é o primogênito e um dos principais gendarmes da ordem econômica internacional que está condenando os homens e a biosfera a serem “tostados, assados e grelhados num horizonte de tempo de 50 anos”. Não tem, portanto, autoridade moral para emitir alertas desse gênero. “Como disse antes”, afirma acima Lagarde…

De fato, já em 2012, às vésperas da Rio+20, ela havia declarado num encontro do Center for Global Development, em Washington, que “a mudança climática é claramente um dos grandes desafios de nosso tempo, um dos grandes testes de nossa geração. Para os mais pobres e mais vulneráveis do mundo, a mudança climática não é uma possibilidade distante. É uma realidade presente” (II). E anunciava então que o FMI desenvolveria pesquisas e daria suporte analítico aos países com políticas de redução de emissões de gases de efeito estufa (GEE), em particular através de instrumentos fiscais, como precificação do carbono e eliminação dos subsídios. Passados cinco anos, eis o que aconteceu:

1. Os subsídios à indústria de combustíveis fósseis continuam a crescer. Em 2013, eles montavam a US$ 4,9 trilhões e em 2015 atingiram US$ 5,3 trilhões, ou 6,5% do PIB mundial, segundo um estudo recente. “A eliminação desses subsídios”, afirmam seus autores, “teria reduzido as emissões de carbono, em 2013, em 21%, e em 55%, as mortes por poluição causada pela queima de combustíveis fósseis, ao mesmo tempo em que teria elevado a renda em 4% do PIB global e o bem-estar social em 2,2%” (III). Se entendidos stricto sensu, ou seja, como privilégio fiscal ou transferência de recursos estatais para essa indústria, os subsídios dos governos do G20 – os mesmos que prometeram seu fim em 2009 – montavam em 2015 a US$ 444 bilhões (IV).

2. Imposto sobre a emissão de carbono (carbon tax). A segunda medida apoiada por Lagarde era a precificação adequada do carbono: “corrigir seus preços significa usar uma política fiscal capaz de garantir que o malefício que causamos reflita-se nos preços que pagamos” (V). Tal imposto foi sugerido já em 1973 por David Gordon Wilson (VI), do MIT, e reproposto agora, pela enésima vez, por 13 economistas, no âmbito de uma iniciativa presidida por Joseph Stiglitz e Sir Nicholas Stern (VII). O estudo sugere que este seja em 2020 de 40 a 80 dólares por tonelada de CO2 emitido e, em 2030, de 50 a 100 dólares. Não se sabe em quanto esse imposto, se adotado, contribuiria para a redução das emissões de GEE. Mas se sabe que o FMI em nada tem contribuído para viabilizá-lo. De resto, em março último, Trump descartou-o e sem o apoio dos EUA, um dos maiores produtores mundiais de petróleo, ele parece hoje mais irrealista que nunca.

Leonardo Martinez-Diaz, do World Resources Institute, percebe bem a hipocrisia do FMI: “Uma das funções centrais do FMI é a vigilância macroeconômica. (…) O Fundo deveria colocar o risco climático no diálogo com os Estados, como um item formal de suas consultas”. E, sobretudo, “considerar as despesas em resiliência como investimentos dos Estados devedores” (VIII). Mas, isso Christine Lagarde não fez, e não fará, porque prejudicaria os interesses dos credores.

CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO

Voluntários posam nus, na geleira de Aletsch, nos Alpes suíços, durante campanha ambiental sobre o aquecimento global, em 2007 | Foto: Reprodução | Greenpeace

Quatro décadas de alertas científicos

Se é nula a credibilidade do FMI no que se refere à sua contribuição para mitigar essa situação extremamente grave, isso não altera o fato de que o diagnóstico de Lagarde baseia-se no mais consolidado consenso científico. Há décadas a ciência adverte que o aquecimento continuado da atmosfera e dos oceanos – causado sobretudo pela queima de combustíveis fósseis, pelo desmatamento e pelo surto global de carnivorismo – lançaria o século XXI num série de crescentes desastres sociais e ambientais. Quase quatro décadas atrás, em 1981, quando o aquecimento global era ainda de apenas 0,4o C acima dos anos 1880, James Hansen e colegas afirmavam num trabalho da Science (IX):

“Efeitos potenciais sobre o clima no século XXI incluem a criação de zonas propensas a secas na América do Norte e Ásia Central como parte de uma mudança nas zonas climáticas, erosão das camadas de gelo da Antártica com consequente elevação global do nível do mar e a abertura da famosa passagem do Noroeste [no Ártico]. (…) O aquecimento global projetado para o próximo século é de uma magnitude quase sem precedentes. Baseados nos cálculos de nosso modelo, estimamos que ele será de ~2,5o C para um cenário com lento crescimento de energia e um misto de combustíveis fósseis e não fósseis. Esse aquecimento excederia a temperatura durante o período antitermal (6.000 anos atrás) e o período interglacial anterior (Eemiano) e se aproximaria da temperatura do Mesozoico, a idade dos dinossauros”.

Entre 1984 e 1988, James Hansen depôs três vezes no Senado dos Estados Unidos. Na última vez, diante de 15 câmaras de televisão, projetou cenários de aquecimento global de até 1,5o C em 2019 em relação à média do período 1951-1980, como mostra a Figura 1, reproduzida a partir desse histórico documento de 1988.

Figura 1 – Projeção de aquecimento médio superficial global até 2019, segundo três cenários

O Cenário A supõe uma taxa de aumento das emissões de CO2 típica dos 20 anos anteriores a 1987, isto é, um crescimento a uma taxa de 1,5% ao ano. O Cenário B assume taxas de emissão que estacionam aproximadamente no nível de 1988. O Cenário C é de drástica redução dessas emissões atmosféricas no período 1990 – 2000. A linha contínua descreve o aquecimento observado até 1987. A faixa cinza recobre o nível pico de aquecimento durante os períodos Antitermal (6.000 anos AP) e Eemiano (120.000 anos AP). O ponto zero das observações é a média do período 1951-1980.

Fonte: “The Greenhouse Effect: Impacts on Current Global Temperature and Regional Heat Waves”, figura 3. Documento apresentado ao Senado por James Hansen em 1988. Veja-se:https://climatechange.procon.org/sourcefiles/1988_Hansen_Senate_Testimony.pdf

As projeções de Hansen são uma das mais espetaculares demonstrações de inteligência do sistema Terra na história recente da ciência, que só hoje podemos aquilatar em sua real dimensão. Seus Cenários A e B anteciparam a uma distância de 30 anos um aquecimento médio global entre ~1,1o C e 1,5o C. Foi exatamente o que aconteceu, como mostra a Figura 2

Figura 2 – Temperaturas superficiais globais em relação ao período de base 1880-1920 | Fonte:Earth Institute. Columbia University

Como se vê, desde 1970 as temperaturas médias globais têm se elevado 0,18o C por década e em 2016 elas atingiram +1,24o C em relação a 1880-1920. Mantida a aceleração do aquecimento médio global observada no triênio 2015-2017 (~0,2o C), deveremos atingir ou estar muito próximos, em 2019, do nível de aquecimento previsto no pior cenário assumido por James Hansen e colegas.

Energias fósseis x energias renováveis e de baixo carbono

Naturalmente, quem está no controle do mundo não se interessa por acurácia científica, quando esta interfere em seus planos de negócios. Os alertas de toda uma legião de cientistas no mundo todo continuam a se espatifar contra o muro inexpugnável das corporações, que impuseram e continuam a impor à humanidade e à biosfera o “Cenário A” previsto por James Hansen. Os números, melhor que quaisquer argumentos, revelam a extensão do crime: desde 1988, data do testimony de Hansen no Senado dos EUA, mais CO2 foi lançado na atmosfera do que entre 1750 e 1987, como mostra a Figura 3

Figura 3 – Emissões industriais de CO2 entre 1751 e 2014. De 1751 a 1987 foram emitidas 737 Gt (bilhões de toneladas). Entre 1988 e 2014 foram emitidas 743 Gt.  | Fonte: T. J. Blasing, “Recent Greenhouse Gas Concentrations”. Carbon Dioxide Information Analysis Center (CDIAC), Abril, 2016, baseado em Le Quéré et al. (2014) e Boden, Marland e Andres (2013).

Em 2017 teremos já ultrapassado 800 Gt de CO2 emitidos na atmosfera em quarenta anos. As corporações que lucram com essas emissões e com a destruição das florestas – em especial os xifópagos Big Oil & Big Food – venceram e continuam vencendo. Em Riad, na semana passada, Christine Lagarde acrescentou que “as decisões devem ser imediatas, o que provavelmente significará que nos próximos 50 anos o petróleo se tornará uma commodity secundária”. Foi contradita por Amin Nasser, presidente da estatal Saudi Arabian Oil Company (Aramco): “Alternativas, carros elétricos e renováveis estão definitivamente ganhando participação no mercado e estamos vendo isso. Mas décadas serão ainda necessárias antes que assumam uma participação maior na oferta de energia global” (X).

Mantido o paradigma expansivo do capitalismo (obviamente dependente das reservas restantes de petróleo, algo incerto), o prognóstico de Amin Nasser afigura-se mais credível que o de Christine Lagarde. Ele ecoa a convicção de seus pares de que a hegemonia dos combustíveis fósseis não será sequer ameaçada, quanto menos superada, por energias de baixo carbono pelos próximos dois ou três decênios. Barry K. Worthington, diretor da toda poderosa United States Energy Association, afirma, e é fato, que “nenhuma projeção credível” mostra uma participação menor que 40% dos combustíveis fósseis em 2050 (XI). Mesmo o carvão, cujo declínio iniciado nos dois últimos anos parecia a muitos ser irreversível, resiste. Nos EUA, sua produção em 2017 será 8% maior que em 2016 (XII). No mundo todo havia, em outubro de 2017, 154 unidades termelétricas movidas a carvão em construção e 113 em expansão, um número ainda superior ao das unidades que estão sendo desativadas (XIII).

Um argumento em favor da ideia de uma ainda longa hegemonia futura dos combustíveis fósseis provém de um trabalho de três pesquisadores da Universidade de Bergen, na Noruega (XIV). Os autores partem da constatação de que em 2015 o consumo energético global foi de 17 Terawatts (TW), dos quais apenas 3,9% (0,663 TW) provieram de energias eólica (0,433 TW) e fotovoltaica (0,230 TW). Assumem em seguida a projeção de que esse consumo quase dobre em 2050, atingindo 30 TW. Detectam então indícios de que a taxa de crescimento das energias eólica e fotovoltaica comece a declinar já ao longo da próxima década, saturando sua capacidade instalada não acima de 1,8 TW em 2030, o que as levaria a assumir a forma da curva de uma função logística ou sigmóide (em “S”), como mostra a Figura 4.

Figura 4 – Capacidade instalada global total de energia eólica e fotovoltaica (pontos verdes)
A linha contínua é a do modelo logístico (curva sigmóide), semelhante à evolução das energias hidrelétrica e nuclear. As linhas pontilhadas indicam um intervalo de confiança de 95%. O ponto vermelho indica os prognósticos das associoções de acionistas. O quadro inserido mostra o declínio previsto das taxas de crescimento dessas energias. | Fonte: J.P. Hansen, P.A. Narbel, D.L. Aksnes, “Limits to growth in the renewable energy sector”. Renewable and Sustainable Energy Reviews, 70, IV/2017, pp. 769-774.

A COP 23 e a “catastrófica brecha climática”

Como se sabe, abre-se hoje, 6 de novembro de 2017, em Bonn, mais uma reunião anual da Convenção-Quadro das Nações Unidas sobre as Mudanças Climáticas (UNFCCC), a 23ª Conferência das Partes (COP23). Sua agenda central será fazer avançar as diretrizes (rule-book) de implementação do Acordo de Paris, preparadas por um grupo de trabalho – o Ad-hoc Working Group on the Paris Agreement (APA) –, coordenado pela Nova Zelândia e pela… Arábia Saudita. Por improvável que seja a projeção de Christine Lagarde de que “nos próximos 50 anos o petróleo se tornará uma commodity secundária”, suas declarações na capital mundial do petróleo têm o mérito de reforçar o senso de urgência requerido para mais essa rodada de negociações.  Esse senso de urgência é mais que nunca necessário, pois o contexto político e ambiental em que se abre a COP23 não poderia ser mais adverso, como bem indica o quadro atual de bloqueio do Acordo, em contraste com a angustiante aceleração da degradação ambiental nos últimos meses:

1. Quase dois anos após sua assinatura, o Acordo de Paris não foi ainda ratificado (não está em vigor) por 13 países produtores e detentores das maiores reservas mundiais de petróleo, conforme mostra a tabela abaixo

Fontes: Paris Agreement – Status of Ratification U.S. | EIA Production of Crude Oil including Lease Condensate 2016

A esses 13 países que não ratificaram o Acordo, acrescentam-se os EUA, em vias de deixá-lo. De modo que mais de um terço da produção mundial de petróleo encontra-se em nações que não reconhecem oficialmente o Acordo de Paris, e não o reconhecem, declaradamente ou não, porque não têm intenção de diminuir sua produção.

(2) Em julho, reunido na China, o G20 deu uma demonstração de fraqueza ou de oportunismo ao ceder às pressões dos EUA e da Arábia Saudita para eliminar de sua declaração conjunta final qualquer menção à necessidade de financiar a adaptação dos países pobres às mudanças climáticas, condição de possibilidade do Acordo de Paris (XV).

(3) Em 18 de outubro passado, o Global Forest Watch revelou que em 2016 foram destruídos globalmente 297 mil km2 de florestas pelo avanço da agropecuária, da mineração, da indústria madeireira e de incêndios mais devastadores, criminosos e/ou exacerbados pelas mudanças climáticas (XVI). Trata-se de um recorde absoluto em área destruída e de um recorde no salto de 51% em relação a 2015, como mostra a Figura 5.

Figura 5 – Perdas de cobertura florestal global de 2011 a 2016 | Fonte: Global Forest Watch

(4) Em 30 de outubro, a Organização Meteorológica Mundial (OMM) reconheceu um avanço de 3,3 ppm (partes por milhão) nas concentrações atmosféricas de CO2 no intervalo de apenas 12 meses. Essas concentrações “deram em 2016 um salto, numa velocidade recorde, atingindo seu mais alto nível em 800 mil anos”. Desde 1990, afirma o boletim da OMM, houve um aumento de 40% na forçante radiativa total (o balanço entre a energia incidente e a energia refletida de volta para o espaço pelo sistema climático da Terra) causada pelas emissões de GEE, e um aumento de 2,5% apenas em 2016 em relação a 2015 (XVII).

(5) Enfim, o oitavo Emissions Gap Report, de 2017, publicado pelo Programa das Nações Unidas para o Meio Ambiente (PNUMA), adverte que as reduções de emissões de GEE acordadas em Paris estão muito aquém do requerido para conter o aquecimento médio global abaixo de 2o C ao longo deste século. Como faz notar Erik Solheim, diretor do (PNUMA), “as promessas atuais dos Estados cobrem não mais que um terço das reduções necessárias. (…) Os governos, o setor privado e a sociedade civil devem superar essa catastrófica brecha climática” (XVIII). E reafirma que, se os compromissos nacionais (NDCs) forem implementados, chegaremos ao final deste século com um aquecimento médio global de cerca de 3,2o C (2,9o C a 3,4o C). Mas os governos estão descumprindo até mesmo esse terço por eles prometido em 2015. Segundo Jean Jouzel, ex-vice-presidente do IPCC, “os primeiros balanços das políticas nacionais mostram que, globalmente, estamos abaixo dos engajamentos assumidos em Paris. E sem os EUA, será muito difícil pedir aos outros países que aumentem suas ambições. (…) Para manter alguma chance de permanecer abaixo dos 2o C é necessário que o pico das emissões seja atingido no mais tardar em 2020” (XIX).

Não há que se preocupar. Faltam ainda mais de dois anos…

 

[I] Citado em Anmar Frangoul, “IMF’s Lagarde: If nothing is done about climate change, we will be ‘toasted, roasted and grilled’.” CNBC, 25/X/2017: “As I’ve said before, if we don’t do anything about climate change now, in 50 years’ time we will be toasted, roasted and grilled. (…) If we don’t address those two issues — of climate change and growing inequalities — we will be moving towards a dark 50 years from now”.

[II] Cf. Lawrence MacDonald, “IMF Chief Warns of Triple Crisis – Economic, Environment, Social – Details IMF Actions to Help on Climate”. Center for Global Development, 12/VI/2012.

[III] Cf. David Coady, Ian Parry, Louis Sears, Baoping Shang, “How Large Are Global Fossil Fuel Subsidies?”. World Development, 91, 17/III/2017. Para os autores, subsídios ocorrem: “when consumer prices are below supply costs plus environmental costs and general consumption taxes”.

[IV] Cf. Elizabeth Bast, Alex Doukas, Sam Pickard, Laurie van der Burg & Shelagh Whitley, Empty Promises. G20 Subsidies to Oil, Gas and Coal Production”, Novembro de 2015, p. 9 (em rede).

[V] Citado por Lawrence MacDonald (cit.).

[VI] Cf. Chris Berdik, “The unsung inventor of the carbon tax”. The Boston Globe, 10/VIII/2014.

[VII] Cf. Carbon Price Leadership Coalition (World Bank), Report of The High-Level Commission on Carbon Prices. 29/V/2017 (em rede).

[VIII] Cf. Leonardo Martinez-Diaz, “The IMF and Climate Change: Three Things Christine Lagarde Can Do to Cement Her Legacy on Climate”. World Resources Institute, 10/X/2017.

[IX] Cf. J. Hansen et al., “Climate Impact of Increasing Atmospheric Carbon Dioxide”. Science, 213, 4511, 28/VIII/1981.

[X] Citado por A. Frangoul (cit.).

[XI] Citado por Lisa Friedman, “Trump Team to Promote Fossil Fuels and Nuclear Power at Bonn Climate Talks”. The Washington Post, 2/XI/2017.

[XII] Cf. U.S. Energy Information Administration, Short-Term Energy Outlook, Coal, 11/X/2017 (em rede).

[XIII] Cf. Adam, Morton, “The world is going slow on coal, but misinformation is distorting the facts”. The Guardian, 16/X/2017: “More coal-fired capacity is still being built than closed each year, though the gap has narrowed significantly”.

[XIV] Cf. J.P. Hansen, P.A. Narbel, D.L. Aksnes, “Limits to growth in the renewable energy sector”. Renewable and Sustainable Energy Reviews, 70, IV/2017, pp. 769-774.

[XV] Cf. John Sharman, “US ‘forces G20 to drop any mention of climate change’ in joint statement”. The Independent, 18/III/2017.

[XVI] Cf. Mikaela Weisse & Liz Goldman, “Global Tree Cover Loss Rose 51% in 2016”, GFW, 18/X/2016.

[XVII] “Greenhouse gas concentrations surge to new record”. World Meteorological Organisation, 30/X/2017..

[XVIII] Cf. Erik Solheim, The Emissions Gap Report 2017. A UN Environment Synthesis Report, p. XIII.

[XIX] Cf. Pierre Le Hir, “Réchauffement climatique: la bataille des 2o C est presque perdue”. Le Monde, 31/XII/2017.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

A qualidade dos eletrodos descartáveis usados em eletrocardiografia (ECG)

O coração possui atividade elétrica própria que consiste na geração e transmissão de estímulos. Os distúrbios destas propriedades resultam em alterações do ritmo cardíaco ou arritmia cardíaca. Assim, o sistema de condução elétrica do coração inicia, os impulsos, no nodo sinoatrial (S-A) onde os átrios são despolarizados e o impulso se espalha através do nodo atrioventricular e do feixe de His para os ramos direito e esquerdo seguindo para o músculo ventricular resultando a despolarização ventricular.

Porém em alguns casos, por diversos motivos, esse estímulo não é gerado na frequência correta (podendo ser para mais ou para menos) ou nasce em locais não habituais. As arritmias cardíacas representam esse grupo de distúrbios do ritmo cardíaco, causando ou não sintomas e podem levar à morte.

Para medir e detectar os biopotenciais e também correntes pelo corpo, é necessária uma interface entre o corpo e o sistema eletrônico de medida. Os eletrodos usados para isso podem ser classificados pelo método de aquisição.

Os invasivos são utilizados internamente no corpo para a detecção de biopotenciais. Eles podem ser colocados abaixo da pele, conhecidos como subcutâneos, ou podem ser inseridos no corpo. Os não evasivos são utilizados para detectar biopotenciais a partir da superfície do corpo, não ocorrendo danos físicos durante a detecção dos biopotenciais.

A NBR 16628 de 09/2017 – Eletrodos descartáveis de ECG – Requisitos estabelece os requisitos mínimos para rotulagem, segurança e desempenho para eletrodos descartáveis usados para a eletrocardiografia (ECG) diagnóstica ou no monitoramento por ECG. Aplica-se a todos os sistemas de eletrodos (ver 2.9) de ECG descartáveis. Esta norma não se aplica a eletrodos ativos, eletrodos de agulha, eletrodos reutilizáveis (não descartáveis), eletrodos destinados a entregar energia terapêutica e eletrodos projetados primariamente para a medição de sinais fisiológicos diferentes do eletrocardiograma (por exemplo, eletrodos usados com monitores de apneia, se o eletrodo for utilizado para objetivos não relacionados ao ECG, por exemplo, pletismografia por impedância).

Além disso, os requisitos para a composição do eletrólito não estão abordados nesta norma. O Anexo A (informativo) apresenta as justificativas para o desenvolvimento e disposições desta norma. O Anexo B (informativo) apresenta um resumo dos requisitos de rotulagem e desempenho.

A rotulagem para os eletrodos descartáveis de ECG deve estar em conformidade com as disposições desta Seção. A rotulagem que acompanha o produto deve incluir no mínimo as seguintes informações: declaração indicando a data-limite na qual a conformidade do produto com os requisitos desta norma não pode ser assegurada (por exemplo, “utilizar antes de ______”) e o número do lote, ou uma declaração indicando a data de fabricação, a data de validade e o número de lote; precauções e advertências adequadas, incluindo os limites de duração da aplicação do eletrodo e uma indicação da vida útil fora da bolsa do produto; se o eletrodo deve ser utilizado imediatamente após a abertura da bolsa, então um aviso apropriado deve ser indicado; instruções adequadas para utilização, incluindo os procedimentos para preparação da pele e para a preparação do eletrodo se ele não for pré-gelatinizado (por exemplo, tipo e quantidade do gel); instruções para os requisitos de armazenamento, se aplicável.

Devido às limitações de espaço, particularmente nas menores embalagens/bolsas dos eletrodos de ECG, e devido à NBR ISO 15223-1 ser nacionalmente aceita, convém que os símbolos da NBR ISO 15223-1 sejam utilizados na rotulagem quando apropriados.

Os requisitos de rotulagem complementam aqueles que são obrigatórios para todos os produtos para saúde, de acordo com o Código de Regulamentações Federais, Título 21, Capítulo 1, Subcapítulo H, Seção 801 dos Estados Unidos. Os requisitos adicionais de rotulagem fornecidos pela ANSI/AAMI EC 12, conforme descritos a seguir, abordam as informações específicas necessárias na utilização segura dos eletrodos de ECG.

Requer que a rotulagem inclua as informações necessárias para identificar e rastrear adequadamente o produto, para segregar os problemas do produto e para garantir que o usuário esteja ciente do tempo pelo qual o produto pode ser armazenado e ainda manter o desempenho satisfatório. Foi desenvolvido para minimizar a possibilidade do paciente se lesionar com o uso prolongado do eletrodo.

Houve muitos aperfeiçoamentos no produto e na embalagem ao longo dos últimos dez anos que aumentaram a vida útil fora da bolsa dos eletrodos. Por exemplo, existem sacos resseláveis que são utilizados para manter o alimento fresco após a abertura da embalagem. Se o usuário final seguir as instruções do fabricante sobre a resselagem, a vida útil do produto pode ser prolongada.

Sobre os eletrodos em si, novos projetos e aperfeiçoamentos tornam possível manter as características de desempenho por um intervalo de tempo após a abertura da embalagem (em alguns casos, de até semanas). Isto é especialmente verdadeiro para algumas das chamadas embalagens a granel, em que o fabricante pode ter 25, 30 ou até mesmo 50 eletrodos em uma embalagem unitária (ou bolsa).

Se o fabricante fizer o ensaio adequado e satisfizer aos requisitos que possam existir (por exemplo, BPF ou FDA), será um benefício ao usuário final saber que ele não tem que usar o produto “imediatamente” após a abertura da embalagem unitária. Verificar as justificativas para os requisitos da ANSI/AAMI EC12 descritas.

O produto deve ser fabricado e embalado de modo que todos os requisitos desta norma sejam atendidos até a data de validade especificada pelo fabricante de acordo com 3.1 a), nas condições de armazenamento recomendadas pelo fabricante de acordo com 3.1 d). O valor médio da impedância de 10 Hz para pelo menos 12 pares de eletrodos conectados gel a gel, em um nível de corrente impressa de até 100 μA de pico a pico (p-p), não pode exceder 2 kΩ.

Nenhuma das impedâncias dos pares individuais pode exceder 3 kΩ. Após um intervalo de estabilização de 1 min, um par de eletrodos conectados gel a gel não pode exibir uma tensão de offset cc maior que 100 mV. Instabilidade da tensão de offset cc e ruído interno combinados. Após um intervalo de estabilização de 1 min, um par de eletrodos conectados gel a gel não pode gerar uma tensão maior que 150 μV p-p na banda de passagem (resposta em frequência de primeira ordem) de 0,15 Hz a 100 Hz, por um intervalo de 5 min seguinte ao intervalo de estabilização.

Cinco segundos após as descargas de cada um dos quatro capacitores, o valor absoluto do potencial de polarização de um par de eletrodos conectados gel a gel não pode exceder 100 mV. A sobrecarga do capacitor de descarga deve consistir de um capacitor de 10 μF carregado a 200 V e descarregado através do par de eletrodos com 100 Ω em série. Durante o intervalo de 30 s após cada medição do potencial de polarização, a taxa de mudança do potencial de polarização residual não pode ser maior que +/- 1 mV/s.

Após o par de eletrodos ter sido ensaiado para conformidade com este requisito, a impedância de 10 Hz do par de eletrodos não pode exceder 3 kΩ. A mudança observada na tensão de offset cc através de um par de eletrodos conectados gel a gel não pode exceder 100 mV quando o par de eletrodos estiver sujeito a uma corrente contínua cc de 200 nA pelo intervalo de tempo recomendado pelo fabricante para a utilização clínica dos eletrodos. Em nenhum caso, este intervalo de tempo deve ser menor que 8 h.

O produto deve ser biocompatível. Para esta aplicação (isto é, um eletrodo em contato com a pele), a biocompatibilidade requer a avaliação da citotoxicidade, da irritação da pele, além da sensibilização da pele ou reatividade intracutânea. Eletrodos com fios condutores pré-conectados (conectados permanentemente) devem ser construídos de maneira que o conector do fio condutor utilizado para fixá-lo ao cabo-tronco do instrumento não possa entrar em contato com o aterramento ou com um potencial possivelmente perigoso.

Em particular, este conector deve ser construído para prevenir o contato condutivo com uma tomada de rede elétrica ou com um cabo de energia destacável. Convém que a ANSI/AAMI EC53 seja analisada e considerada no processo do projeto e fabricação dos eletrodos de ECG com fios condutores pré-conectados. Convém que o desempenho adesivo do eletrodo atenda às alegações ou aplicações indicadas pelo fabricante, já que ele tem impacto sobre a duração do uso.

Por exemplo, para um eletrocardiograma em repouso de curta duração, convém que o adesivo seja capaz de manter o contato com o corpo pelo intervalo de tempo normalmente associado com este procedimento; uma projeção seria entre 5 min e 30 min. Por outro lado, monitorações de longa duração podem requerer que o eletrodo permaneça no paciente por um intervalo de dias, dependendo do protocolo do hospital.

Portanto, convém que um adesivo a ser utilizado em um eletrodo de ECG tenha características de desempenho que atendam ao uso pretendido do produto. Uma corrente cc de 200 nA deve ser aplicada a um par de eletrodos conectados gel a gel, utilizando-se uma fonte de corrente que consista de uma fonte de tensão de pelo menos 2 V conectada em série com um resistor de ajuste de corrente adequado.

Convém que o potencial através do par de eletrodos seja monitorado com um voltímetro cc com uma impedância mínima de entrada de 10 MΩ, uma resolução de 5 mV ou melhor, e uma corrente de polarização de entrada menor que 10 nA. Convém que a tensão diferencial através dos eletrodos seja medida pelo menos uma vez por hora ao longo do intervalo de observação. Convém que a tensão de offset cc inicial seja medida dentro de 1 min a 5 min após juntarem-se os eletrodos e antes da corrente de polarização ser aplicada.

A mudança na tensão de offset cc causada pela corrente de polarização aplicada deve ser então medida com relação à tensão de offset cc inicial. Convém que o desempenho do adesivo seja tal que o eletrodo permaneça preso à pele pela aplicação/duração indicada pelo fabricante fornecendo, ao mesmo tempo, um eletrocardiograma aceitável. O ensaio vai requerer um grupo mínimo de voluntários de cinco mulheres e cinco homens.

Para avaliar o desempenho do adesivo de um eletrodo, convém que cada voluntário tenha quatro eletrodos colocados sobre o corpo e convém que o posicionamento dos eletrodos permita que um eletrocardiograma seja obtido. Convém que a pele de cada voluntário seja preparada de acordo com as instruções do fabricante, conforme descrito no rótulo. Convém que os eletrodos sejam mantidos pela duração do uso divulgado pelo fabricante. Por exemplo, se o fabricante declarar uma duração de uso de cinco dias, os voluntários devem usar o produto por no mínimo cinco dias. Convém que seja obtido um traço de ECG na colocação inicial e no término do estudo. Convém que os traços sejam documentados de forma apropriada.

Em geral, devido aos diferentes tipos de pele, condições da pele e fatores ambientais, convém que o desempenho geral aceitável de um sistema adesivo seja determinado pela média dos dez voluntários. Por exemplo, se dois voluntários tiverem queda de eletrodos após cinco dias, três voluntários tiverem queda de eletrodos após seis dias e os demais voluntários tiverem queda de eletrodos após sete dias, o tempo médio de uso seria de 6,3 dias para o grupo de voluntários. O fabricante seria capaz de indicar que o tempo de uso, em média, é de seis dias. Este método de ensaio não é aplicável aos eletrodos projetados para utilização em pacientes neonatos e pediátricos.

A qualidade das rodovias nacionais

A Confederação Nacional dos Transportes publicou a 21ª edição da Pesquisa de Rodovias que avaliou 105.814 km de rodovias, um acréscimo de 2.555 km (+2,5%) em relação a 2016. Foi percorrida toda a extensão pavimentada das rodovias federais e das principais rodovias estaduais do país.

Neste ano, a pesquisa constatou uma queda na qualidade do estado geral das rodovias pesquisadas. A classificação regular, ruim ou péssima atingiu 61,8%, enquanto em 2016 esse índice era de 58,2%. Em 2017, 38,2% das rodovias foram consideradas em bom ou ótimo estado, enquanto um ano atrás esse percentual era de 41,8%.

A sinalização foi o aspecto que mais se deteriorou. Em 2017, o percentual da extensão de rodovias com sinalização ótima ou boa caiu para 40,8%, enquanto no ano passado 48,3% haviam atingido esse patamar. Neste ano, a maior parte da sinalização (59,2%) foi considerada regular, ruim ou péssima.

Em relação à qualidade do pavimento, a pesquisa indica que metade (50,0%) apresenta qualidade regular, ruim ou péssima. Em 2016, o percentual era de 48,3%. Já a geometria da via, outro quesito avaliado pela Pesquisa CNT de Rodovias, manteve o mesmo resultado do ano passado: 77,9% da extensão das rodovias tiveram sua geometria avaliada como regular, ruim ou péssima e apenas 22,1% tiveram classificação boa ou ótima.

“A queda na qualidade das rodovias brasileiras tem relação direta com um histórico de baixos investimentos em infraestrutura rodoviária e com a crise econômica dos últimos anos”, afirma o presidente da CNT, Clésio Andrade. Segundo ele, a drástica redução dos investimentos públicos federais a partir de 2011 levou a um agravamento da situação das rodovias.

Em 2011, os investimentos públicos federais em infraestrutura rodoviária foram de R$ 11,21 bilhões; em 2016, o volume investido praticamente retrocedeu ao nível de 2008, caindo para R$ 8,61 bilhões. Este ano, até o mês de junho, foram investidos apenas R$ 3,01 bilhões.

Para dotar o país de uma infraestrutura rodoviária adequada à demanda nacional, são necessários investimentos da ordem de 293,8 bilhões, segundo o Plano CNT de Transporte e Logística. Apenas para manutenção, restauração e reconstrução dos 82.959 km onde a Pesquisa CNT de Rodovias 2017 encontrou trechos desgastados, trincas em malha, remendos, afundamentos, ondulações, buracos ou pavimentos totalmente destruídos são necessários R$ 51,5 bilhões.

Esse problema gerou 96.362 acidentes, com 6.398 óbitos, registrados em 2016, nas rodovias federais policiadas, resultaram em um custo de R$ 10,88 bilhões para o país. Esse valor é superior ao investimento feito em rodovias no ano passado, que foi de R$ 8,61 bilhões.

Estima-se que, apenas em 2017, o setor de transporte tenha um consumo desnecessário de 832,30 milhões de litros de diesel. Esse desperdício custará R$ 2,54 bilhões aos transportadores. O cálculo é feito com base nas inadequações encontradas no pavimento.

A 21ª edição da Pesquisa CNT de Rodovias foi realizada em 30 dias, por 24 equipes de pesquisadores, com cinco equipes de checagem. Além da avaliação do estado geral, do pavimento, da sinalização e da geometria da via, a pesquisa traz informações sobre infraestruturas de apoio, como postos policiais, postos de abastecimento, borracharias, concessionárias e oficinas de caminhões ou ônibus, restaurantes e lanchonetes.