Teste: você sofre de transtorno bipolar?

Ernesto Berg

Considerado uma das principais causas que provocam mudança de humor, o transtorno bipolar é resultado de determinadas anomalias que ocorrem na química do cérebro. Isto pode determinar grandes alterações no temperamento da pessoa afetada – em todas as áreas de sua vida -, inclusive na atuação profissional, na produtividade e no relacionamento de equipe. Cerca de 1% da população mundial sofre dessa disfunção que começa habitualmente na adolescência – ou no início da idade adulta -, e atinge indistintamente pessoas do sexo masculino e feminino.

Esse teste permite verificar a existência ou não de um possível transtorno bipolar, e seu grau de alcance, em caso afirmativo. Não pretende ser um diagnóstico minucioso, nem definitivo, mas serve de alerta sobre a existência de uma provável disfunção. Responda às 18 afirmações levando em conta seu estado atual, isto é, como você se sente e de fato se conduz em relação à questão.

Atribua notas conforme os critérios abaixo:

Nunca = 0

Algumas vezes = 1

Várias vezes = 2

Muitas vezes = 3

Sempre ou quase sempre = 4

  1. Passo por períodos de grande otimismo, alternados por períodos de grande pessimismo. ______
  2. Tenho tido grandes oscilações na quantidade e qualidade do meu trabalho. ______
  3. Às vezes tenho uma sensação de culpa, mesmo que eu nada tenha feito de errado. ______
  4. Tenho dificuldade em me concentrar nas coisas. ______
  5. Tenho períodos em que rio e brinco excessivamente, e outros, em que choro demasiadamente. ______
  6. Existem momentos em que entro num estado de aceleração mental e fico muito irritado. ______
  7. Há períodos em que fico muito agitado. ______
  8. Há momentos em que tenho grande dificuldade de adormecer, e outros, em que durmo excessivamente. _____
  9. Há momentos em que sou produtivo muito acima do meu normal. ______
  10. Tenho períodos em que me sinto muito feliz e criativo. ______
  11. Minha confiança oscila entre a extrema autoconfiança, e extrema dúvida sobre mim mesmo. ______
  12. Há momentos que tenho a impressão que sou capaz de assumir qualquer risco, sem nenhum receio. ______
  13. Tem momentos em que sou bem mais conversador do que costumo ser. _____
  14. Há ocasiões em que tenho muito interesse em estar em meio às pessoas, e outras em que quero ficar sozinho, com meus próprios pensamentos. ______
  15. Algumas vezes me sinto transbordante de energia, e outras, sem qualquer energia. ______
  16. Passo por períodos de embotamento mental, e períodos de grande criatividade mental. ______
  17. Às vezes fico furioso, ou muito hostil, sem aparente razão. ______
  18. Às vezes tenho a sensação de ter a capacidade de controlar tudo o que acontece ao meu redor e em minha vida. ______

TOTAL DE PONTOS_______

SUA AVALIAÇÃO

De 0 a 11 pontos. Esta contagem indica que você não tem qualquer tipo de transtorno bipolar. Você experimenta os altos e baixos normais da vida.

De 12 a 25 pontos. A contagem mostra alguns tipos leves de sintomas depressivos muito comuns na população em geral, e nenhum, – ou poucos – indícios de transtorno bipolar.

De 26 a 42 pontos. O escore revela algum tipo de transtorno bipolar ou de sintomas depressivos, que ocorre em boa parte da população, possivelmente beirando já alguma forma de síndrome depressiva.

De 43 a 63 pontos. Este resultado mostra sintomas de transtorno bipolar que variam de moderados a agudos. É aconselhável que pessoas que têm esse escore procurem auxílio profissional para tratamento dos sintomas.

De 64 a 72 pontos. A pontuação indica severos sintomas associados ao transtorno bipolar. É fortemente aconselhado buscar ajuda profissional especializada para o devido tratamento.

Ernesto Berg é consultor de empresas, professor, palestrante, articulista, autor de 18 livros, especialista em desenvolvimento organizacional, negociação, gestão do tempo, criatividade na tomada de decisão, administração de conflitos – berg@quebrandobarreiras.com.br

Anúncios

Atlas do envenenamento alimentar no Brasil

Luiz Marques

No âmbito da expansão global do capitalismo comercial e industrial desde o século XVI, três aspectos indissociáveis conferem ao Brasil posições de indisputada proeminência. Somos o país que, durante quase quatro séculos, mais indivíduos escravizou em toda a história da escravidão humana. A destruição e degradação conjuntas das coberturas vegetais do país constituem, em rapidez e em escala, a mais fulminante destruição da biosfera cometida por uma nação ou império em toda a história da espécie humana. Levamos mais de quatro séculos para remover cerca de 1,2 milhão de km2 dos 1,3 milhão de km2 que compunham originariamente a Mata Atlântica (a destruição ganhou escala apenas a partir do século XIX e ainda continua) (1). Mas apenas nos últimos 50 anos mais de 3,3 milhões de km2 de cobertura vegetal nativa foram suprimidos ou degradados na Amazônia, no Cerrado e na Caatinga (2), sendo que mais quase 1 milhão de km2 podem ser legalmentedesmatados em todo o Brasil segundo o antigo e o novo Código Florestal (3).

O terceiro aspecto, enfim, diz respeito ao uso de agrotóxicos. “O Brasil é o campeão mundial no uso de produtos químicos na agricultura”, afirma José Roberto Postali Parra, ex-diretor da Escola Superior de Agricultura Luiz de Queiroz (Esalq/USP) (4). Nos últimos dez anos, de fato, o Brasil arrebatou dos EUA a posição de maior consumidor mundial de pesticidas (5).

Como bem diz seu nome, um pesticida industrial é um composto químico que visa atacar uma “peste”, termo que designa no jargão produtivista toda espécie que compita com a humana pelos mesmos alimentos ou tenha algum potencial de ameaça à produtividade ou saúde humana ou de espécies que servem de alimentação aos homens. O termo pesticida abrange herbicidas, inseticidas e fungicidas, aplicados os dois últimos em plantas e em animais. Pesticidas são usados também contra pássaros (corbicidas, por exemplo), vermes (nematicidas), mamíferos roedores (rodenticidas), microorganismos, etc. Para entender como e por que o Brasil galgou essa posição de maior consumidor desses compostos, dispomos agora de uma referência fundamental. Trata-se de Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia, de Larissa Mies Bombardi, do Departamento de Geografia da FFLCH/USP (6).  Coroando intervenções já dedicadas pela estudiosa ao problema desde 2011 (7), esse trabalho de maior fôlego eleva nosso conhecimento a outro patamar, inclusive por comparar sistematicamente o uso dos pesticidas e as legislações vigentes a esse respeito no Brasil e na União Europeia. Ele culmina num Atlas do uso de agrotóxicos no país, por estado, cultura agrícola e tipo de pesticida, além de uma distribuição geográfica, etária e étnica de suas principais vítimas diretas. Sobretudo, as análises de Bombardi lançam luz sobre os nexos entre o uso crescente de agrotóxicos no país e a liderança nacional, política e econômica, do agronegócio, em fina sintonia com as megacorporações agroquímicas oligopolizadas que controlam toda a cadeia alimentar: das sementes, agrotóxicos, fertilizantes e demais insumos à distribuição e negociação nos mercados futuros das commodities agrícolas. Após as fusões ou absorções ocorridas nos últimos anos, quase 95% desse mercado global é agora comandado por cinco megacorporações agroquímicas, sendo que apenas três delas controlam 72,6% dele, como mostra a Figura 1.

Figura 1 – As fusões e incorporações da Bayer/Monsanto, ChemChina/Syngenta e Dow/DuPont criam um controle quase total por apenas cinco megacorporações de todo o ciclo agroquímico | Fonte: Bloomberg, citado por Dani Bancroft, “Bayer offers Big Buy out for the infamous Monsanto”.  23/V/2016

Concentração fundiária e agronegócio

Talvez nenhum outro aspecto expresse com tanta crueza a desigualdade da sociedade brasileira quanto a concentração da propriedade fundiária. Embora os governos do PT exibam alguns resultados sociais muito positivos quando comparados a governos de outras siglas (8), no item propriedade fundiária seu pacto com o agronegócio apenas aprofundou o abismo histórico da desigualdade no país. Os governos do PT não apenas perpetuaram a tolerância à grilagem e à concentração da propriedade fundiária, mas acrescentaram a esse quadro de apropriação violenta da terra a participação direta do Estado no agronegócio e a quase inexistente carga tributária incidente sobre os imóveis rurais. Em 2015, apenas 0,1% de todos os recursos arrecadados pela Receita Federal veio do Imposto Territorial Rural (9). Assim, o traço mais saliente das mudanças na estrutura da propriedade fundiária na história recente do Brasil foi sua rápida e extrema concentração entre 2003 e 2014, como mostra a Figura 2.

Fig. 2 – Evolução da estrutura fundiária no Brasil entre 2003 e 2014. | Fonte: Incra, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Tabela 1, p. 30

Em 2003, as 983 propriedades com mais de 10 mil hectares somavam 7% da área dos imóveis rurais no país. Em 2014, elas passaram a ser 3.057 e acumulavam 28% dessa área. Nesse universo do latifúndio, destaca-se a multiplicação dos megalatifúndios com mais de 100 mil hectares. Em 2003, eles eram apenas 22 e representavam 2% da área dos imóveis rurais do país. Em 2014, eles passaram a ser 365 e ocupavam 19% dessa área. No outro extremo da balança, as pequenas propriedades de até 10 hectares, que ocupavam 2% dessa área em 2003, representavam em 2014 apenas 1%.

Esse processo de concentração fundiária foi uma condição de possibilidade da consolidação de um novo modelo de economia rural, o agronegócio, adequado à globalização e à conversão dos alimentos agrícolas em soft commodities (soja, milho, café, cacau, gado etc), cujo valor é negociado na CME (Chicago Mercantile Exchange) e cuja destinação é, sobretudo, a China e, em segundo lugar, a Europa e os EUA. Como bem mostra Bombardi, o crescimento do agronegócio brasileiro apoia-se mais na expansão da área cultivada, frequentemente em detrimento das florestas, que em ganhos de produtividade e no manejo sustentável do solo e no respeito à biodiversidade, como mostra a Figura 3, que compara área, produto e produtividade (kg/ha) no cultivo da soja.

Fig. 3 – Comparação entre área (mil ha), produtividade (Kg/ha) e produto (em mil toneladas) da soja entre as safras de 2002/2003 e de 2015/2016 | Fonte: Companhia Nacional de Abastecimento, 2016, citado por por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 2, p. 25.

Como se vê, a área de cultivo da soja aumentou de 18,5 milhões de hectares em 2002/2003 para 33 milhões em 2015/2016, um salto de 79% em 13 anos para um aumento equivalente de 84% da produção de soja no mesmo período, com incremento quase irrelevante da produtividade. Para o agronegócio é mais barato avançar sobre a floresta, processo que pode inclusive gerar lucro pela venda da madeira, que investir numa cultura de longo prazo. Seu lema é considerar a devastação ambiental como uma externalidade e aniquilar tudo o que ameace a máxima rentabilização imediata de sua mercadoria.

“A monocultura causa desequilíbrios”

Além de desmatamento, esse modelo monocultor e destrutivo de agricultura “causa desequilíbrios”, como reitera José Roberto Postali Parra, da Esalq/USP (10). Para o agronegócio, esses desequilíbrios têm uma solução simples: a supressão ou tentativa de supressão das espécies animais e vegetais (as espécies insensatamente chamadas “daninhas”) por meio do uso intensivo de agrotóxicos. Detentora dos prêmios Miss Desmatamento e Motosserra de Ouro, além de presidente da Confederação da Agricultura e Pecuária do Brasil (CNA) e Ministra da Agricultura durante o governo de Dilma Rousseff, Kátia Abreu definiu com rara felicidade o ideal da classe que ela representa: “Quanto mais defensivos melhor, porque a tendência é os preços caírem em função do aumento da oferta” (11). A Figura 4, abaixo, mostra os saltos sucessivos no uso de agrotóxicos a partir de 2006, de resto a taxas muito superiores às do aumento da área cultivada e do produto. Observe-se que entre 2002 e 2014, o consumo de agrotóxicos, medido por peso do ingrediente ativo, aumentou cerca de 340%, de cerca de 150 mil toneladas para mais de 500 mil toneladas de ingrediente ativo, uma taxa muito maior que os 84% de aumento do produto entre 2002/2003 e 2015/2016, no caso acima ilustrado da soja (de 52 para 97 milhões de toneladas nesse período).

Fig. 4 – Consumo de agrotóxicos no Brasil em toneladas do ingrediente ativo, 2000 –  2014 | Fonte: Ibama, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 10, p. 33

 

O Brasil participa com apenas 4% do comércio mundial do agronegócio (12), mas consome hoje cerca de 20% de todo agrotóxico comercializado no mundo todo. Mais importantes, entretanto, que esse desbalanço são:

(1) a nocividade, constatada ou potencial, para a saúde humana e para o meio ambiente dos ingredientes ativos utilizados;

(2) o uso de ingredientes proibidos no exterior;

(3) o Limite Máximo de Resíduos (LMR) permitido pela legislação brasileira para cada um desses ingredientes nas amostras de alimentos e de água. Como se verá abaixo, esses limites são muito superiores aos permitidos pela legislação europeia, a qual é, de resto, frequentemente acusada de ceder às pressões das megacorporações da agroquímica;

(4) o uso corrente de ingredientes proibidos no Brasil;

(5) as doses excessivas utilizadas;

(6) os resíduos desses compostos encontrados pela Anvisa nos alimentos, que, via de regra, excedem os limites estabelecidos pela legislação brasileira.

Exemplos dos problemas aqui elencados nos itens 4 a 6 abundam na imprensa e nos estudos científicos. A Agência Nacional de Vigilância Sanitária (Anvisa) “aponta que quase 30% dos principais alimentos da cesta brasileira apresentaram irregularidades no uso de defensivos agrícolas” (13). No ano passado, a revista Examenoticiou que a Anvisa “encontrou níveis elevados de resíduos agrotóxicos em um terço das frutas, vegetais e hortaliças analisadas entre 2011 e 2012. Pior, um a cada três exemplares avaliados apresenta ingredientes ativos não autorizados, entre eles dois agrotóxicos que nunca foram registrados no Brasil: o azaconazol e o tebufempirade (14) ”. Segundo a já citada reportagem da CBN, “em São Paulo, por exemplo, desde 2002, nenhuma multa por irregularidades foi aplicada, nem mesmo em casos de repetidas reincidências”. Baseando-se em pesquisas de Karen Friedrich, da Associação Brasileira de Saúde Coletiva (Abrasco) e da Fundação Oswaldo Cruz (Fiocruz), Marina Rossi afirma: “Segundo o Dossiê Abrasco (…), 70% dos alimentos in natura consumidos no país estão contaminados por agrotóxicos. Desses, segundo a Anvisa, 28% contêm substâncias não autorizadas. Isso sem contar os alimentos processados, que são feitos a partir de grãos geneticamente modificados e cheios dessas substâncias químicas (…). Mais da metade dos agrotóxicos usados no Brasil hoje são banidos em países da União Europeia e nos Estados Unidos” (15).

Sobre a nocividade dos ingredientes utilizados, muitos deles já proibidos no exterior, e sobre as brutais discrepâncias entre as legislações europeia e brasileira no tocante ao Limite Máximo de Resíduos (LMR) permitido de cada um desses ingredientes nas amostras de alimentos e de água (os itens 1 a 3, acima), os dados são igualmente estarrecedores. Em 6 de abril de 2015, o Instituto Nacional do Câncer José Alencar Gomes da Silva (INCA), órgão do Ministério da Saúde, divulgou um documento em que afirma: “Dentre os efeitos associados à exposição crônica a ingredientes ativos de agrotóxicos podem ser citados infertilidade, impotência, abortos, malformações, neurotoxicidade, desregulação hormonal, efeitos sobre o sistema imunológico e câncer. (…) Vale ressaltar que a presença de resíduos de agrotóxicos não ocorre apenas em alimentos in natura, mas também em muitos produtos alimentícios processados pela indústria, como biscoitos, salgadinhos, pães, cereais matinais, lasanhas, pizzas e outros que têm como ingredientes o trigo, o milho e a soja, por exemplo. Ainda podem estar presentes nas carnes e leites de animais que se alimentam de ração com traços de agrotóxicos, devido ao processo de bioacumulação” (16).

O aumento da variedade dos ingredientes ativos impulsionado pelas pesquisas agroquímicas é impressionante. Segundo a Agência de Proteção Ambiental dos EUA (EPA), havia em 2007 “mais de 1055 ingredientes ativos registrados como pesticidas, formulados em milhares de produtos disponíveis no mercado” (17). A Figura 5, abaixo, elenca os 10 ingredientes ativos mais utilizados na agricultura brasileira.

Fig. 5 – Os 10 ingredientes ativos mais vendidos no Brasil em 2014, em ordem decrescente | Fonte: Ibama, citado por Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia. FFLCH – USP, Novembro, 2017, Gráfico 10, p. 35

Perturbadores endócrinos, carcinogênicos, mutagênicos, teratogênicos

Por motivos de espaço, reportamos abaixo a toxicidade de apenas cinco desses compostos para os humanos, não humanos e para o meio ambiente, bem como o Limite Máximo de Resíduos (LMR) permitido no produto e na água segundo a legislação europeia e a brasileira (18):

1º – Glifosato (glicina + fosfato). As sementes geneticamente modificadas, chamadas Roundup Ready (RR), da Monsanto, são capazes de resistir ao herbicida Roundup, o mais vendido no Brasil e no mundo, produzido à base de glifosato. Trata-se de um herbicida sistêmico, isto é, desenhado para matar quaisquer plantas, exceto as geneticamente modificadas para resistir a ele. Seu uso tem sido associado a maior incidência de câncer, à redução da progesterona em células de mamíferos, a abortos e a alterações teratogênicas por via placentária. Em 15 de março de 2015, o Centro Internacional de Pesquisas sobre o Câncer (IARC) considerou que havia “evidência suficiente” de que o composto causava câncer em animais e “evidência limitada” de que o causava em humanos, classificando assim o glifosato no Grupo 2A, isto é, como cancerígeno “provável no homem” (ao lado de quatro outros pesticidas) (19). O Limite Máximo de Resíduos (LMR) de glifosato permitido na soja na UE é de 0,05 mg/kg, no Brasil é de 10 mg/kg, portanto um limite 200 vezes maior.

2º – 2,4-D (ácido diclorofenóxiacético). Mais de 1.500 herbicidas contêm esse ingrediente ativo. A OMS coloca-o no grupo II, isto é, “moderadamente tóxico” (moderately hazardous) e o IARC afirma: “o herbicida 2,4-D foi classificado como possivelmente carcinogênico para humanos (Grupo 2B). (…) Há forte evidência de que 2,4-D induz estresse oxidativo, um mecanismo que pode ocorrer em humanos, e evidência moderada de que 2,4-D causa imunossupressão, a partir de estudos in vivo in vitro” (20). Para o National Resource Defense Council (NRDC), há provas conclusivas de que o 2,4-D é um perturbador endócrino, isto é, um composto que interfere no funcionamento normal do sistema hormonal dos organismos: “Estudos em laboratório sugerem que o 2,4-D pode impedir a ação normal de hormônios estrógenos, andrógenos e, mais conclusivamente, da tireoide (21). Dezenas de estudos epidemiológicos, animais e de laboratório mostraram uma associação entre 2,4-D (22) e perturbações da tireoide”. Luiz Leonardo Foloni (FEAGRI/Unicamp) assegura numa entrevista a irrestrita aceitação internacional do 2,4-D. Na realidade, esse composto foi banido no estado de Ontário, no Canadá, em 2009, na Austrália em 2013 e no Vietnã em 2017 (23). E há reiteradas demandas de proibição do 2,4-D nos EUA, não atendidas pelas autoridades desse país (24). O Limite Máximo de Resíduos (LMR) de 2,4-D permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 30 μg, portanto um limite 300 vezes maior.

3º – Acefato. Pertencente à classe dos organofosforados, o acefato é o inseticida mais usado no Brasil (25). A OMS coloca-o no grupo II, isto é, “moderadamente tóxico” (moderately hazardous). O Limite Máximo de Resíduos (LMR) de acefato permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama); no Brasil, ele não tem limite estabelecido.

5º – Clorpirifós. Inseticida da classe dos organofosforados, que altera o funcionamento de neurotransmissores (acetilcolina) no sistema nervoso central. Em 2009, a Organização Mundial da Saúde (OMS) classifica o clorpirifós como “moderadamente tóxico” (II – Moderately hazardous). Mas em 2012, esse produto foi associado a potenciais riscos ao desenvolvimento neurológico e o editorial da revista Environmental Health Perspectives, de 25 de abril de 2012, intitulado “A Research Strategy to Discover the Environmental Causes of Autism and Neurodevelopmental Disabilities” (26), afirma que: “Estudos prospectivos (…) associaram comportamentos autistas a exposições pré-natais a inseticidas organofosforados clorpirifós”. Já em 2001, seu uso doméstico fora banido dos EUA e ao final da administração Obama, a Agência de Proteção Ambiental desse país (EPA) recomendou seu banimento total, recomendação anulada por Donald Trump, beneficiário durante a campanha eleitoral de doações da Dow Chemical, produtora desse composto (27). Na União Europeia (UE), a avaliação da toxicidade do cloropirifós está em curso de revisão. O Limite Máximo de Resíduos (LMR) de clorpirifós permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 30 μg, portanto um limite 300 vezes maior.

7º – Atrazina. Produzido pela Syngenta, a atrazina é um herbicida que afeta a fotossíntese e atua em sinergia com outros herbicidas. Tyrone B. Hayes, da Universidade de Berkeley, e colegas mostraram que esse composto pode mudar o sexo da rã-de-unha africana (Xenopus laevis) e que “a atrazina e outros pesticidas perturbadores endócrinos são prováveis fatores em ação nos declínios globais dos anfíbios” (28). Em 2015, Andrea Vogel e colegas mostraram que a atrazina é um perturbador endócrino em invertebrados (29). A Itália e a Alemanha baniram a atrazina em 1991, e em 2004 a atrazina foi proibida em toda a UE (3). O Limite Máximo de Resíduos (LMR) de atrazina permitido na água potável na UE é de 0,1 μg (micrograma = 1/1000 miligrama), no Brasil é de 2 μg, portanto um limite 20 vezes maior.

A guerra química insensata e de antemão perdida contra a natureza

Há pelo menos 55 anos, desde o célebre livro de Rachel Carson, Primavera Silenciosa (1962), sabemos que os pesticidas industriais lançaram a espécie humana numa guerra biocida, suicida e de antemão perdida. A ideia mesma de um pesticida sintético usado sistematicamente contra outras espécies no fito de aniquilá-las dá prova cabal da insanidade da agricultura industrial: envenenam-se nossos alimentos para matar outras espécies ou impedi-las de comê-los. As doses do veneno, pequenas em relação à massa corpórea humana, não nos matam. Mas, ao atirarem numa espécie com uma metralhadora giratória, os pesticidas provocam “danos colaterais”: matam ou debilitam espécies não visadas, provocando desequilíbrios sistêmicos que promovem seleções artificiais capazes de reforçar a tolerância das espécies visadas, ou a invasão de espécies oportunistas, por vezes tão ou mais ameaçadoras para as plantações e para os homens que as espécies visadas pelos pesticidas. Além disso, a médio e longo prazo os pesticidas intoxicam e adoecem o próprio homem, tanto mais porque somos obrigados a aumentar as doses dos pesticidas e a combiná-los com outros em coquetéis cada vez mais tóxicos, à medida que as espécies visadas se tornam tolerantes à dose ou ao princípio ativo anterior. Uma suma de pesquisas científicas (31) mostra o caráter contraproducente dos agrotóxicos, seja do ponto de vista de seus efeitos sobre outras espécies – por exemplo, as abelhas e demais polinizadores –, seja do ponto de vista da saúde humana e de outras espécies não visadas, seja ainda da própria produtividade agrícola. Citemos apenas três desses estudos. Um documento da FAO de 2003 mostra que o uso crescente de pesticidas desde os anos 1960 não aumenta, mas, ao contrário, diminui relativamente as colheitas, sendo que as perdas de safra por causa de pestes eram em 1998 já da ordem de 25% a 50%, dependendo da cultura. O documento assim comenta esse fato: “É perturbador que ao longo dos últimos três ou quatro decênios, as perdas de colheitas em todas as maiores culturas aumentaram em termos relativos. (…) É interessante notar que o aumento das perdas de colheitas é acompanhado por um crescimento na taxa de uso de pesticidas” (32). Em 2013, um artigo publicado na revista Proceedings of the National Academy of Sciences refere-se ao morticínio de diversas espécies causado por pesticidas, mesmo utilizados em concentrações consideradas seguras pela legislação europeia: “Pesticidas causam efeitos estatisticamente significantes em espécies em ambas as regiões [Europa e Austrália], com perdas de até 42% nas populações taxonômicas registradas. Além disso, os efeitos na Europa foram detectados em concentrações que a atual legislação considera ambientalmente protetiva. Portanto, a atual avaliação de risco ecológico de pesticidas falha em proteger a biodiversidade, tornando necessárias novas abordagens envolvendo ecologia e ecotoxicologia” (33). Enfim, em 2014, um grupo internacional de trabalho de quatro anos sobre os pesticidas sistêmicos, o Task Force on Systemic Pesticides (TFSP), reunindo 29 pesquisadores, declara em seus resultados que os pesticidas sistêmicos (os neonicotinoides, por exemplo) constituem uma inequívoca e crescente ameaça tanto à agricultura quanto aos ecossistemas. Jean-Marc Bonmatin, um pesquisador do CNRS francês, pertencente a esse grupo de trabalho, assim resumiu esses resultados: “A evidência é clara. Estamos testemunhando uma ameaça à produtividade de nosso ambiente natural e agrícola, uma ameaça equivalente à dos organofosfatados ou DDT [denunciados em 1962 por Rachel Carson]. Longe de proteger a produção de alimentos, o uso de inseticidas neonicotinoides está ameaçando a própria infraestrutura que permite essa produção” (34).

Pesticidas, o outro lado da moeda das armas químicas de destruição em massa

Entre os pesticidas industriais e as guerras químicas há uma íntima interação, passada e presente. Ambos impõem-se como um fato absolutamente novo na história da destruição do meio ambiente pelo homem e de sua autointoxicação. Os inseticidas organoclorados e organofosforados, e os herbicidas baseados em hormônios sintéticos nascem nos anos 1920-1940 como resultado das pesquisas sobre armas químicas usadas durante a I Grande Guerra pelos dois campos beligerantes. Essa interação continua no período entre-guerras, em especial na Alemanha, então em busca de recuperar sua supremacia na indústria química. Em seu quadro de cientistas, a Degesh (Deutsche Gesellschaft für Schädlingsbekämpfung – Sociedade Alemã para o Controle de Pragas), criada em 1919, contava químicos como Fritz Haber (Prêmio Nobel) e Ferdinand Flury, que desenvolveu em 1920 o Zyklon A, um pesticida à base de cianureto, precedente imediato de outro inseticida, o Zyklon B, patenteado em 1926 por Walter Heerdt eusado sucessivamente nas câmaras de gás dos campos de extermínio de Auschwitz-Birkenau e Majdanek. Outro exemplo é o da IG Farben, de cujo desmembramento após 1945 resultou a Agfa, a BASF, a Hoechst e a Bayer. Para esse conglomerado industrial alemão, trabalhavam químicos como Gerhard Schrader (1903-1990), funcionário da Bayer e responsável pela descoberta e viabilização industrial dos compostos de organofosforados que agem sobre o sistema nervoso central. De tais compostos derivam pesticidas como o bladan e o parathion (E 605) e armas químicas como o Tabun (1936), o Sarin (1938), o Soman (1944) e o Cyclosarin (1949), as três primeiras desenvolvidas, ainda que não usadas, pelo exército alemão na II Grande Guerra. Após a guerra, Schrader foi por dois anos mantido prisioneiro dos Aliados, que o obrigaram a comunicar-lhes os resultados de suas pesquisas sobre ésteres de fosfato orgânicos, em seguida desenvolvidos na fabricação de novos pesticidas.

Essa interação entre pesticidas e armas químicas, hoje melhor denominadas químico-genéticas, continua em nossos dias. O Defense Advanced Research Projects Agency (Darpa), do Pentágono, está investindo US$ 100 milhões em projetos, potencialmente catastróficos, de “extinção genética” de espécies consideradas nocivas ao homem, sem esconder, contudo, seu interesse em possíveis desdobramentos militares dessas pesquisas (35). Um especialista da Convenção sobre Diversidade Biológica (CBD) da ONU declarou ao The Guardian: “Pode-se ser capaz de erradicar um vírus ou a inteira população de um mosquito, mas isso pode ter efeitos ecológicos em cascata”. O potencial militar das pesquisas em edição genética (o chamado “gene drive”) manifesta-se já no fato de que seu principal patrocinador é o Pentágono. Entre 2008 e 2014, o governo dos EUA investiu US$ 820 milhões em biologia sintética, sendo que desde 2012 a maior parte desse investimento veio do Darpa e de outras agências militares. Referindo-se ao risco de que armas baseadas em tecnologias químico-genéticas sejam usadas por “hostile or rogue actors”, um porta-voz do Darpa afirmou que essas pesquisas são de “crítica importância para permitir ao Departamento de Defesa defender seu pessoal e preservar sua prontidão militar. (….) É de responsabilidade do Darpa desenvolver tais pesquisas e tecnologias que podem proteger contra seu mau-uso, acidental ou intencional”. É preciso uma boa dose de amnésia para não perceber nessa interação “defensiva” entre o Pentágono e a pesquisa químico-genética de aniquilação biológica um revival das interações entre “defensivos agrícolas” e a guerra química e de extermínio humano, durante e após a I Grande Guerra (36).

Referências
[1] Segundo o Instituto Brasileiro de Florestas, a área original da Mata Atlântica era originalmente 1.315.460 km², 15% do território brasileiro. Atualmente o remanescente é 102.012 km², 7,91% da área original. Entre 1985 e 2013, a Mata Atlântica perdeu mais 18.509 km2. “A cada 2 dias, um Ibirapuera de Mata Atlântica desaparece”. Cf. SOS Mata Atlântica. “Divulgados novos dados sobre o desmatamento da Mata Atlântica”, 27/V/2014.

[2] Na Amazônia brasileira, a área de corte raso da floresta (1970-2017) chega a 790 mil km2, sendo 421.775 km2 de corte raso no acumulado de 1988-2016 (INPE). Mas “a área de corte raso e a de degradação representam juntas cerca de dois milhões de km2, ou seja 40% da floresta amazônica brasileira” (dados de 2013). Cf. A. D. Nobre, “Il faut un effort de guerre pour reboiser l’Amazonie”. Le Monde, 24/XI/2014. No Cerrado, um bioma de cerca de 2 milhões de km2, a devastação em 35 anos [1980-2015] foi da ordem de 1 milhão de km2. “Entre 2002 e 2011, as taxas de desmatamento nesse bioma (1% ao ano) foram 2,5 vezes maior que na Amazônia. (…) Mantidas as tendências atuais, 31% a 34% da área restante da cobertura vegetal do Cerrado deve ser suprimida até 2050 (…), levando à extinção ~480 espécies de plantas endêmicas – três vezes mais que todas as extinções documentadas desde 1500”. Cf. Bernardo B.N. Strassburg et al., “Moment of truth for the Cerrado hotspot”. Nature Ecology & Evolution, 23/III/2017. Segundo o INPE, a Caatinga já perdeu cerca de 45% dos 734.478 km² originais de sua vegetação natural.

[3] Mais precisamente, 957 mil km2, segundo Gerd Sparovek (Esalq/USP), Observatório do Código Florestal . Para Britaldo Soares Filho e colegas, “tanto o antigo quanto o novo Código Florestal permitem um desmatamento legal de ainda mais 88 (+/-6) milhões de hectares [880 mil km2] em propriedades privadas. Essa área de vegetação nativa, ao abrigo das exigências de Reserva Legal e Entornos de Cursos de Água, constituem um ‘excedente ambiental’ (“environmental surplus) com potencial de emissão de 18 Gt de CO2-eq”. Cf. Britaldo Soares-Filho et al.“Cracking Brazil’s Forest Code”. Science, 344, 6182, 25/IV2014, pp. 363-364.

[4] Entrevista concedida a Marcos Pivetta e Marcos de Oliveira, “Agricultor de insetos”. Pesquisa Fapesp, 18, 261, novembro de 2017, pp. 32-37.

[5] Cf. Michelle Moreira, “Brasil é o maior consumidor de agrotóxicos do mundo”. Agência Brasil, 3/XII/2015; Flávia Milhorance, “Brasil lidera o ranking de consumo de agrotóxicos”. O Globo, 8/IV/2015.

[6] Cf. Larissa Mies Bombardi, Geografia do Uso de Agrotóxicos no Brasil e Conexões com a União Europeia, Laboratório de Geografia Agrária, FFLCH/USP, Novembro, 2017, 296 p.

[7] Para a bibliografia anterior de Bombardi, veja-se <https://www.larissabombardi.blog.br/blog-geo>, em particular, “Intoxicação e morte por agrotóxicos no Brasil: a nova versão do capitalismo oligopolizado”. Boletim Dataluta, setembro de 2011 (em rede).

[8] Veja-se Sérgio Lírio, “O abismo não é intransponível”. Carta Capital, 29/XI/2017, pp. 26-28.

[9] Cf. Pedro Durán, “Desde 2009, o Brasil é o maior consumidor de agrotóxicos do mundo”. CBN, 3/V/2016.

[10] Pivetta & Oliveira, “Agricultor de insetos” (cit): “a monocultura causa desequilíbrios”.

[11] “Kátia Abreu quer liberação mais rápida de agrotóxicos pela ANVISA”. Viomundo, 19/X/2011.

[12] Cf. Dante D. G. Scolari, “Produção agrícola mundial: o potencial do Brasil”. Embrapa, 2007.

[13] Cf. Michelle Moreira, “Brasil é o maior consumidor de agrotóxicos do mundo”. Agência Brasil, 3/XII/2015.

[14] Cf. Vanessa Barbosa, “Anvisa aponta 13 alimentos que pecam no uso de agrotóxicos”. Exame, 13/IX/2016.

[15] Cf. Marina Rossi, “O ‘alarmante’ uso de agrotóxicos no Basil atinge 70% dos alimentos”. El País, edição em português, 30/IV/2015.

[16] Veja-se “Posicionamento do Insituto Nacional de Câncer José Alencar Gomes da Silva acerca dos Agrotóxicos”. 

[17] Cf. EPA, “Assessing Health Risks from Pesticides” (em rede).

[18] Os dados comparativos sobre os LMR no Brasil e na União Europeia (UE) são retirados do já citado trabalho de Bombardi.

[19] Cf. Daniel Cressey, « Widely used herbicide linked to cancer ». Nature, 24/III/2015: “Two of the pesticides — tetrachlorvinphos and parathion — were rated as “possibly carcinogenic to humans”, or category 2B. Three — malathion, diazinon and glyphosate — were rated as “probably carcinogenic to humans”, labelled category 2A”.

[20] Cf. IARC Monographs evaluate DDT, lindane, and 2,4-D. Press release n. 236, 23/VI/2015. Veja-se também OMS.

[21] Cf. Danielle Sedbrook, “2,4-D: The Most Dangerous Pesticide You’ve Never Heard Of”. NRDC, 15/III/2016.

[22] Veja-se sua entrevista | L. L. Foloni, O Herbicida 2,4-D: Uma Visão Geral, 2016.

[23] Cf. “APVMA [Australian Pesticides and Veterinary Medicines Authority]: Australia Bans Toxic Herbicide 2,4-D Products”. Sustainable Pulse, 24/VIII/2013; “Govt bans 2,4-D, paraquat in Vietnam”. Vietnamnet, 16/II/2017.

[24] Veja-se, por exemplo, Andrew Pollack, “E.P.A. Denies an Environmental Group’s Request to Ban a Widely Used Weed Killer”. The New York Times, 9/IV/2012.

[25] Cf. Idiana Tomazelli & Mariana Sallowicz, “Uso de agrotóxicos no País mais que dobra entre 2000 e 2012”. O Estado de São Paulo,19/VI/2015. “O agrotóxico mais empregado foi o glifosato, um herbicida apontado por pesquisadores como nocivo à saúde. Entre os inseticidas, o mais usado foi o acefato”.

[26] Cf. Philip J. Landrigan, Luca Lambertini, Linda S. Birnbaum, “A Research Strategy to Discover the Environmental Causes of Autism and Neurodevelopmental Disabilities” (Editorial). Environmental Health Perspectives, 25/IV/2012..

[27] Cf. “Don’t let feds make pesticide call”, Daily Record (USA Today), Editorial, 27/XI/2017.

[28] Cf. Tyrone B. Hayes et al., “Atrazine induces complete feminization and chemical castration in male African clawed frogs (Xenopus laevis)”. Proceedings of the National Academy of Sciences, 107, 10, 9/III/2010, pp. 4612-4617: “The present findings exemplify the role that atrazine and other endocrine-disrupting pesticides likely play in global amphibian declines”.

[29] Cf. Andrea Vogel et al., “Effects of atrazine exposure on male reproductive performance in Drosophila melangaster”. Journal of Insect Physiology, 72, janeiro, 2015, pp. 14-21.

[30] Cf. Franck Akerman, “The Economics of Atrazine”, International Journal of Occupational and Environmental Health, 13, 4, outubro-dezembro de 2007, pp. 441-449.

[31] Veja-se, por exemplo, Jan Dich et al., “Pesticides and Cancer”. Cancer, causes & control, maio, 1997, 8, 3, pp. 420-443. IDEM, “Pesticide and prostate cancer. Again”. Pesticide Action Network, 23/I/2013.(1997, 8, pp. 420-443); Idem (23/I/2013).

[32] Report of the First External Review of the Systemwide Programme on Integrated Pest Management (SP-IPM). Interim Science Council Secretariat – FAO, agosto de 2003.

[33] Cf. Mikhail A. Beketov et al., “Pesticides reduce regional biodiversity of stream invertebrates”. PNAS, online, 17/VI/2013.Também Sharon Oosthoek, “Pesticides spark broad biodiversity loss”. Nature, 17/VI/2013.

[34] Citado por Damian Carrington, “Insecticides put world food supplies at risk, say scientists”. TG, 24/VI/2014.

[35] Cf. Arthur Neslen, “Us military agency invests $ 100m in genetic extinction technologies”. The Guardian, 4/XII/2017.

[36] No período entreguerras, armas químicas continuaram a ser utilizadas pela aviação inglesa, por exemplo, em 1919 contra os bolcheviques e em 1925 contra a cidade de Sulaimaniya, capital do Kurdistão iraquiano; a aviação italiana utilizou-as em 1935 e 1936 em sua tentativa de exterminar a população da Etiópia, e o exército bolchevique, segundo uma documentação aparentemente confiável, dizimou com armas químicas os revoltosos de Tambov, uma das 118 revoltas camponesas contra o exército vermelho reportadas pela Cheka, em fevereiro de 1921. Cf. Eric Croddy, Clarisa Perez-Armendaruz & John Hart, Chemical and Biological Warfare. A comprehensive survey for the concerned citizen. Nova York, Springer-Verlag, 2002.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

“Tostados, assados e grelhados”

Luiz Marques

​“Como disse antes, se não fizermos nada a respeito da mudança climática, seremos tostados, assados e grelhados num horizonte de tempo de 50 anos. (…) Se não encararmos essas duas questões – mudança climática e desigualdade crescente – avançaremos a partir de agora em direção a sombrios 50 anos” (I). Quem fala é Christine Lagarde, diretora do Fundo Monetário Internacional, durante um painel da Future Investment Initiative, ocorrido em 25 de outubro em Riad, na Arábia Saudita.

É positivo que o FMI funcione como uma caixa de ressonância da ciência e que junte sua voz ao coro dos alertas sobre a situação-limite em que a humanidade e a biosfera se encontram. Mas o FMI é o primogênito e um dos principais gendarmes da ordem econômica internacional que está condenando os homens e a biosfera a serem “tostados, assados e grelhados num horizonte de tempo de 50 anos”. Não tem, portanto, autoridade moral para emitir alertas desse gênero. “Como disse antes”, afirma acima Lagarde…

De fato, já em 2012, às vésperas da Rio+20, ela havia declarado num encontro do Center for Global Development, em Washington, que “a mudança climática é claramente um dos grandes desafios de nosso tempo, um dos grandes testes de nossa geração. Para os mais pobres e mais vulneráveis do mundo, a mudança climática não é uma possibilidade distante. É uma realidade presente” (II). E anunciava então que o FMI desenvolveria pesquisas e daria suporte analítico aos países com políticas de redução de emissões de gases de efeito estufa (GEE), em particular através de instrumentos fiscais, como precificação do carbono e eliminação dos subsídios. Passados cinco anos, eis o que aconteceu:

1. Os subsídios à indústria de combustíveis fósseis continuam a crescer. Em 2013, eles montavam a US$ 4,9 trilhões e em 2015 atingiram US$ 5,3 trilhões, ou 6,5% do PIB mundial, segundo um estudo recente. “A eliminação desses subsídios”, afirmam seus autores, “teria reduzido as emissões de carbono, em 2013, em 21%, e em 55%, as mortes por poluição causada pela queima de combustíveis fósseis, ao mesmo tempo em que teria elevado a renda em 4% do PIB global e o bem-estar social em 2,2%” (III). Se entendidos stricto sensu, ou seja, como privilégio fiscal ou transferência de recursos estatais para essa indústria, os subsídios dos governos do G20 – os mesmos que prometeram seu fim em 2009 – montavam em 2015 a US$ 444 bilhões (IV).

2. Imposto sobre a emissão de carbono (carbon tax). A segunda medida apoiada por Lagarde era a precificação adequada do carbono: “corrigir seus preços significa usar uma política fiscal capaz de garantir que o malefício que causamos reflita-se nos preços que pagamos” (V). Tal imposto foi sugerido já em 1973 por David Gordon Wilson (VI), do MIT, e reproposto agora, pela enésima vez, por 13 economistas, no âmbito de uma iniciativa presidida por Joseph Stiglitz e Sir Nicholas Stern (VII). O estudo sugere que este seja em 2020 de 40 a 80 dólares por tonelada de CO2 emitido e, em 2030, de 50 a 100 dólares. Não se sabe em quanto esse imposto, se adotado, contribuiria para a redução das emissões de GEE. Mas se sabe que o FMI em nada tem contribuído para viabilizá-lo. De resto, em março último, Trump descartou-o e sem o apoio dos EUA, um dos maiores produtores mundiais de petróleo, ele parece hoje mais irrealista que nunca.

Leonardo Martinez-Diaz, do World Resources Institute, percebe bem a hipocrisia do FMI: “Uma das funções centrais do FMI é a vigilância macroeconômica. (…) O Fundo deveria colocar o risco climático no diálogo com os Estados, como um item formal de suas consultas”. E, sobretudo, “considerar as despesas em resiliência como investimentos dos Estados devedores” (VIII). Mas, isso Christine Lagarde não fez, e não fará, porque prejudicaria os interesses dos credores.

CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO

Voluntários posam nus, na geleira de Aletsch, nos Alpes suíços, durante campanha ambiental sobre o aquecimento global, em 2007 | Foto: Reprodução | Greenpeace

Quatro décadas de alertas científicos

Se é nula a credibilidade do FMI no que se refere à sua contribuição para mitigar essa situação extremamente grave, isso não altera o fato de que o diagnóstico de Lagarde baseia-se no mais consolidado consenso científico. Há décadas a ciência adverte que o aquecimento continuado da atmosfera e dos oceanos – causado sobretudo pela queima de combustíveis fósseis, pelo desmatamento e pelo surto global de carnivorismo – lançaria o século XXI num série de crescentes desastres sociais e ambientais. Quase quatro décadas atrás, em 1981, quando o aquecimento global era ainda de apenas 0,4o C acima dos anos 1880, James Hansen e colegas afirmavam num trabalho da Science (IX):

“Efeitos potenciais sobre o clima no século XXI incluem a criação de zonas propensas a secas na América do Norte e Ásia Central como parte de uma mudança nas zonas climáticas, erosão das camadas de gelo da Antártica com consequente elevação global do nível do mar e a abertura da famosa passagem do Noroeste [no Ártico]. (…) O aquecimento global projetado para o próximo século é de uma magnitude quase sem precedentes. Baseados nos cálculos de nosso modelo, estimamos que ele será de ~2,5o C para um cenário com lento crescimento de energia e um misto de combustíveis fósseis e não fósseis. Esse aquecimento excederia a temperatura durante o período antitermal (6.000 anos atrás) e o período interglacial anterior (Eemiano) e se aproximaria da temperatura do Mesozoico, a idade dos dinossauros”.

Entre 1984 e 1988, James Hansen depôs três vezes no Senado dos Estados Unidos. Na última vez, diante de 15 câmaras de televisão, projetou cenários de aquecimento global de até 1,5o C em 2019 em relação à média do período 1951-1980, como mostra a Figura 1, reproduzida a partir desse histórico documento de 1988.

Figura 1 – Projeção de aquecimento médio superficial global até 2019, segundo três cenários

O Cenário A supõe uma taxa de aumento das emissões de CO2 típica dos 20 anos anteriores a 1987, isto é, um crescimento a uma taxa de 1,5% ao ano. O Cenário B assume taxas de emissão que estacionam aproximadamente no nível de 1988. O Cenário C é de drástica redução dessas emissões atmosféricas no período 1990 – 2000. A linha contínua descreve o aquecimento observado até 1987. A faixa cinza recobre o nível pico de aquecimento durante os períodos Antitermal (6.000 anos AP) e Eemiano (120.000 anos AP). O ponto zero das observações é a média do período 1951-1980.

Fonte: “The Greenhouse Effect: Impacts on Current Global Temperature and Regional Heat Waves”, figura 3. Documento apresentado ao Senado por James Hansen em 1988. Veja-se:https://climatechange.procon.org/sourcefiles/1988_Hansen_Senate_Testimony.pdf

As projeções de Hansen são uma das mais espetaculares demonstrações de inteligência do sistema Terra na história recente da ciência, que só hoje podemos aquilatar em sua real dimensão. Seus Cenários A e B anteciparam a uma distância de 30 anos um aquecimento médio global entre ~1,1o C e 1,5o C. Foi exatamente o que aconteceu, como mostra a Figura 2

Figura 2 – Temperaturas superficiais globais em relação ao período de base 1880-1920 | Fonte:Earth Institute. Columbia University

Como se vê, desde 1970 as temperaturas médias globais têm se elevado 0,18o C por década e em 2016 elas atingiram +1,24o C em relação a 1880-1920. Mantida a aceleração do aquecimento médio global observada no triênio 2015-2017 (~0,2o C), deveremos atingir ou estar muito próximos, em 2019, do nível de aquecimento previsto no pior cenário assumido por James Hansen e colegas.

Energias fósseis x energias renováveis e de baixo carbono

Naturalmente, quem está no controle do mundo não se interessa por acurácia científica, quando esta interfere em seus planos de negócios. Os alertas de toda uma legião de cientistas no mundo todo continuam a se espatifar contra o muro inexpugnável das corporações, que impuseram e continuam a impor à humanidade e à biosfera o “Cenário A” previsto por James Hansen. Os números, melhor que quaisquer argumentos, revelam a extensão do crime: desde 1988, data do testimony de Hansen no Senado dos EUA, mais CO2 foi lançado na atmosfera do que entre 1750 e 1987, como mostra a Figura 3

Figura 3 – Emissões industriais de CO2 entre 1751 e 2014. De 1751 a 1987 foram emitidas 737 Gt (bilhões de toneladas). Entre 1988 e 2014 foram emitidas 743 Gt.  | Fonte: T. J. Blasing, “Recent Greenhouse Gas Concentrations”. Carbon Dioxide Information Analysis Center (CDIAC), Abril, 2016, baseado em Le Quéré et al. (2014) e Boden, Marland e Andres (2013).

Em 2017 teremos já ultrapassado 800 Gt de CO2 emitidos na atmosfera em quarenta anos. As corporações que lucram com essas emissões e com a destruição das florestas – em especial os xifópagos Big Oil & Big Food – venceram e continuam vencendo. Em Riad, na semana passada, Christine Lagarde acrescentou que “as decisões devem ser imediatas, o que provavelmente significará que nos próximos 50 anos o petróleo se tornará uma commodity secundária”. Foi contradita por Amin Nasser, presidente da estatal Saudi Arabian Oil Company (Aramco): “Alternativas, carros elétricos e renováveis estão definitivamente ganhando participação no mercado e estamos vendo isso. Mas décadas serão ainda necessárias antes que assumam uma participação maior na oferta de energia global” (X).

Mantido o paradigma expansivo do capitalismo (obviamente dependente das reservas restantes de petróleo, algo incerto), o prognóstico de Amin Nasser afigura-se mais credível que o de Christine Lagarde. Ele ecoa a convicção de seus pares de que a hegemonia dos combustíveis fósseis não será sequer ameaçada, quanto menos superada, por energias de baixo carbono pelos próximos dois ou três decênios. Barry K. Worthington, diretor da toda poderosa United States Energy Association, afirma, e é fato, que “nenhuma projeção credível” mostra uma participação menor que 40% dos combustíveis fósseis em 2050 (XI). Mesmo o carvão, cujo declínio iniciado nos dois últimos anos parecia a muitos ser irreversível, resiste. Nos EUA, sua produção em 2017 será 8% maior que em 2016 (XII). No mundo todo havia, em outubro de 2017, 154 unidades termelétricas movidas a carvão em construção e 113 em expansão, um número ainda superior ao das unidades que estão sendo desativadas (XIII).

Um argumento em favor da ideia de uma ainda longa hegemonia futura dos combustíveis fósseis provém de um trabalho de três pesquisadores da Universidade de Bergen, na Noruega (XIV). Os autores partem da constatação de que em 2015 o consumo energético global foi de 17 Terawatts (TW), dos quais apenas 3,9% (0,663 TW) provieram de energias eólica (0,433 TW) e fotovoltaica (0,230 TW). Assumem em seguida a projeção de que esse consumo quase dobre em 2050, atingindo 30 TW. Detectam então indícios de que a taxa de crescimento das energias eólica e fotovoltaica comece a declinar já ao longo da próxima década, saturando sua capacidade instalada não acima de 1,8 TW em 2030, o que as levaria a assumir a forma da curva de uma função logística ou sigmóide (em “S”), como mostra a Figura 4.

Figura 4 – Capacidade instalada global total de energia eólica e fotovoltaica (pontos verdes)
A linha contínua é a do modelo logístico (curva sigmóide), semelhante à evolução das energias hidrelétrica e nuclear. As linhas pontilhadas indicam um intervalo de confiança de 95%. O ponto vermelho indica os prognósticos das associoções de acionistas. O quadro inserido mostra o declínio previsto das taxas de crescimento dessas energias. | Fonte: J.P. Hansen, P.A. Narbel, D.L. Aksnes, “Limits to growth in the renewable energy sector”. Renewable and Sustainable Energy Reviews, 70, IV/2017, pp. 769-774.

A COP 23 e a “catastrófica brecha climática”

Como se sabe, abre-se hoje, 6 de novembro de 2017, em Bonn, mais uma reunião anual da Convenção-Quadro das Nações Unidas sobre as Mudanças Climáticas (UNFCCC), a 23ª Conferência das Partes (COP23). Sua agenda central será fazer avançar as diretrizes (rule-book) de implementação do Acordo de Paris, preparadas por um grupo de trabalho – o Ad-hoc Working Group on the Paris Agreement (APA) –, coordenado pela Nova Zelândia e pela… Arábia Saudita. Por improvável que seja a projeção de Christine Lagarde de que “nos próximos 50 anos o petróleo se tornará uma commodity secundária”, suas declarações na capital mundial do petróleo têm o mérito de reforçar o senso de urgência requerido para mais essa rodada de negociações.  Esse senso de urgência é mais que nunca necessário, pois o contexto político e ambiental em que se abre a COP23 não poderia ser mais adverso, como bem indica o quadro atual de bloqueio do Acordo, em contraste com a angustiante aceleração da degradação ambiental nos últimos meses:

1. Quase dois anos após sua assinatura, o Acordo de Paris não foi ainda ratificado (não está em vigor) por 13 países produtores e detentores das maiores reservas mundiais de petróleo, conforme mostra a tabela abaixo

Fontes: Paris Agreement – Status of Ratification U.S. | EIA Production of Crude Oil including Lease Condensate 2016

A esses 13 países que não ratificaram o Acordo, acrescentam-se os EUA, em vias de deixá-lo. De modo que mais de um terço da produção mundial de petróleo encontra-se em nações que não reconhecem oficialmente o Acordo de Paris, e não o reconhecem, declaradamente ou não, porque não têm intenção de diminuir sua produção.

(2) Em julho, reunido na China, o G20 deu uma demonstração de fraqueza ou de oportunismo ao ceder às pressões dos EUA e da Arábia Saudita para eliminar de sua declaração conjunta final qualquer menção à necessidade de financiar a adaptação dos países pobres às mudanças climáticas, condição de possibilidade do Acordo de Paris (XV).

(3) Em 18 de outubro passado, o Global Forest Watch revelou que em 2016 foram destruídos globalmente 297 mil km2 de florestas pelo avanço da agropecuária, da mineração, da indústria madeireira e de incêndios mais devastadores, criminosos e/ou exacerbados pelas mudanças climáticas (XVI). Trata-se de um recorde absoluto em área destruída e de um recorde no salto de 51% em relação a 2015, como mostra a Figura 5.

Figura 5 – Perdas de cobertura florestal global de 2011 a 2016 | Fonte: Global Forest Watch

(4) Em 30 de outubro, a Organização Meteorológica Mundial (OMM) reconheceu um avanço de 3,3 ppm (partes por milhão) nas concentrações atmosféricas de CO2 no intervalo de apenas 12 meses. Essas concentrações “deram em 2016 um salto, numa velocidade recorde, atingindo seu mais alto nível em 800 mil anos”. Desde 1990, afirma o boletim da OMM, houve um aumento de 40% na forçante radiativa total (o balanço entre a energia incidente e a energia refletida de volta para o espaço pelo sistema climático da Terra) causada pelas emissões de GEE, e um aumento de 2,5% apenas em 2016 em relação a 2015 (XVII).

(5) Enfim, o oitavo Emissions Gap Report, de 2017, publicado pelo Programa das Nações Unidas para o Meio Ambiente (PNUMA), adverte que as reduções de emissões de GEE acordadas em Paris estão muito aquém do requerido para conter o aquecimento médio global abaixo de 2o C ao longo deste século. Como faz notar Erik Solheim, diretor do (PNUMA), “as promessas atuais dos Estados cobrem não mais que um terço das reduções necessárias. (…) Os governos, o setor privado e a sociedade civil devem superar essa catastrófica brecha climática” (XVIII). E reafirma que, se os compromissos nacionais (NDCs) forem implementados, chegaremos ao final deste século com um aquecimento médio global de cerca de 3,2o C (2,9o C a 3,4o C). Mas os governos estão descumprindo até mesmo esse terço por eles prometido em 2015. Segundo Jean Jouzel, ex-vice-presidente do IPCC, “os primeiros balanços das políticas nacionais mostram que, globalmente, estamos abaixo dos engajamentos assumidos em Paris. E sem os EUA, será muito difícil pedir aos outros países que aumentem suas ambições. (…) Para manter alguma chance de permanecer abaixo dos 2o C é necessário que o pico das emissões seja atingido no mais tardar em 2020” (XIX).

Não há que se preocupar. Faltam ainda mais de dois anos…

 

[I] Citado em Anmar Frangoul, “IMF’s Lagarde: If nothing is done about climate change, we will be ‘toasted, roasted and grilled’.” CNBC, 25/X/2017: “As I’ve said before, if we don’t do anything about climate change now, in 50 years’ time we will be toasted, roasted and grilled. (…) If we don’t address those two issues — of climate change and growing inequalities — we will be moving towards a dark 50 years from now”.

[II] Cf. Lawrence MacDonald, “IMF Chief Warns of Triple Crisis – Economic, Environment, Social – Details IMF Actions to Help on Climate”. Center for Global Development, 12/VI/2012.

[III] Cf. David Coady, Ian Parry, Louis Sears, Baoping Shang, “How Large Are Global Fossil Fuel Subsidies?”. World Development, 91, 17/III/2017. Para os autores, subsídios ocorrem: “when consumer prices are below supply costs plus environmental costs and general consumption taxes”.

[IV] Cf. Elizabeth Bast, Alex Doukas, Sam Pickard, Laurie van der Burg & Shelagh Whitley, Empty Promises. G20 Subsidies to Oil, Gas and Coal Production”, Novembro de 2015, p. 9 (em rede).

[V] Citado por Lawrence MacDonald (cit.).

[VI] Cf. Chris Berdik, “The unsung inventor of the carbon tax”. The Boston Globe, 10/VIII/2014.

[VII] Cf. Carbon Price Leadership Coalition (World Bank), Report of The High-Level Commission on Carbon Prices. 29/V/2017 (em rede).

[VIII] Cf. Leonardo Martinez-Diaz, “The IMF and Climate Change: Three Things Christine Lagarde Can Do to Cement Her Legacy on Climate”. World Resources Institute, 10/X/2017.

[IX] Cf. J. Hansen et al., “Climate Impact of Increasing Atmospheric Carbon Dioxide”. Science, 213, 4511, 28/VIII/1981.

[X] Citado por A. Frangoul (cit.).

[XI] Citado por Lisa Friedman, “Trump Team to Promote Fossil Fuels and Nuclear Power at Bonn Climate Talks”. The Washington Post, 2/XI/2017.

[XII] Cf. U.S. Energy Information Administration, Short-Term Energy Outlook, Coal, 11/X/2017 (em rede).

[XIII] Cf. Adam, Morton, “The world is going slow on coal, but misinformation is distorting the facts”. The Guardian, 16/X/2017: “More coal-fired capacity is still being built than closed each year, though the gap has narrowed significantly”.

[XIV] Cf. J.P. Hansen, P.A. Narbel, D.L. Aksnes, “Limits to growth in the renewable energy sector”. Renewable and Sustainable Energy Reviews, 70, IV/2017, pp. 769-774.

[XV] Cf. John Sharman, “US ‘forces G20 to drop any mention of climate change’ in joint statement”. The Independent, 18/III/2017.

[XVI] Cf. Mikaela Weisse & Liz Goldman, “Global Tree Cover Loss Rose 51% in 2016”, GFW, 18/X/2016.

[XVII] “Greenhouse gas concentrations surge to new record”. World Meteorological Organisation, 30/X/2017..

[XVIII] Cf. Erik Solheim, The Emissions Gap Report 2017. A UN Environment Synthesis Report, p. XIII.

[XIX] Cf. Pierre Le Hir, “Réchauffement climatique: la bataille des 2o C est presque perdue”. Le Monde, 31/XII/2017.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

A qualidade dos eletrodos descartáveis usados em eletrocardiografia (ECG)

O coração possui atividade elétrica própria que consiste na geração e transmissão de estímulos. Os distúrbios destas propriedades resultam em alterações do ritmo cardíaco ou arritmia cardíaca. Assim, o sistema de condução elétrica do coração inicia, os impulsos, no nodo sinoatrial (S-A) onde os átrios são despolarizados e o impulso se espalha através do nodo atrioventricular e do feixe de His para os ramos direito e esquerdo seguindo para o músculo ventricular resultando a despolarização ventricular.

Porém em alguns casos, por diversos motivos, esse estímulo não é gerado na frequência correta (podendo ser para mais ou para menos) ou nasce em locais não habituais. As arritmias cardíacas representam esse grupo de distúrbios do ritmo cardíaco, causando ou não sintomas e podem levar à morte.

Para medir e detectar os biopotenciais e também correntes pelo corpo, é necessária uma interface entre o corpo e o sistema eletrônico de medida. Os eletrodos usados para isso podem ser classificados pelo método de aquisição.

Os invasivos são utilizados internamente no corpo para a detecção de biopotenciais. Eles podem ser colocados abaixo da pele, conhecidos como subcutâneos, ou podem ser inseridos no corpo. Os não evasivos são utilizados para detectar biopotenciais a partir da superfície do corpo, não ocorrendo danos físicos durante a detecção dos biopotenciais.

A NBR 16628 de 09/2017 – Eletrodos descartáveis de ECG – Requisitos estabelece os requisitos mínimos para rotulagem, segurança e desempenho para eletrodos descartáveis usados para a eletrocardiografia (ECG) diagnóstica ou no monitoramento por ECG. Aplica-se a todos os sistemas de eletrodos (ver 2.9) de ECG descartáveis. Esta norma não se aplica a eletrodos ativos, eletrodos de agulha, eletrodos reutilizáveis (não descartáveis), eletrodos destinados a entregar energia terapêutica e eletrodos projetados primariamente para a medição de sinais fisiológicos diferentes do eletrocardiograma (por exemplo, eletrodos usados com monitores de apneia, se o eletrodo for utilizado para objetivos não relacionados ao ECG, por exemplo, pletismografia por impedância).

Além disso, os requisitos para a composição do eletrólito não estão abordados nesta norma. O Anexo A (informativo) apresenta as justificativas para o desenvolvimento e disposições desta norma. O Anexo B (informativo) apresenta um resumo dos requisitos de rotulagem e desempenho.

A rotulagem para os eletrodos descartáveis de ECG deve estar em conformidade com as disposições desta Seção. A rotulagem que acompanha o produto deve incluir no mínimo as seguintes informações: declaração indicando a data-limite na qual a conformidade do produto com os requisitos desta norma não pode ser assegurada (por exemplo, “utilizar antes de ______”) e o número do lote, ou uma declaração indicando a data de fabricação, a data de validade e o número de lote; precauções e advertências adequadas, incluindo os limites de duração da aplicação do eletrodo e uma indicação da vida útil fora da bolsa do produto; se o eletrodo deve ser utilizado imediatamente após a abertura da bolsa, então um aviso apropriado deve ser indicado; instruções adequadas para utilização, incluindo os procedimentos para preparação da pele e para a preparação do eletrodo se ele não for pré-gelatinizado (por exemplo, tipo e quantidade do gel); instruções para os requisitos de armazenamento, se aplicável.

Devido às limitações de espaço, particularmente nas menores embalagens/bolsas dos eletrodos de ECG, e devido à NBR ISO 15223-1 ser nacionalmente aceita, convém que os símbolos da NBR ISO 15223-1 sejam utilizados na rotulagem quando apropriados.

Os requisitos de rotulagem complementam aqueles que são obrigatórios para todos os produtos para saúde, de acordo com o Código de Regulamentações Federais, Título 21, Capítulo 1, Subcapítulo H, Seção 801 dos Estados Unidos. Os requisitos adicionais de rotulagem fornecidos pela ANSI/AAMI EC 12, conforme descritos a seguir, abordam as informações específicas necessárias na utilização segura dos eletrodos de ECG.

Requer que a rotulagem inclua as informações necessárias para identificar e rastrear adequadamente o produto, para segregar os problemas do produto e para garantir que o usuário esteja ciente do tempo pelo qual o produto pode ser armazenado e ainda manter o desempenho satisfatório. Foi desenvolvido para minimizar a possibilidade do paciente se lesionar com o uso prolongado do eletrodo.

Houve muitos aperfeiçoamentos no produto e na embalagem ao longo dos últimos dez anos que aumentaram a vida útil fora da bolsa dos eletrodos. Por exemplo, existem sacos resseláveis que são utilizados para manter o alimento fresco após a abertura da embalagem. Se o usuário final seguir as instruções do fabricante sobre a resselagem, a vida útil do produto pode ser prolongada.

Sobre os eletrodos em si, novos projetos e aperfeiçoamentos tornam possível manter as características de desempenho por um intervalo de tempo após a abertura da embalagem (em alguns casos, de até semanas). Isto é especialmente verdadeiro para algumas das chamadas embalagens a granel, em que o fabricante pode ter 25, 30 ou até mesmo 50 eletrodos em uma embalagem unitária (ou bolsa).

Se o fabricante fizer o ensaio adequado e satisfizer aos requisitos que possam existir (por exemplo, BPF ou FDA), será um benefício ao usuário final saber que ele não tem que usar o produto “imediatamente” após a abertura da embalagem unitária. Verificar as justificativas para os requisitos da ANSI/AAMI EC12 descritas.

O produto deve ser fabricado e embalado de modo que todos os requisitos desta norma sejam atendidos até a data de validade especificada pelo fabricante de acordo com 3.1 a), nas condições de armazenamento recomendadas pelo fabricante de acordo com 3.1 d). O valor médio da impedância de 10 Hz para pelo menos 12 pares de eletrodos conectados gel a gel, em um nível de corrente impressa de até 100 μA de pico a pico (p-p), não pode exceder 2 kΩ.

Nenhuma das impedâncias dos pares individuais pode exceder 3 kΩ. Após um intervalo de estabilização de 1 min, um par de eletrodos conectados gel a gel não pode exibir uma tensão de offset cc maior que 100 mV. Instabilidade da tensão de offset cc e ruído interno combinados. Após um intervalo de estabilização de 1 min, um par de eletrodos conectados gel a gel não pode gerar uma tensão maior que 150 μV p-p na banda de passagem (resposta em frequência de primeira ordem) de 0,15 Hz a 100 Hz, por um intervalo de 5 min seguinte ao intervalo de estabilização.

Cinco segundos após as descargas de cada um dos quatro capacitores, o valor absoluto do potencial de polarização de um par de eletrodos conectados gel a gel não pode exceder 100 mV. A sobrecarga do capacitor de descarga deve consistir de um capacitor de 10 μF carregado a 200 V e descarregado através do par de eletrodos com 100 Ω em série. Durante o intervalo de 30 s após cada medição do potencial de polarização, a taxa de mudança do potencial de polarização residual não pode ser maior que +/- 1 mV/s.

Após o par de eletrodos ter sido ensaiado para conformidade com este requisito, a impedância de 10 Hz do par de eletrodos não pode exceder 3 kΩ. A mudança observada na tensão de offset cc através de um par de eletrodos conectados gel a gel não pode exceder 100 mV quando o par de eletrodos estiver sujeito a uma corrente contínua cc de 200 nA pelo intervalo de tempo recomendado pelo fabricante para a utilização clínica dos eletrodos. Em nenhum caso, este intervalo de tempo deve ser menor que 8 h.

O produto deve ser biocompatível. Para esta aplicação (isto é, um eletrodo em contato com a pele), a biocompatibilidade requer a avaliação da citotoxicidade, da irritação da pele, além da sensibilização da pele ou reatividade intracutânea. Eletrodos com fios condutores pré-conectados (conectados permanentemente) devem ser construídos de maneira que o conector do fio condutor utilizado para fixá-lo ao cabo-tronco do instrumento não possa entrar em contato com o aterramento ou com um potencial possivelmente perigoso.

Em particular, este conector deve ser construído para prevenir o contato condutivo com uma tomada de rede elétrica ou com um cabo de energia destacável. Convém que a ANSI/AAMI EC53 seja analisada e considerada no processo do projeto e fabricação dos eletrodos de ECG com fios condutores pré-conectados. Convém que o desempenho adesivo do eletrodo atenda às alegações ou aplicações indicadas pelo fabricante, já que ele tem impacto sobre a duração do uso.

Por exemplo, para um eletrocardiograma em repouso de curta duração, convém que o adesivo seja capaz de manter o contato com o corpo pelo intervalo de tempo normalmente associado com este procedimento; uma projeção seria entre 5 min e 30 min. Por outro lado, monitorações de longa duração podem requerer que o eletrodo permaneça no paciente por um intervalo de dias, dependendo do protocolo do hospital.

Portanto, convém que um adesivo a ser utilizado em um eletrodo de ECG tenha características de desempenho que atendam ao uso pretendido do produto. Uma corrente cc de 200 nA deve ser aplicada a um par de eletrodos conectados gel a gel, utilizando-se uma fonte de corrente que consista de uma fonte de tensão de pelo menos 2 V conectada em série com um resistor de ajuste de corrente adequado.

Convém que o potencial através do par de eletrodos seja monitorado com um voltímetro cc com uma impedância mínima de entrada de 10 MΩ, uma resolução de 5 mV ou melhor, e uma corrente de polarização de entrada menor que 10 nA. Convém que a tensão diferencial através dos eletrodos seja medida pelo menos uma vez por hora ao longo do intervalo de observação. Convém que a tensão de offset cc inicial seja medida dentro de 1 min a 5 min após juntarem-se os eletrodos e antes da corrente de polarização ser aplicada.

A mudança na tensão de offset cc causada pela corrente de polarização aplicada deve ser então medida com relação à tensão de offset cc inicial. Convém que o desempenho do adesivo seja tal que o eletrodo permaneça preso à pele pela aplicação/duração indicada pelo fabricante fornecendo, ao mesmo tempo, um eletrocardiograma aceitável. O ensaio vai requerer um grupo mínimo de voluntários de cinco mulheres e cinco homens.

Para avaliar o desempenho do adesivo de um eletrodo, convém que cada voluntário tenha quatro eletrodos colocados sobre o corpo e convém que o posicionamento dos eletrodos permita que um eletrocardiograma seja obtido. Convém que a pele de cada voluntário seja preparada de acordo com as instruções do fabricante, conforme descrito no rótulo. Convém que os eletrodos sejam mantidos pela duração do uso divulgado pelo fabricante. Por exemplo, se o fabricante declarar uma duração de uso de cinco dias, os voluntários devem usar o produto por no mínimo cinco dias. Convém que seja obtido um traço de ECG na colocação inicial e no término do estudo. Convém que os traços sejam documentados de forma apropriada.

Em geral, devido aos diferentes tipos de pele, condições da pele e fatores ambientais, convém que o desempenho geral aceitável de um sistema adesivo seja determinado pela média dos dez voluntários. Por exemplo, se dois voluntários tiverem queda de eletrodos após cinco dias, três voluntários tiverem queda de eletrodos após seis dias e os demais voluntários tiverem queda de eletrodos após sete dias, o tempo médio de uso seria de 6,3 dias para o grupo de voluntários. O fabricante seria capaz de indicar que o tempo de uso, em média, é de seis dias. Este método de ensaio não é aplicável aos eletrodos projetados para utilização em pacientes neonatos e pediátricos.

A qualidade das rodovias nacionais

A Confederação Nacional dos Transportes publicou a 21ª edição da Pesquisa de Rodovias que avaliou 105.814 km de rodovias, um acréscimo de 2.555 km (+2,5%) em relação a 2016. Foi percorrida toda a extensão pavimentada das rodovias federais e das principais rodovias estaduais do país.

Neste ano, a pesquisa constatou uma queda na qualidade do estado geral das rodovias pesquisadas. A classificação regular, ruim ou péssima atingiu 61,8%, enquanto em 2016 esse índice era de 58,2%. Em 2017, 38,2% das rodovias foram consideradas em bom ou ótimo estado, enquanto um ano atrás esse percentual era de 41,8%.

A sinalização foi o aspecto que mais se deteriorou. Em 2017, o percentual da extensão de rodovias com sinalização ótima ou boa caiu para 40,8%, enquanto no ano passado 48,3% haviam atingido esse patamar. Neste ano, a maior parte da sinalização (59,2%) foi considerada regular, ruim ou péssima.

Em relação à qualidade do pavimento, a pesquisa indica que metade (50,0%) apresenta qualidade regular, ruim ou péssima. Em 2016, o percentual era de 48,3%. Já a geometria da via, outro quesito avaliado pela Pesquisa CNT de Rodovias, manteve o mesmo resultado do ano passado: 77,9% da extensão das rodovias tiveram sua geometria avaliada como regular, ruim ou péssima e apenas 22,1% tiveram classificação boa ou ótima.

“A queda na qualidade das rodovias brasileiras tem relação direta com um histórico de baixos investimentos em infraestrutura rodoviária e com a crise econômica dos últimos anos”, afirma o presidente da CNT, Clésio Andrade. Segundo ele, a drástica redução dos investimentos públicos federais a partir de 2011 levou a um agravamento da situação das rodovias.

Em 2011, os investimentos públicos federais em infraestrutura rodoviária foram de R$ 11,21 bilhões; em 2016, o volume investido praticamente retrocedeu ao nível de 2008, caindo para R$ 8,61 bilhões. Este ano, até o mês de junho, foram investidos apenas R$ 3,01 bilhões.

Para dotar o país de uma infraestrutura rodoviária adequada à demanda nacional, são necessários investimentos da ordem de 293,8 bilhões, segundo o Plano CNT de Transporte e Logística. Apenas para manutenção, restauração e reconstrução dos 82.959 km onde a Pesquisa CNT de Rodovias 2017 encontrou trechos desgastados, trincas em malha, remendos, afundamentos, ondulações, buracos ou pavimentos totalmente destruídos são necessários R$ 51,5 bilhões.

Esse problema gerou 96.362 acidentes, com 6.398 óbitos, registrados em 2016, nas rodovias federais policiadas, resultaram em um custo de R$ 10,88 bilhões para o país. Esse valor é superior ao investimento feito em rodovias no ano passado, que foi de R$ 8,61 bilhões.

Estima-se que, apenas em 2017, o setor de transporte tenha um consumo desnecessário de 832,30 milhões de litros de diesel. Esse desperdício custará R$ 2,54 bilhões aos transportadores. O cálculo é feito com base nas inadequações encontradas no pavimento.

A 21ª edição da Pesquisa CNT de Rodovias foi realizada em 30 dias, por 24 equipes de pesquisadores, com cinco equipes de checagem. Além da avaliação do estado geral, do pavimento, da sinalização e da geometria da via, a pesquisa traz informações sobre infraestruturas de apoio, como postos policiais, postos de abastecimento, borracharias, concessionárias e oficinas de caminhões ou ônibus, restaurantes e lanchonetes.

A atual trajetória de colapso socioambiental é incontestável

Luiz Marques

Pensamento qualitativo e pensamento quantitativo são estratégias mentais essencialmente diferentes. De nada vale, diante de um quadro, medir a tela ou inventariar o número de pessoas e objetos representados. A abordagem quantitativa permanece externa à obra e sua interpretação não é e não se pretende científica. Ela é validada, para usar o termo consagrado por Berenson, pelo “senso de qualidade” do intérprete, o qual decorre de uma sensibilidade historicamente informada e, sobretudo, educada por um longo convívio comparativo com muitos objetos artísticos (I). Ao afirmar que a obra de arte é sempre um fenômeno “deliciosamente relativo”, ou seja, que ela se afirma na relação, antes de mais nada, com outra obra de arte, Roberto Longhi dizia algo semelhante (II).

A intenção do parágrafo precedente não é relembrar a tripartição transcendental entre o belo, o justo e o verdadeiro, mas sublinhar, por oposição ao juízo estético, a especificidade do saber científico sobre a natureza. Desde Pitágoras e Platão, o pensamento grego, e depois ocidental, traçou o destino de nossa relação epistemológica com a natureza ao optar pela transfiguração da qualidade em quantidade, seja por intermédio de uma metafísica do número e das formas geométricas, seja, modernamente, pela mensuração dos parâmetros que indicam o comportamento dos fenômenos. Essa matematização do mundo foi, como é sabido, formulada na aurora da ciência moderna pelo Il Saggiatore (1623) de Galileo: “a filosofia está escrita nesse grandíssimo livro, continuamente aberto aos nossos olhos (digo, o universo), mas não se pode entendê-lo se antes não se aprende a entender a língua e a conhecer os caracteres nos quais é escrito. Ele é escrito em língua matemática, e os caracteres são triângulos, círculos e outras figuras geométricas. Sem tais meios, é humanamente impossível entender algo” (III).

Contrariamente, portanto, ao “senso de qualidade”, capaz de gerar um juízo retoricamente persuasivo, mas que, como adverte ainda Berenson, “não pertence à categoria das coisas demonstráveis”, o próprio da ciência e sua ambição é a demonstração de um conjunto de proposições quantitativas que só admite contestação por outro conjunto de proposições quantitativas.

A trajetória de colapso socioambiental

Isso vale, por certo, para a mais incontornável e distintiva das proposições científicas de nosso tempo: a escala e rapidez crescentes das pressões deletérias exercidas pela lógica expansiva do capitalismo global sobre o sistema Terra coloca as sociedades humanas e a biodiversidade numa trajetória de colapso iminente. Definamos cada termo dessa proposição.

(1) O capitalismo é um sistema socioeconômico resultante da associação histórica entre: (a) um ordenamento jurídico fundado na propriedade privada do capital e (b) a racionalidade da ação econômica dos detentores do capital, definida pela busca da máxima remuneração do investimento. A relação desses proprietários com a natureza é determinada por essa consciência intencional do mundo e é a força motriz que impele o sistema à sua contínua expansão. No capitalismo global, a propriedade do capital concentra-se nas mãos de uma “super entidade” econômica, composta por um núcleo densamente interconectado de controladores financeiros da rede de corporações multinacionais. Num artigo intitulado “The Network of Global Corporate Control”, Stefania Vitali, James Glattfelder e Stefano Battiston, do ETH Zurich, quantificaram esse controle da economia global: “737 proprietários (top holders) acumulam 80% do controle sobre o valor de todas as corporações multinacionais” (IV).

(2) Define-se sistema Terra, não como uma ainda controversa “hipótese Gaia”, mas como o conjunto das interações mensuráveis entre a atmosfera, a biosfera, a geosfera, a pedosfera, a hidrosfera e a criosfera, interações decisivamente afetadas nos últimos decênios pela interferência antrópica (V).

(3) Por colapso socioambiental, deve-se entender uma transição abrupta para outro estado de equilíbrio do sistema Terra, estado cujo grau de alteridade em relação aos parâmetros do Holoceno é ainda incerto, mas que deve implicar com toda a probabilidade escassez hídrica, desestabilização climática e um aquecimento médio global não inferior a 3º C. Esse nível de aquecimento médio global arremessará as sociedades humanas a abismos de fome, insalubridade, violência, precariedade e mortalidade, condenando ao mesmo tempo à extinção um número imenso de outras espécies em todos os ecossistemas do planeta.

(4) Por iminente, enfim, deve-se entender um horizonte de tempo não posterior à segunda metade do século, sem excluir mudanças decisivas já nos próximos dois decênios.

A proposição de que estamos numa trajetória de colapso socioambiental iminente alicerça-se em conhecimento cumulativo. Dados, monitoramentos conduzidos ao longo de decênios, modelos estatísticos e projeções confirmadas pela observação convergem para conferir a essa proposição uma incerteza cada vez menor e constituem hoje, por certo, um dos mais consolidados consensos científicos da história do saber sobre a natureza e sobre nossa interação destrutiva e autodestrutiva com ela.

A respeito dessa proposição gravíssima, a comunidade científica tem lançado “alertas vermelhos” recorrentes, cuja linguagem não pode ser acusada de eufemismo. Lembremos os mais recentes em ordem cronológica. Em 1992, por ocasião da ECO-92 no Rio de Janeiro, 1.700 cientistas publicaram a “Advertência dos Cientistas do Mundo à Humanidade”, na qual reafirmavam claramente a iminência desse colapso:

“Não mais que uma ou poucas décadas restam antes que a chance de evitar as ameaças atuais seja perdida, diminuindo incomensuravelmente as perspectivas da humanidade”.

Em 2007, essa iminência era reiterada pelo quarto relatório do IPCC, o mais importante coletivo de pesquisadores das mudanças climáticas (VI):

“Qualquer meta de estabilização das concentrações de CO2 acima de 450 ppm [partes por milhão] tem uma probabilidade significativa de desencadear um evento climático de larga escala”. 

Note-se que em 2013 ultrapassamos 400 ppm e em abril de 2017 (VII) o Observatório de Mauna Loa, no Havaí, registrou pela primeira vez concentrações atmosféricas de 410 ppm de CO2, como mostra a Figura 1.

Clique nas figuras para uma melhor visualização

Figura 1: Concentrações atmosféricas de CO2 em partes por milhão (ppm) de 1700 a abril de 2017.  A linha mais grossa indica as mensurações no topo do monte Mauna Loa, Havaí, iniciadas em 1958 (Curva de Keeling) | Fonte: National Oceanic and Atmospheric Administration (NOAA)

No período mostrado por esse gráfico (1700 – 2017), houve aumento de quase 50% nessas concentrações, com uma inequívoca aceleração desse processo no século XXI, como mostra detalhadamente a Figura 2.

 

Figura 2 – Taxas de crescimento das concentrações atmosféricas de CO2 em Mauna Loa, Havaí (1960 – 2016). Fonte: National Oceanic and Atmospherica Administration, NOAA, EUA.

Entre 1960 e 1997, houve apenas quatro aumentos anuais superiores a 2 ppm e nenhum superior a 2,5 ppm. Mas entre 1998 e 2016 registraram-se onze aumentos anuais superiores a 2 ppm e seis aumentos anuais superiores a 2,5 ppm, com três recordes batidos desde 1998: 2,93 ppm (1998); 3,03 ppm (2015) e 2,77 ppm (2016). E desde 2010, enfim, registrou-se apenas um aumento anual inferior a 2 ppm. Mantido um aumento médio futuro de 2,5 ppm/ano, atingiremos os temidos 450 ppm já em 2033, após os quais, como afirma o IPCC, aumentam as probabilidades de “se desencadear um evento climático de larga escala”.

Em 2013, outro alerta, intitulado “Consenso Científico sobre a Manutenção dos Sistemas de Suporte da Vida da Humanidade no século XXI”, assinado por mais de três mil cientistas, alertava mais uma vez para a iminência de um colapso socioambiental (VIII):

“A Terra está rapidamente se aproximando de um ponto crítico. Os impactos humanos estão causando níveis alarmantes de dano ao nosso planeta. Como cientistas que estudamos a interação dos humanos com o resto da biosfera, usando uma ampla gama de abordagens, concordamos ser esmagadora a evidência de que os humanos estão degradando os sistemas de sustentação da vida. (…) Quando as crianças de hoje atingirem a meia-idade é extremamente provável que os sistemas de sustentação da vida terão sido irremediavelmente danificados pela magnitude, extensão global e combinação desses estressores causados pelos humanos [desequilíbrios climáticos, extinções, perda generalizada de diversos ecossistemas, poluição, crescimento populacional e padrões de consumo], a menos que tomemos ações imediatas para assegurar um futuro sustentável e de alta qualidade. Como membros da comunidade científica ativamente envolvidos em avaliar os impactos biológicos e sociais das mudanças globais, estamos disparando esse alarme”.

Há dois meses, enfim, oito cientistas reavaliaram o apelo de 1992 e lançaram a “Advertência dos Cientistas do Mundo à Humanidade – Segundo Aviso” (IX):

Desde 1992, com exceção da estabilização da camada de ozônio estratosférico, a humanidade fracassou em fazer progressos suficientes na resolução geral desses desafios ambientais anunciados, sendo que a maioria deles está piorando de forma alarmante. Especialmente perturbadora é a trajetória atual das mudanças climáticas potencialmente catastróficas, devidas ao aumento dos gases de efeito estufa emitidos pela queima de combustíveis fósseis, desmatamento e produção agropecuária – particularmente do gado ruminante para consumo de carne. Além disso, desencadeamos um evento de extinção em massa, o sexto em cerca de 540 milhões de anos, no âmbito do qual muitas formas de vida atuais podem ser aniquiladas ou, ao menos, condenadas à extinção até o final deste século.

A resposta da comunidade científica a esse “Segundo Aviso” foi extraordinariamente vigorosa. Ele conta hoje com mais de 15 mil assinaturas de pesquisadores e cientistas de 180 países, entre as quais as de James Hansen, ex-diretor do Goddard Institute for Space Studies (NASA – GISS, Columbia University); de Matthew Hansen, do MODIS Land Science Team (NASA); de Will Steffen e Thomas Hahn (IPBES), ambos do Stockholm Resilience Centre; de Stefan Rahmstorf, diretor do Potsdam Institute for Climate Impact Research; de Daniel Pauly, diretor do The Sea Around Us (British Columbia University); de Jan Zalasiewicz, do Anthropocene Working Group (Subcomissão da Estratigrafia do Quaternário); e de Paul Ehrlich e Edward O. Wilson, de sete laureados com o Prêmio Nobel e de pesquisadores de todas as áreas das principais universidades brasileiras e do mundo todo.

É claro que há ainda muitas incertezas acerca da evolução do sistema Terra, mas essas incertezas estão diminuindo e são, sobretudo, de segunda ordem. A proposição central da ciência de que o aumento da interferência antrópica no sistema Terra está nos conduzindo a um colapso socioambiental iminente constitui o conteúdo comum de todos os alertas emitidos pelos coletivos de cientistas acima citados. A menos que se negue frontalmente esse consenso ou que se avancem elementos contrários quantitativamente relevantes, essa proposição mostra-se incontestável e as atuais tentativas de contestá-la não pertencem ao âmbito da ciência.

Bloqueio psicológico e bloqueio epistemológico

Isso posto, os fatos e alertas científicos chocam-se contra a barreira do negacionismo fomentado pelas corporações ou são metabolizados e neutralizados por um bloqueio ao mesmo tempo psicológico e epistemológico da maior parte das pessoas, inclusive entre as mais escolarizadas. O bloqueio psicológico oferece o último refúgio a um otimismo não substanciado por dados relevantes. Ele é bem compreensível, haja vista o teor da mensagem. O bloqueio epistemológico radica na necessidade de sustentar a hipótese de que o capitalismo global pode avançar, inclusive rapidamente, nas duas direções básicas requeridas pela ciência:

(1) reduzir a zero as emissões de carbono nos próximos dois decênios através de mecanismos indutores próprios do mercado (fim dos subsídios aos combustíveis fósseis, taxa carbono etc);

(2) honrar os compromissos assumidos nos acordos diplomáticos, tais como o Protocolo de Kyoto, as 20 Metas de Aichi (Aichi Biodiversity Targets) (X), o Acordo de Paris, etc.

As evidências contra essa hipótese de um capitalismo tendente ao “sustentável” são acachapantes. As emissões e concentrações atmosféricas de carbono não estão se estabilizando e não devem parar de aumentar nos dois próximos decênios. O Protocolo de Kyoto e as Metas de Aichi para 2020 fracassaram e os prognósticos para o Acordo de Paris são os piores possíveis, como demonstrado por um artigo publicado na Nature em agosto último, e já comentado nesta coluna (XI).

As emissões de GEE continuam aumentando

Uma viga mestra desse bloqueio epistemológico é a afirmação de que as emissões globais de GEE estão se estabilizando. Há de fato tendência à estabilização nas emissões relativas à produção de energia, por causa, sobretudo, da maior disponibilidade e competitividade do gás natural, o que gerou em 2016 diminuição de 1,7% no consumo global de carvão (-53 mtoe) em relação ao ano anterior, e isso pelo segundo ano consecutivo (XII). Eis os últimos dados de consumo de combustíveis fósseis em milhões de toneladas de energia equivalente ao petróleo (mtoe):

Fonte: BP Statistical Review of World Energy. Junho de 2017 (em rede).

Mas os últimos dados da Emission Database for Global Atmospheric Research (EDGAR) mostram que as emissões de GEE como um todo continuam a aumentar, atingindo 53,4 GtCO2-eq em 2016, como certifica a Figura 3

Figura 3 – Emissões globais de Gases de Efeito Estufa (GEE) entre 1990 e 2016. | Fonte: Emission Database for Global Atmospheric Research (EDGAR)

É significativo que um eminente representante desse bloqueio epistemológico, Lord Nicholas Stern, Presidente da British Academy, tenha visto na figura acima motivo para comemorar: “Esses resultados são uma bem-vinda indicação de que estamos nos aproximando do pico das emissões anuais de gases de efeito estufa” (XIII). Esse comentário de Stern lembra as peripécias pré-copernicanas do geocentrismo ptolomaico. Lá se tratava de “salvar” a hipótese geocêntrica. Aqui, de “salvar” a hipótese de que o capitalismo pode no limite nos desviar do colapso socioambiental. Pois esse gráfico simplesmente não mostra estabilização. Ele diz alto e bom som que em 2010 o mundo emitiu 50 GtCO2-eq e que houve em 2016 aumento dessas emissões da ordem de 7%. Definitivamente não há motivo para considerar tal aumento bem-vindo. Ele diz ainda, para concluir, três coisas extremamente importantes:

(1) Dados os esforços de Trump para reabilitar o carvão, é ainda prematuro afirmar que a tendente estabilização das emissões de CO2 relacionadas à produção de energia anuncie uma sucessiva diminuição. Aqui há motivo para alguma esperança, mas o maior problema é que essas emissões ligadas à produção de energia correspondem a apenas 60% dos GEE (~32 GtCO2-eq).

(2) 19% das emissões de GEE em 2016 provieram do metano, com grande contribuição da atividade entérica e dos resíduos dos ruminantes, cujo rebanho aumentou 20,5% entre 1992 e 2016, atingindo agora quase quatro bilhões de cabeças (XIV).

(3) O fator que mais empurrou a curva das emissões para cima (mancha cinza no topo do gráfico) foi a liberação de GEE pela agricultura, pelo desmatamento e pelos incêndios das florestas e das turfeiras (Land Use, Land Use change and Forestry, LULUCF).

Os pontos 2 e 3 mostram, mais uma vez, que o irmão gêmeo do Big Oil é o Big Food (inclusive para alimentar os animais que comemos) e que não nos desviaremos da trajetória de colapso ambiental sem uma profunda revisão do nosso sistema alimentar, transformado em commodities,  baseado no comércio global e em proteínas animais.

Referências

[I] Cf. Bernard Berenson, The sense of qualityStudy and Criticism of Italian Art (1901), Nova York, 1962.

[II] Roberto Longhi, “Proposte per una critica d’arte”. Paragone, 1, 1950: “L’opera d’arte, dal vaso dell’artigiano greco alla volta Sistina, è sempre un capolavoro squisitamente relativo. L’opera non sta mai da sola. È sempre un rapporto. Per cominciare: almeno un rapporto con un’altra opera d’arte”. Em 1923, num pequeno texto provocador, Le Problème des Musées, Paul Valéry antecipava esse paradoxo longhiano entre a singularidade do termo “obra-prima” e seu caráter relativo. Para Valéry, as obras de arte dispostas nas galerias de um museu: “quanto mais belas, quanto mais efeitos excepcionais da ambição humana, mais devem ser distintas. São objetos raros e seus autores bem gostariam que fossem únicas”.

[III] Cf. Alexandre Koyré, “Galilée et Platon” (1943). Études d’histoire de la pensée scientifique, Paris, 1973, pp. 166-195.

[IV] Cf. S. Vitali, J. B. Glattfelder, S. Battiston, “The Network of Global Corporate Control” Plos One, 26/X/2011: “We find that only 737 top holders accumulate 80% of the control over the value of all TNCs (Transnational Corporations) (…). A large portion of control flows to a small tightly-knit core of financial institutions. This core can be seen as an economic ‘super-entity’”.

[V] A ciência que estuda o comportamento desse conjunto extremamente complexo de interações, chamada ciência do sistema Terra (Earth system science), não se concebe como uma disciplina a mais entre outras, mas como uma nova relação entre ciências humanas e ciências da natureza, de resto impreterível na nova época geológico-cultural a que se dá o nome Antropoceno.

[VI] IPCC AR4 (2007) Working Group II: Impacts, Adaptation and Vulnerability: “Any CO2 stabilisation target above 450 ppm is associated with a significant probability of triggering a large-scale climatic event”.

[VII] Cf. Brian Kahn, “We Just Breached the 410 PPM Threshold for CO2. Carbon dioxide has not reached this height in millions of years”. Scientific American, 21/IV/2017.

[VIII] Scientific Consensus on Maintaining Humanity’s Life Support Systems in the 21st Century: “Earth is rapidly approaching a tipping point. Human impacts are causing alarming levels of harm to our planet. As scientists who study the interaction of people with the rest of the biosphere using a wide range of approaches, we agree that the evidence that humans are damaging their ecological life-support systems is overwhelming. We further agree that, based on the best scientific information available, human quality of life will suffer substantial degradation by the year 2050 if we continue on our current path. By the time today’s children reach middle age, it is extremely likely that Earth’s life-support systems, critical for human prosperity and existence, will be irretrievably damaged by the magnitude, global extent, and combination of these human-caused environmental stressors [, unless we take concrete, immediate actions to ensure a sustainable, high-quality future. As members of the scientific community actively involved in assessing the biological and societal impacts of global change, we are sounding this alarm to the world”.

[IX] Cf. William J. Ripple, Christopher Wolf, Mauro Galetti, Thomas M Newsome, Mohammed Alamgir, Eileen Crist, Mahmoud I. Mahmoud, William F. Laurance, “World Scientists’ Warning to Humanity: A Second Notice”. O manifesto será proximamente publicado na revista Bioscience.

[X] Essas 20 metas subdividem-se em 56 objetivos e são agrupadas em 5 grandes estratégias para a conservação da biodiversidade entre 2011 e 2020. Veja-se http://www.cbd.int/sp/targets/.

[XI] Cf. David G. Victo, Keigo Akimoto, Yoichi Kaya, Mitsutsune Yamaguchi, Danny Cullenward & Cameron Hepburn, “Prove Paris was more than paper promises”, Nature, 548, 1/VIII/2017:  “No major advanced industrialized country is on track to meet its pledges to control the greenhouse-gas emissions that cause climate change. Wishful thinking and bravado are eclipsing reality”. Veja-se “Esperanças científicas e fatos políticos básicos sobre o Acordo de Paris”. Jornal da Unicamp, 25/IX/2017

[XII] Cf. BP Statistical Review of World Energy. Junho de 2017 (em rede).

[XIII] Citado por Damian Carrington, “Global carbon emissions stood still in 2016, offering climate hope”. The Guardian, 28/IX/2017: “These results are a welcome indication that we are nearing the peak in global annual emissions of greenhouse gases”.

[XIV] Veja-se esse dado em William J. Ripple, Christopher Wolf, Mauro Galetti, Thomas M Newsome, Mohammed Alamgir, Eileen Crist, Mahmoud I. Mahmoud, William F. Laurance, “World Scientists’ Warning to Humanity: A Second Notice”.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

 

Investimento sustentável

O Target Genius Respostas Diretas é o mais avançado e inovador sistema de perguntas e respostas sobre requisitos de normas técnicas. É, basicamente, um conjunto de perguntas mais comuns sobre determinados assuntos das normas técnicas, acompanhadas das respectivas respostas. Definitivamente, a solução para as dúvidas sobre normas técnicas. Selecione o Comitê Técnico desejado e clique sobre o código ou título para consultar. Acesse o link https://www.target.com.br/produtos/genius-respostas-diretas

Luiz Gonzaga Bertelli

Existe uma grande distorção na destinação dos recursos que o Brasil emprega na educação. Enquanto o país é um dos que menos gasta com os alunos do ensino fundamental e médio, as despesas com estudantes universitários se assemelham às nações desenvolvidas da Europa, segundo levantamento da Organização para a Cooperação e Desenvolvimento Econômico (OCDE). No estudo Olhar sobre a Educação, a organização analisou os sistemas educacionais de 45 nações, entre elas, países desenvolvidos e economias emergentes como China, Argentina e África do Sul.

O Brasil gasta anualmente US$ 3,8 mil por aluno até a 5.ª série do ensino fundamental. A quantia representa menos da metade dos recursos empregados pelos europeus, que tem como média US$ 8,7 mil de investimentos. Para efeito de comparação, Luxemburgo, o primeiro país do ranking, tem gastos em torno de US$ 21 mil para a mesma faixa. Das nações analisadas, apenas seis gastam menos que o Brasil, entre elas, Argentina, Colômbia e Indonésia.

Já no caso do ensino superior, a situação é bem diferente.  Os gastos brasileiros superam os US$ 11 mil por aluno – o que representa mais que o triplo das despesas com ensino fundamental.  Com o valor, o Brasil chega perto de países como Portugal e Espanha, que têm custos em torno de U$ 12 mil. A média de gastos dos países da OCDE é de US$ 16 mil por aluno da graduação. Apesar do aporte financeiro que dá ao ensino superior, o Brasil tem um dos índices mais baixos de jovens entre 25 e 34 anos com diploma universitário.

O fato é que nos últimos anos houve um aumento de investimentos públicos na educação, mas os resultados ainda são pífios, principalmente em relação à melhoria do aprendizado ou à qualidade do ensino. O Brasil continua entre os últimos colocados nas avaliações internacionais que medem conhecimentos de estudantes.

Apesar do maior acesso à educação, com a inclusão de estudantes menos favorecidos no ciclo escolar, o atraso na aprendizagem tem puxado o desempenho para baixo. Por isso, a importância de se investir em infraestrutura nas escolas, na formação e salário de professores e em um ensino fundamental e médio mais eficiente. Investir em educação é a única garantia de desenvolvimento sustentável para o país.

Luiz Gonzaga Bertelli é presidente do Conselho de Administração do CIEE, do Conselho Diretor do CIEE Nacional e da Academia Paulista de História (APH).