A qualidade das rodovias nacionais

A Confederação Nacional dos Transportes publicou a 21ª edição da Pesquisa de Rodovias que avaliou 105.814 km de rodovias, um acréscimo de 2.555 km (+2,5%) em relação a 2016. Foi percorrida toda a extensão pavimentada das rodovias federais e das principais rodovias estaduais do país.

Neste ano, a pesquisa constatou uma queda na qualidade do estado geral das rodovias pesquisadas. A classificação regular, ruim ou péssima atingiu 61,8%, enquanto em 2016 esse índice era de 58,2%. Em 2017, 38,2% das rodovias foram consideradas em bom ou ótimo estado, enquanto um ano atrás esse percentual era de 41,8%.

A sinalização foi o aspecto que mais se deteriorou. Em 2017, o percentual da extensão de rodovias com sinalização ótima ou boa caiu para 40,8%, enquanto no ano passado 48,3% haviam atingido esse patamar. Neste ano, a maior parte da sinalização (59,2%) foi considerada regular, ruim ou péssima.

Em relação à qualidade do pavimento, a pesquisa indica que metade (50,0%) apresenta qualidade regular, ruim ou péssima. Em 2016, o percentual era de 48,3%. Já a geometria da via, outro quesito avaliado pela Pesquisa CNT de Rodovias, manteve o mesmo resultado do ano passado: 77,9% da extensão das rodovias tiveram sua geometria avaliada como regular, ruim ou péssima e apenas 22,1% tiveram classificação boa ou ótima.

“A queda na qualidade das rodovias brasileiras tem relação direta com um histórico de baixos investimentos em infraestrutura rodoviária e com a crise econômica dos últimos anos”, afirma o presidente da CNT, Clésio Andrade. Segundo ele, a drástica redução dos investimentos públicos federais a partir de 2011 levou a um agravamento da situação das rodovias.

Em 2011, os investimentos públicos federais em infraestrutura rodoviária foram de R$ 11,21 bilhões; em 2016, o volume investido praticamente retrocedeu ao nível de 2008, caindo para R$ 8,61 bilhões. Este ano, até o mês de junho, foram investidos apenas R$ 3,01 bilhões.

Para dotar o país de uma infraestrutura rodoviária adequada à demanda nacional, são necessários investimentos da ordem de 293,8 bilhões, segundo o Plano CNT de Transporte e Logística. Apenas para manutenção, restauração e reconstrução dos 82.959 km onde a Pesquisa CNT de Rodovias 2017 encontrou trechos desgastados, trincas em malha, remendos, afundamentos, ondulações, buracos ou pavimentos totalmente destruídos são necessários R$ 51,5 bilhões.

Esse problema gerou 96.362 acidentes, com 6.398 óbitos, registrados em 2016, nas rodovias federais policiadas, resultaram em um custo de R$ 10,88 bilhões para o país. Esse valor é superior ao investimento feito em rodovias no ano passado, que foi de R$ 8,61 bilhões.

Estima-se que, apenas em 2017, o setor de transporte tenha um consumo desnecessário de 832,30 milhões de litros de diesel. Esse desperdício custará R$ 2,54 bilhões aos transportadores. O cálculo é feito com base nas inadequações encontradas no pavimento.

A 21ª edição da Pesquisa CNT de Rodovias foi realizada em 30 dias, por 24 equipes de pesquisadores, com cinco equipes de checagem. Além da avaliação do estado geral, do pavimento, da sinalização e da geometria da via, a pesquisa traz informações sobre infraestruturas de apoio, como postos policiais, postos de abastecimento, borracharias, concessionárias e oficinas de caminhões ou ônibus, restaurantes e lanchonetes.

Anúncios

A atual trajetória de colapso socioambiental é incontestável

Luiz Marques

Pensamento qualitativo e pensamento quantitativo são estratégias mentais essencialmente diferentes. De nada vale, diante de um quadro, medir a tela ou inventariar o número de pessoas e objetos representados. A abordagem quantitativa permanece externa à obra e sua interpretação não é e não se pretende científica. Ela é validada, para usar o termo consagrado por Berenson, pelo “senso de qualidade” do intérprete, o qual decorre de uma sensibilidade historicamente informada e, sobretudo, educada por um longo convívio comparativo com muitos objetos artísticos (I). Ao afirmar que a obra de arte é sempre um fenômeno “deliciosamente relativo”, ou seja, que ela se afirma na relação, antes de mais nada, com outra obra de arte, Roberto Longhi dizia algo semelhante (II).

A intenção do parágrafo precedente não é relembrar a tripartição transcendental entre o belo, o justo e o verdadeiro, mas sublinhar, por oposição ao juízo estético, a especificidade do saber científico sobre a natureza. Desde Pitágoras e Platão, o pensamento grego, e depois ocidental, traçou o destino de nossa relação epistemológica com a natureza ao optar pela transfiguração da qualidade em quantidade, seja por intermédio de uma metafísica do número e das formas geométricas, seja, modernamente, pela mensuração dos parâmetros que indicam o comportamento dos fenômenos. Essa matematização do mundo foi, como é sabido, formulada na aurora da ciência moderna pelo Il Saggiatore (1623) de Galileo: “a filosofia está escrita nesse grandíssimo livro, continuamente aberto aos nossos olhos (digo, o universo), mas não se pode entendê-lo se antes não se aprende a entender a língua e a conhecer os caracteres nos quais é escrito. Ele é escrito em língua matemática, e os caracteres são triângulos, círculos e outras figuras geométricas. Sem tais meios, é humanamente impossível entender algo” (III).

Contrariamente, portanto, ao “senso de qualidade”, capaz de gerar um juízo retoricamente persuasivo, mas que, como adverte ainda Berenson, “não pertence à categoria das coisas demonstráveis”, o próprio da ciência e sua ambição é a demonstração de um conjunto de proposições quantitativas que só admite contestação por outro conjunto de proposições quantitativas.

A trajetória de colapso socioambiental

Isso vale, por certo, para a mais incontornável e distintiva das proposições científicas de nosso tempo: a escala e rapidez crescentes das pressões deletérias exercidas pela lógica expansiva do capitalismo global sobre o sistema Terra coloca as sociedades humanas e a biodiversidade numa trajetória de colapso iminente. Definamos cada termo dessa proposição.

(1) O capitalismo é um sistema socioeconômico resultante da associação histórica entre: (a) um ordenamento jurídico fundado na propriedade privada do capital e (b) a racionalidade da ação econômica dos detentores do capital, definida pela busca da máxima remuneração do investimento. A relação desses proprietários com a natureza é determinada por essa consciência intencional do mundo e é a força motriz que impele o sistema à sua contínua expansão. No capitalismo global, a propriedade do capital concentra-se nas mãos de uma “super entidade” econômica, composta por um núcleo densamente interconectado de controladores financeiros da rede de corporações multinacionais. Num artigo intitulado “The Network of Global Corporate Control”, Stefania Vitali, James Glattfelder e Stefano Battiston, do ETH Zurich, quantificaram esse controle da economia global: “737 proprietários (top holders) acumulam 80% do controle sobre o valor de todas as corporações multinacionais” (IV).

(2) Define-se sistema Terra, não como uma ainda controversa “hipótese Gaia”, mas como o conjunto das interações mensuráveis entre a atmosfera, a biosfera, a geosfera, a pedosfera, a hidrosfera e a criosfera, interações decisivamente afetadas nos últimos decênios pela interferência antrópica (V).

(3) Por colapso socioambiental, deve-se entender uma transição abrupta para outro estado de equilíbrio do sistema Terra, estado cujo grau de alteridade em relação aos parâmetros do Holoceno é ainda incerto, mas que deve implicar com toda a probabilidade escassez hídrica, desestabilização climática e um aquecimento médio global não inferior a 3º C. Esse nível de aquecimento médio global arremessará as sociedades humanas a abismos de fome, insalubridade, violência, precariedade e mortalidade, condenando ao mesmo tempo à extinção um número imenso de outras espécies em todos os ecossistemas do planeta.

(4) Por iminente, enfim, deve-se entender um horizonte de tempo não posterior à segunda metade do século, sem excluir mudanças decisivas já nos próximos dois decênios.

A proposição de que estamos numa trajetória de colapso socioambiental iminente alicerça-se em conhecimento cumulativo. Dados, monitoramentos conduzidos ao longo de decênios, modelos estatísticos e projeções confirmadas pela observação convergem para conferir a essa proposição uma incerteza cada vez menor e constituem hoje, por certo, um dos mais consolidados consensos científicos da história do saber sobre a natureza e sobre nossa interação destrutiva e autodestrutiva com ela.

A respeito dessa proposição gravíssima, a comunidade científica tem lançado “alertas vermelhos” recorrentes, cuja linguagem não pode ser acusada de eufemismo. Lembremos os mais recentes em ordem cronológica. Em 1992, por ocasião da ECO-92 no Rio de Janeiro, 1.700 cientistas publicaram a “Advertência dos Cientistas do Mundo à Humanidade”, na qual reafirmavam claramente a iminência desse colapso:

“Não mais que uma ou poucas décadas restam antes que a chance de evitar as ameaças atuais seja perdida, diminuindo incomensuravelmente as perspectivas da humanidade”.

Em 2007, essa iminência era reiterada pelo quarto relatório do IPCC, o mais importante coletivo de pesquisadores das mudanças climáticas (VI):

“Qualquer meta de estabilização das concentrações de CO2 acima de 450 ppm [partes por milhão] tem uma probabilidade significativa de desencadear um evento climático de larga escala”. 

Note-se que em 2013 ultrapassamos 400 ppm e em abril de 2017 (VII) o Observatório de Mauna Loa, no Havaí, registrou pela primeira vez concentrações atmosféricas de 410 ppm de CO2, como mostra a Figura 1.

Clique nas figuras para uma melhor visualização

Figura 1: Concentrações atmosféricas de CO2 em partes por milhão (ppm) de 1700 a abril de 2017.  A linha mais grossa indica as mensurações no topo do monte Mauna Loa, Havaí, iniciadas em 1958 (Curva de Keeling) | Fonte: National Oceanic and Atmospheric Administration (NOAA)

No período mostrado por esse gráfico (1700 – 2017), houve aumento de quase 50% nessas concentrações, com uma inequívoca aceleração desse processo no século XXI, como mostra detalhadamente a Figura 2.

 

Figura 2 – Taxas de crescimento das concentrações atmosféricas de CO2 em Mauna Loa, Havaí (1960 – 2016). Fonte: National Oceanic and Atmospherica Administration, NOAA, EUA.

Entre 1960 e 1997, houve apenas quatro aumentos anuais superiores a 2 ppm e nenhum superior a 2,5 ppm. Mas entre 1998 e 2016 registraram-se onze aumentos anuais superiores a 2 ppm e seis aumentos anuais superiores a 2,5 ppm, com três recordes batidos desde 1998: 2,93 ppm (1998); 3,03 ppm (2015) e 2,77 ppm (2016). E desde 2010, enfim, registrou-se apenas um aumento anual inferior a 2 ppm. Mantido um aumento médio futuro de 2,5 ppm/ano, atingiremos os temidos 450 ppm já em 2033, após os quais, como afirma o IPCC, aumentam as probabilidades de “se desencadear um evento climático de larga escala”.

Em 2013, outro alerta, intitulado “Consenso Científico sobre a Manutenção dos Sistemas de Suporte da Vida da Humanidade no século XXI”, assinado por mais de três mil cientistas, alertava mais uma vez para a iminência de um colapso socioambiental (VIII):

“A Terra está rapidamente se aproximando de um ponto crítico. Os impactos humanos estão causando níveis alarmantes de dano ao nosso planeta. Como cientistas que estudamos a interação dos humanos com o resto da biosfera, usando uma ampla gama de abordagens, concordamos ser esmagadora a evidência de que os humanos estão degradando os sistemas de sustentação da vida. (…) Quando as crianças de hoje atingirem a meia-idade é extremamente provável que os sistemas de sustentação da vida terão sido irremediavelmente danificados pela magnitude, extensão global e combinação desses estressores causados pelos humanos [desequilíbrios climáticos, extinções, perda generalizada de diversos ecossistemas, poluição, crescimento populacional e padrões de consumo], a menos que tomemos ações imediatas para assegurar um futuro sustentável e de alta qualidade. Como membros da comunidade científica ativamente envolvidos em avaliar os impactos biológicos e sociais das mudanças globais, estamos disparando esse alarme”.

Há dois meses, enfim, oito cientistas reavaliaram o apelo de 1992 e lançaram a “Advertência dos Cientistas do Mundo à Humanidade – Segundo Aviso” (IX):

Desde 1992, com exceção da estabilização da camada de ozônio estratosférico, a humanidade fracassou em fazer progressos suficientes na resolução geral desses desafios ambientais anunciados, sendo que a maioria deles está piorando de forma alarmante. Especialmente perturbadora é a trajetória atual das mudanças climáticas potencialmente catastróficas, devidas ao aumento dos gases de efeito estufa emitidos pela queima de combustíveis fósseis, desmatamento e produção agropecuária – particularmente do gado ruminante para consumo de carne. Além disso, desencadeamos um evento de extinção em massa, o sexto em cerca de 540 milhões de anos, no âmbito do qual muitas formas de vida atuais podem ser aniquiladas ou, ao menos, condenadas à extinção até o final deste século.

A resposta da comunidade científica a esse “Segundo Aviso” foi extraordinariamente vigorosa. Ele conta hoje com mais de 15 mil assinaturas de pesquisadores e cientistas de 180 países, entre as quais as de James Hansen, ex-diretor do Goddard Institute for Space Studies (NASA – GISS, Columbia University); de Matthew Hansen, do MODIS Land Science Team (NASA); de Will Steffen e Thomas Hahn (IPBES), ambos do Stockholm Resilience Centre; de Stefan Rahmstorf, diretor do Potsdam Institute for Climate Impact Research; de Daniel Pauly, diretor do The Sea Around Us (British Columbia University); de Jan Zalasiewicz, do Anthropocene Working Group (Subcomissão da Estratigrafia do Quaternário); e de Paul Ehrlich e Edward O. Wilson, de sete laureados com o Prêmio Nobel e de pesquisadores de todas as áreas das principais universidades brasileiras e do mundo todo.

É claro que há ainda muitas incertezas acerca da evolução do sistema Terra, mas essas incertezas estão diminuindo e são, sobretudo, de segunda ordem. A proposição central da ciência de que o aumento da interferência antrópica no sistema Terra está nos conduzindo a um colapso socioambiental iminente constitui o conteúdo comum de todos os alertas emitidos pelos coletivos de cientistas acima citados. A menos que se negue frontalmente esse consenso ou que se avancem elementos contrários quantitativamente relevantes, essa proposição mostra-se incontestável e as atuais tentativas de contestá-la não pertencem ao âmbito da ciência.

Bloqueio psicológico e bloqueio epistemológico

Isso posto, os fatos e alertas científicos chocam-se contra a barreira do negacionismo fomentado pelas corporações ou são metabolizados e neutralizados por um bloqueio ao mesmo tempo psicológico e epistemológico da maior parte das pessoas, inclusive entre as mais escolarizadas. O bloqueio psicológico oferece o último refúgio a um otimismo não substanciado por dados relevantes. Ele é bem compreensível, haja vista o teor da mensagem. O bloqueio epistemológico radica na necessidade de sustentar a hipótese de que o capitalismo global pode avançar, inclusive rapidamente, nas duas direções básicas requeridas pela ciência:

(1) reduzir a zero as emissões de carbono nos próximos dois decênios através de mecanismos indutores próprios do mercado (fim dos subsídios aos combustíveis fósseis, taxa carbono etc);

(2) honrar os compromissos assumidos nos acordos diplomáticos, tais como o Protocolo de Kyoto, as 20 Metas de Aichi (Aichi Biodiversity Targets) (X), o Acordo de Paris, etc.

As evidências contra essa hipótese de um capitalismo tendente ao “sustentável” são acachapantes. As emissões e concentrações atmosféricas de carbono não estão se estabilizando e não devem parar de aumentar nos dois próximos decênios. O Protocolo de Kyoto e as Metas de Aichi para 2020 fracassaram e os prognósticos para o Acordo de Paris são os piores possíveis, como demonstrado por um artigo publicado na Nature em agosto último, e já comentado nesta coluna (XI).

As emissões de GEE continuam aumentando

Uma viga mestra desse bloqueio epistemológico é a afirmação de que as emissões globais de GEE estão se estabilizando. Há de fato tendência à estabilização nas emissões relativas à produção de energia, por causa, sobretudo, da maior disponibilidade e competitividade do gás natural, o que gerou em 2016 diminuição de 1,7% no consumo global de carvão (-53 mtoe) em relação ao ano anterior, e isso pelo segundo ano consecutivo (XII). Eis os últimos dados de consumo de combustíveis fósseis em milhões de toneladas de energia equivalente ao petróleo (mtoe):

Fonte: BP Statistical Review of World Energy. Junho de 2017 (em rede).

Mas os últimos dados da Emission Database for Global Atmospheric Research (EDGAR) mostram que as emissões de GEE como um todo continuam a aumentar, atingindo 53,4 GtCO2-eq em 2016, como certifica a Figura 3

Figura 3 – Emissões globais de Gases de Efeito Estufa (GEE) entre 1990 e 2016. | Fonte: Emission Database for Global Atmospheric Research (EDGAR)

É significativo que um eminente representante desse bloqueio epistemológico, Lord Nicholas Stern, Presidente da British Academy, tenha visto na figura acima motivo para comemorar: “Esses resultados são uma bem-vinda indicação de que estamos nos aproximando do pico das emissões anuais de gases de efeito estufa” (XIII). Esse comentário de Stern lembra as peripécias pré-copernicanas do geocentrismo ptolomaico. Lá se tratava de “salvar” a hipótese geocêntrica. Aqui, de “salvar” a hipótese de que o capitalismo pode no limite nos desviar do colapso socioambiental. Pois esse gráfico simplesmente não mostra estabilização. Ele diz alto e bom som que em 2010 o mundo emitiu 50 GtCO2-eq e que houve em 2016 aumento dessas emissões da ordem de 7%. Definitivamente não há motivo para considerar tal aumento bem-vindo. Ele diz ainda, para concluir, três coisas extremamente importantes:

(1) Dados os esforços de Trump para reabilitar o carvão, é ainda prematuro afirmar que a tendente estabilização das emissões de CO2 relacionadas à produção de energia anuncie uma sucessiva diminuição. Aqui há motivo para alguma esperança, mas o maior problema é que essas emissões ligadas à produção de energia correspondem a apenas 60% dos GEE (~32 GtCO2-eq).

(2) 19% das emissões de GEE em 2016 provieram do metano, com grande contribuição da atividade entérica e dos resíduos dos ruminantes, cujo rebanho aumentou 20,5% entre 1992 e 2016, atingindo agora quase quatro bilhões de cabeças (XIV).

(3) O fator que mais empurrou a curva das emissões para cima (mancha cinza no topo do gráfico) foi a liberação de GEE pela agricultura, pelo desmatamento e pelos incêndios das florestas e das turfeiras (Land Use, Land Use change and Forestry, LULUCF).

Os pontos 2 e 3 mostram, mais uma vez, que o irmão gêmeo do Big Oil é o Big Food (inclusive para alimentar os animais que comemos) e que não nos desviaremos da trajetória de colapso ambiental sem uma profunda revisão do nosso sistema alimentar, transformado em commodities,  baseado no comércio global e em proteínas animais.

Referências

[I] Cf. Bernard Berenson, The sense of qualityStudy and Criticism of Italian Art (1901), Nova York, 1962.

[II] Roberto Longhi, “Proposte per una critica d’arte”. Paragone, 1, 1950: “L’opera d’arte, dal vaso dell’artigiano greco alla volta Sistina, è sempre un capolavoro squisitamente relativo. L’opera non sta mai da sola. È sempre un rapporto. Per cominciare: almeno un rapporto con un’altra opera d’arte”. Em 1923, num pequeno texto provocador, Le Problème des Musées, Paul Valéry antecipava esse paradoxo longhiano entre a singularidade do termo “obra-prima” e seu caráter relativo. Para Valéry, as obras de arte dispostas nas galerias de um museu: “quanto mais belas, quanto mais efeitos excepcionais da ambição humana, mais devem ser distintas. São objetos raros e seus autores bem gostariam que fossem únicas”.

[III] Cf. Alexandre Koyré, “Galilée et Platon” (1943). Études d’histoire de la pensée scientifique, Paris, 1973, pp. 166-195.

[IV] Cf. S. Vitali, J. B. Glattfelder, S. Battiston, “The Network of Global Corporate Control” Plos One, 26/X/2011: “We find that only 737 top holders accumulate 80% of the control over the value of all TNCs (Transnational Corporations) (…). A large portion of control flows to a small tightly-knit core of financial institutions. This core can be seen as an economic ‘super-entity’”.

[V] A ciência que estuda o comportamento desse conjunto extremamente complexo de interações, chamada ciência do sistema Terra (Earth system science), não se concebe como uma disciplina a mais entre outras, mas como uma nova relação entre ciências humanas e ciências da natureza, de resto impreterível na nova época geológico-cultural a que se dá o nome Antropoceno.

[VI] IPCC AR4 (2007) Working Group II: Impacts, Adaptation and Vulnerability: “Any CO2 stabilisation target above 450 ppm is associated with a significant probability of triggering a large-scale climatic event”.

[VII] Cf. Brian Kahn, “We Just Breached the 410 PPM Threshold for CO2. Carbon dioxide has not reached this height in millions of years”. Scientific American, 21/IV/2017.

[VIII] Scientific Consensus on Maintaining Humanity’s Life Support Systems in the 21st Century: “Earth is rapidly approaching a tipping point. Human impacts are causing alarming levels of harm to our planet. As scientists who study the interaction of people with the rest of the biosphere using a wide range of approaches, we agree that the evidence that humans are damaging their ecological life-support systems is overwhelming. We further agree that, based on the best scientific information available, human quality of life will suffer substantial degradation by the year 2050 if we continue on our current path. By the time today’s children reach middle age, it is extremely likely that Earth’s life-support systems, critical for human prosperity and existence, will be irretrievably damaged by the magnitude, global extent, and combination of these human-caused environmental stressors [, unless we take concrete, immediate actions to ensure a sustainable, high-quality future. As members of the scientific community actively involved in assessing the biological and societal impacts of global change, we are sounding this alarm to the world”.

[IX] Cf. William J. Ripple, Christopher Wolf, Mauro Galetti, Thomas M Newsome, Mohammed Alamgir, Eileen Crist, Mahmoud I. Mahmoud, William F. Laurance, “World Scientists’ Warning to Humanity: A Second Notice”. O manifesto será proximamente publicado na revista Bioscience.

[X] Essas 20 metas subdividem-se em 56 objetivos e são agrupadas em 5 grandes estratégias para a conservação da biodiversidade entre 2011 e 2020. Veja-se http://www.cbd.int/sp/targets/.

[XI] Cf. David G. Victo, Keigo Akimoto, Yoichi Kaya, Mitsutsune Yamaguchi, Danny Cullenward & Cameron Hepburn, “Prove Paris was more than paper promises”, Nature, 548, 1/VIII/2017:  “No major advanced industrialized country is on track to meet its pledges to control the greenhouse-gas emissions that cause climate change. Wishful thinking and bravado are eclipsing reality”. Veja-se “Esperanças científicas e fatos políticos básicos sobre o Acordo de Paris”. Jornal da Unicamp, 25/IX/2017

[XII] Cf. BP Statistical Review of World Energy. Junho de 2017 (em rede).

[XIII] Citado por Damian Carrington, “Global carbon emissions stood still in 2016, offering climate hope”. The Guardian, 28/IX/2017: “These results are a welcome indication that we are nearing the peak in global annual emissions of greenhouse gases”.

[XIV] Veja-se esse dado em William J. Ripple, Christopher Wolf, Mauro Galetti, Thomas M Newsome, Mohammed Alamgir, Eileen Crist, Mahmoud I. Mahmoud, William F. Laurance, “World Scientists’ Warning to Humanity: A Second Notice”.

Luiz Marques é professor livre-docente do Departamento de História do IFCH /Unicamp. Pela editora da Unicamp, publicou Giorgio Vasari, Vida de Michelangelo (1568), 2011 e Capitalismo e Colapso ambiental, 2015, 2a edição, 2016. Coordena a coleção Palavra da Arte, dedicada às fontes da historiografia artística, e participa com outros colegas do coletivo Crisálida, Crises Socioambientais Labor Interdisciplinar Debate & Atualização (crisalida.eco.br) – Publicado originalmente no Jornal da Unicamp.

 

Investimento sustentável

O Target Genius Respostas Diretas é o mais avançado e inovador sistema de perguntas e respostas sobre requisitos de normas técnicas. É, basicamente, um conjunto de perguntas mais comuns sobre determinados assuntos das normas técnicas, acompanhadas das respectivas respostas. Definitivamente, a solução para as dúvidas sobre normas técnicas. Selecione o Comitê Técnico desejado e clique sobre o código ou título para consultar. Acesse o link https://www.target.com.br/produtos/genius-respostas-diretas

Luiz Gonzaga Bertelli

Existe uma grande distorção na destinação dos recursos que o Brasil emprega na educação. Enquanto o país é um dos que menos gasta com os alunos do ensino fundamental e médio, as despesas com estudantes universitários se assemelham às nações desenvolvidas da Europa, segundo levantamento da Organização para a Cooperação e Desenvolvimento Econômico (OCDE). No estudo Olhar sobre a Educação, a organização analisou os sistemas educacionais de 45 nações, entre elas, países desenvolvidos e economias emergentes como China, Argentina e África do Sul.

O Brasil gasta anualmente US$ 3,8 mil por aluno até a 5.ª série do ensino fundamental. A quantia representa menos da metade dos recursos empregados pelos europeus, que tem como média US$ 8,7 mil de investimentos. Para efeito de comparação, Luxemburgo, o primeiro país do ranking, tem gastos em torno de US$ 21 mil para a mesma faixa. Das nações analisadas, apenas seis gastam menos que o Brasil, entre elas, Argentina, Colômbia e Indonésia.

Já no caso do ensino superior, a situação é bem diferente.  Os gastos brasileiros superam os US$ 11 mil por aluno – o que representa mais que o triplo das despesas com ensino fundamental.  Com o valor, o Brasil chega perto de países como Portugal e Espanha, que têm custos em torno de U$ 12 mil. A média de gastos dos países da OCDE é de US$ 16 mil por aluno da graduação. Apesar do aporte financeiro que dá ao ensino superior, o Brasil tem um dos índices mais baixos de jovens entre 25 e 34 anos com diploma universitário.

O fato é que nos últimos anos houve um aumento de investimentos públicos na educação, mas os resultados ainda são pífios, principalmente em relação à melhoria do aprendizado ou à qualidade do ensino. O Brasil continua entre os últimos colocados nas avaliações internacionais que medem conhecimentos de estudantes.

Apesar do maior acesso à educação, com a inclusão de estudantes menos favorecidos no ciclo escolar, o atraso na aprendizagem tem puxado o desempenho para baixo. Por isso, a importância de se investir em infraestrutura nas escolas, na formação e salário de professores e em um ensino fundamental e médio mais eficiente. Investir em educação é a única garantia de desenvolvimento sustentável para o país.

Luiz Gonzaga Bertelli é presidente do Conselho de Administração do CIEE, do Conselho Diretor do CIEE Nacional e da Academia Paulista de História (APH).

Tratamento de água para consumo humano adequado deve ser feito conforme a normalização técnica

 

O tratamento da água para consumo humano é exigido por um número diverso de razões, nas quais se incluem: para prevenir que microrganismos patogênicos causem doenças; para controlar o sabor desagradável e o aparecimento de partículas; para remover a cor excessiva da água e a turvação; para extrair os químicos e minerais dissolvidos. São vários os princípios gerais de purificação da água. Por exemplo, a remoção de contaminantes heterogêneos da água, por sedimentação ou coagulação e sedimentação, filtração, e, flutuação. Como resultado de tal tratamento, os índices de turvação e cor da água são reduzidos.

A eliminação de mistura de bactérias patogênicas e a prevenção da sua reprodução (desinfecção de água) por cloração, iodação, ozonização, prateamento, radiação eletromagnética e eletroquímica, entre outros métodos. O ajustamento da composição da água em misturas dissolvidas. Esta fase pode incluir uma grande diversidade de processos tecnológicos, dependendo da composição e qualidade da água inicial.

Primeiramente, isto inclui a eliminação do odor, sabor, e vestígios de poluentes tóxicos da água, através de métodos como aeração e desgaseificação, oxidação, absorção, e remoção de ferro, manganês, silício, e fluoretos da água. A fase final do tratamento da água pode incluir fluoração e amolecimento da água (remoção da dureza). Em uma região com falta de água doce, mas com disponibilidade de recursos de água salobra e salgada, pode também ser necessário levar a cabo o processo de dessalinização da água.

O tratamento da água específico, por exemplo, através do método de radiação, assim como a sua purificação no que toca a contaminantes específicos, incluindo problemas radioativos, ou particularmente, químicos altamente tóxicos. Já nas estações de tratamento de água (ETA), normalmente, usa-se o processo convencional de tratamento de água em fases. Em cada uma delas existe um rígido controle de dosagem de produtos químicos e acompanhamento dos padrões de qualidade.

A pré-cloração em que o cloro é adicionado assim que a água chega à estação. Isso facilita a retirada de matéria orgânica e metais. A pré-alcalinização, depois do cloro, a água recebe cal ou soda, que servem para ajustar o pH. O índice pH refere-se à água ser um ácido, uma base, ou nenhum deles ou neutra. Um pH de 7 é neutro; um pH abaixo de 7 é ácido e um pH acima de 7 é básico ou alcalino. Para o consumo humano, recomenda-se um pH entre 6,0 e 9,5.

Na coagulação, é adicionado sulfato de alumínio, cloreto férrico ou outro coagulante, seguido de uma agitação violenta da água. Assim, as partículas de sujeira ficam eletricamente desestabilizadas e mais fáceis de agregar.

A floculação vem após a coagulação, e há uma mistura lenta da água, que serve para provocar a formação de flocos com as partículas. Na decantação, a água passa por grandes tanques para separar os flocos de sujeira formados na etapa anterior. Depois vem a filtração em que a água atravessa tanques formados por pedras, areia e carvão antracito. Eles são responsáveis por reter a sujeira que restou da fase de decantação.

Na pós-alcalinização, é feita a correção final do pH da água, para evitar a corrosão ou incrustação das tubulações. Na desinfecção, é feita uma última adição de cloro no líquido antes de sua saída da ETA. Ela garante que a água fornecida chegue isenta de bactérias e vírus até a casa do consumidor. Por fim, a fluoretação com a adição de flúor que ajuda a prevenir cáries.

Quanto à normalização técnica, a NBR 12216 (NB592) de 04/1992 – Projeto de estação de tratamento de água para abastecimento público fixa as condições exigíveis na elaboração de projeto de estação de tratamento de água destinada à produção de água potável para abastecimento público. A elaboração do projeto da Estação de Tratamento de Água (ETA) pressupõe conhecidos os seguintes elementos: capacidade nominal; definição das etapas de construção; localização e definição da área necessária para sua implantação; levantamento planialtimétrico e cadastral da área de implantação; execução de sondagens de reconhecimento do subsolo da área de implantação; manancial abastecedor e características da água; sistemas de captação e adução, desde o manancial até a ETA; sistema de adução de água tratada; cotas impostas pelo sistema de abastecimento de água; e corpos receptores para descarga da ETA.

A elaboração do projeto da Estação de Tratamento de Água compreende as seguintes atividades: definição dos processos de tratamento; disposição e dimensionamento das unidades dos processos de tratamento e dos sistemas de conexões entre elas; disposição e dimensionamento dos sistemas de armazenamento, preparo e dosagem de produtos químicos; elaboração dos projetos de arquitetura, urbanização e paisagismo; elaboração dos projetos de fundações e superestrutura; elaboração dos projetos de instalações elétricas, hidráulico-sanitárias, drenagem pluvial, drenagens, esgotamento geral da ETA, com indicação da disposição final e projetos complementares; elaboração das especificações dos materiais e equipamentos relacionados aos processos e às suas instalações complementares, bem como dos materiais e equipamentos de laboratório e de segurança; elaboração do memorial descritivo e justificativo; elaboração das listas de materiais e equipamentos; elaboração do orçamento; e elaboração do manual de operação e manutenção.

Para elaboração do projeto da Estação de Tratamento de Água devem ser observadas algumas condições. A capacidade é determinada em função do tempo de funcionamento e com base em estudo técnico-econômico, conforme NBR 12211. A ETA deve ser localizada em ponto de fácil acesso, em qualquer época do ano. O terreno para implantação da ETA deve estar situado em local livre de enxurradas e acima da cota de máxima enchente, de modo que esta não comprometa a operação.

Na escolha do local para implantação da ETA, devem ser levados em conta a disponibilidade de vias de acesso, a facilidade de fornecimento de energia elétrica, as posições relativas ao manancial e ao centro de consumo, o corpo receptor de descargas da ETA e a disposição do lodo dos decantadores. Particular atenção deve ser dada à natureza do solo, a fim de prevenir problemas de fundação e construção, e oferecer a possibilidade de situar as unidades acima do nível máximo de água do subsolo.

Inexistindo terreno livre de enchentes, exige-se pelo menos que: as bordas das unidades e dos pisos dos recintos, onde são feitos armazenamentos ou se localizam as unidades básicas para o funcionamento da ETA, estejam situadas pelo menos 1,00 m acima do nível máximo de enchente; a estabilidade da construção, estudada levando em conta a ocorrência de enchentes, deve prever, quando necessárias, obras especiais para evitar erosão das fundações; as descargas da ETA possam realizar-se sob qualquer cota de enchente.

O acesso à ETA deve contar com estrada em condições de garantir o trânsito permanente das viaturas utilizadas no transporte dos produtos químicos necessários ao tratamento da água. Devem ser considerados os seguintes tipos de águas naturais para abastecimento público: tipo A – águas subterrâneas ou superficiais, provenientes de bacias sanitariamente protegidas; tipo B – águas subterrâneas ou superficiais, provenientes de bacias não-protegidas, que possam enquadrar-se nos padrões de potabilidade, mediante processo de tratamento que não exija coagulação; tipo C – águas superficiais provenientes de bacias não protegidas e que exijam coagulação para enquadrar-se nos padrões de potabilidade; e tipo D – águas superficiais provenientes de bacias não protegidas, sujeitas a fontes de poluição e que exijam processos especiais de tratamento para que possam enquadrar-se nos padrões de potabilidade.

A NBR 15784 de 04/2017 – Produtos químicos utilizados no tratamento de água para consumo humano — Efeitos à saúde — Requisitos estabelece os requisitos para o controle de qualidade dos produtos químicos utilizados em sistemas de tratamento de água para consumo humano e os limites das impurezas nas dosagens máximas de uso indicadas pelo fornecedor do produto, de forma a não causar prejuízo à saúde humana.

Aplica-se aos produtos, combinações e misturas utilizadas em tratamento de água para: coagulação, floculação, ajuste de pH, precipitação, controle de corrosão e incrustação, abrandamento e sequestro de íons, desinfecção e oxidação, e produtos específicos, como os utilizados para controle de algas, fluoretação, defluoretação, decloração, adsorção e remoção de cor, sabor e odor. Não se aplica aos subprodutos resultantes da reação do tratamento químico com algum constituinte da água, bem como aos materiais empregados na produção e distribuição que tenham contato com essa água.

Os produtos químicos utilizados para o tratamento de água nos sistemas ou soluções alternativas coletivas de abastecimento de água para consumo humano podem introduzir à água características indesejáveis e/ou prejudiciais à saúde humana, dependendo de sua procedência ou composição. Os requisitos de saúde para controle de qualidade dos produtos químicos utilizados em tratamento de água para consumo humano estabelecidos nesta norma visam o atendimento às exigências contidas na alínea b) inciso III, artigo 13º da Portaria 2914, de 12 de dezembro de 2011, do Ministério da Saúde. Esta norma não avalia a eficiência e desempenho dos produtos químicos e os requisitos relativos ao odor e sabor dos produtos adicionados no tratamento de água para consumo humano. Os requisitos estabelecidos para averiguação de desempenho e eficiência dos produtos estão contidos nas respectivas normas brasileiras de especificação técnicas destes produtos.

O fornecedor do produto deve controlar e manter registros rastreáveis no mínimo das seguintes informações: dosagem máxima de uso (DMU) do produto; nome comercial e número CAS (Chemical Abstracts Service) do produto; composição da formulação (em porcentual ou partes por peso para cada componente químico da fórmula); reação química usada para fabricar o produto, quando aplicável; alterações na formulação; relação das matérias-primas com os respectivos fornecedores e graus de pureza de cada componente químico presente na fórmula; alterações de fornecedores de matéria-prima; lista de impurezas, constantes nas Tabelas 1 a 4 (disponíveis na norma), de acordo com o produto em análise, além daquelas passíveis de estarem presentes no produto, discriminando o porcentual máximo ou partes por peso de cada uma dessas impurezas; descrição dos processos de fabricação, manipulação e embalagem do produto; alterações no processo produtivo; identificação molecular (espectros ultravioleta visíveis, infravermelho, ressonância magnética e outros) para alguns produtos ou para seus principais componentes, quando requerido; e estudos toxicológicos existentes para o produto e para as impurezas presentes no produto, publicados ou não.

Um produto não pode introduzir na água nenhuma impureza que exceda a CIPP, de acordo com o Anexo A, quando utilizado até a dosagem máxima de uso (DMU) recomendada. Em qualquer sistema de tratamento e distribuição de água potável, vários produtos podem ser adicionados ou podem entrar em contato com a água tratada antes de sua ingestão. A CIPP (concentração máxima permitida de uma determinada impureza, resultante da adição de um único produto à água para consumo humano) destina-se a assegurar que a contribuição total de uma única impureza de todas as fontes potenciais no sistema de tratamento e distribuição de água potável esteja dentro dos limites de concentração aceitáveis, conforme o Anexo A.

Na ausência de informações específicas quanto ao número de fontes potenciais de impurezas, deve ser adotado um fator de segurança (FS) igual a 10, admitindo-se um limite de 10 % do valor máximo permitido (VMP) como contribuição de uma determinada impureza contida em cada produto. O fator de segurança utilizado nesta norma está de acordo com o critério da US National Research Councile da NSF/ANSI 60.

A concentração de impurezas para cada produto individual (CIPA) não pode ser superior aos limites estabelecidos no Anexo A (CIPP). Para mistura de produtos cujos componentes tenham atendido aos requisitos estabelecidos como produtos individuais, a concentração de impurezas provenientes de cada componente da mistura não pode ser superior aos limites estabelecidos no Anexo A. Para mistura de produtos cujos componentes não tenham atendido aos requisitos estabelecidos, a concentração das impurezas da mistura não pode exceder os limites estabelecidos no Anexo A. Para mistura, deve-se considerar a possibilidade de a concentração das impurezas nos produtos individuais vir a ser alterada pelo seu uso em mistura.

Para mistura de produtos, o método de preparação da amostra deve ser selecionado de acordo com os métodos de cada produto da mistura. Por exemplo, uma mistura de ácido fosfórico e outra espécie diferente de fosfato é preparada utilizando o método D (ver 9.5) para análise das impurezas do ácido fosfórico, enquanto que o método B (ver 9.3) é usado para a análise das impurezas contidas na espécie de fosfato. Alíquotas separadas são usadas para a análise de cada componente da mistura.

Para produtos gerados no local de aplicação, a exemplo do dióxido de cloro e das cloraminas, a concentração de impurezas provenientes de cada componente dos produtos químicos utilizados para a sua geração não pode ser superior aos limites estabelecidos no Anexo A. Um plano de estudo em BPL deve ser preparado para cada produto, por unidade de produção, devendo conter os analitos químicos específicos, bem como qualquer outro analito dependente da formulação do produto, do processo de fabricação e das matérias primas empregadas.

Ao elaborar o plano de estudo, o laboratório deve considerar todas as informações prestadas pelo fornecedor, conforme Seção 4, em especial as recomendações para a definição de analitos adicionais que devem ser ensaiados. O laboratório também deve verificar a compatibilidade do método de preparação da amostra com o método de análise do analito desejado. O estudo deve ser repetido no mínimo a cada dois anos. Novo estudo deve ser realizado sempre que houver alteração na matéria-prima, na formulação do produto, ou no processo produtivo, que altere a composição final do produto.

O fornecedor deve informar a DMU de cada produto, por unidade de produção. No caso específico de coagulantes a base de sais férricos, também deve ser apresentada a DMU para o parâmetro alumínio na fase alcalina. A figura abaixo apresenta uma visão geral do processo de avaliação de um determinado produto. Em função dos resultados obtidos na avaliação, o produto pode ou não ser aprovado para aquela dosagem máxima sugerida pelo fornecedor. A CIPA de cada impureza não pode ser superior aos limites da CIPP, conforme o Anexo A. Os produtos químicos não contemplados nesta norma devem ser submetidos aos critérios de avaliação de risco adotados no Anexo A da NSF ANSI 60 para aprovação do seu uso.

Para a seleção do método de preparação da amostra, ela deve ser ensaiada e ser preparada de acordo com o método apropriado, indicado nas Tabelas 1 a 4 (disponível na norma), de acordo com o produto, exceto quando comprometer a determinação do analito a ser considerado. Nos produtos coagulantes de sais metálicos, os elementos ativos, como ferro e alumínio, não são considerados impurezas. No caso específico do sulfato de alumínio ferroso, o ferro também não é considerado impureza. Para os sais férricos utilizados em processos alcalinos de floculação e coagulação, o alumínio deve ser considerado como impureza. O bromato é uma impureza conhecida, resultante do processo de produção dos hipocloritos.

Considerando os riscos potenciais de desenvolvimento de câncer associados à exposição humana ao bromato, é recomendável que a produção ou introdução de bromato na água para consumo humano seja limitada. As duas principais fontes de bromatos na água para consumo humano são a ozonização de águas contendo brometo e o uso de produtos contendo bromato, como hipocloritos de sódio e de cálcio. A amostra deve ser coletada em um ponto antes do embarque e deve ser representativa do produto comercializado.

Nenhuma amostra pode ser coletada de contentores danificados ou com vazamentos. A amostragem deve ser realizada pelo laboratório responsável pelo estudo em BPL ou pelo fornecedor com acompanhamento presencial de técnico deste laboratório. As amostras líquidas de hipoclorito se decompõem ao longo do tempo, produzindo perclorato adicional. Assim, as amostras coletadas para determinação de percloratos devem ser neutralizadas após a coleta, quando as análises não forem executadas imediatamente. Informações a respeito do agente neutralizante utilizado e a data e hora da adição devem ser registradas nos dados da amostra.

Igualmente, devem ser levadas em consideração outras normas. A NBR 12805 de 02/1993 – Extintor de cal fixa condições exigíveis para encomenda, fabricação e aceitação de extintores de cal do tipo de carregamento manual, utilizados em estações de tratamento de água com dosagem de cal por via úmida. A NBR 15007 de 04/2017 – Produtos à base de orto e polifosfatos para aplicação em saneamento básico – Especificação técnica, amostragem e métodos de ensaio estabelece a especificação técnica, amostragem e metodologia de ensaios dos produtos à base de orto e polifosfatos para utilização no tratamento de água para consumo humano, além de requisitos toxicológicos e de desempenho.

A NBR 11833 (ABNT/EB 2132) de 08/1991 – Hipoclorito de sódio – Especificação fixa as condições exigíveis para o fornecimento de hipoclorito de sódio utilizado, entre outros fins, como agente desinfectante no tratamento de água para abastecimento público. A NBR 11834 (ABNT/EB 2133) de 08/1991 – Carvão ativado pulverizado – Especificação fixa as condições exigíveis para o fornecimento de carvão ativado pulverizado, utilizado na adsorção de impurezas no tratamento de água para abastecimento público.

Emprego na melhor idade

Já se foi o tempo em que pessoas com mais de 60 anos não conseguiam uma recolocação profissional no mercado. Com a expectativa de vida cada vez maior, muitos daqueles que chegam aos 60 anos não querem deixar de trabalhar, ou ainda, desejam retornar ao mercado depois de um período de descanso. “Essa volta ao mercado de trabalhadores aposentados é um fenômeno recente no Brasil. Os 70 anos de hoje podem ser comparados com os 50 anos de algumas décadas atrás”, explica Madalena Feliciano, gestora de carreira do Outliers Careers.

Segundo a especialista em transição de mercado, existe, principalmente, duas razões para que os profissionais acima dos 60 procurem uma ocupação que lhes rendam dinheiro “Cada vez mais as pessoas chegam aos 60 anos com grandes capacidades profissionais, vontade de ganhar seu próprio dinheiro e ter uma boa vida pessoal. Isso faz com que elas não queiram ficar em casa e voltem grande parte da sua atenção para o trabalho, assumindo com uma grande responsabilidade o que é delegado a eles”, explica Madalena. As empresas optam por esses profissionais quando a atividade exige mais responsabilidade, disponibilidade e respeito ao horário.

De acordo com Madalena, não existe idade máxima para se trabalhar, o que existe é a capacidade que cada pessoa tem para determinadas funções. “Os profissionais acima dos 60 podem sentir algumas dificuldades para retornar ao trabalho, afinal, muitas vezes o convívio com profissionais mais jovens, conectados à internet e às redes sociais, atualizados das novidades em suas áreas de atuação; a necessidade de falar outros idiomas e de ter uma atuação multidisciplinar, por exemplo, podem pôr em risco a confiança do profissional mais velho. Mas ele não deve se abalar: se foi contratado, é porque a empresa está à procura de experiência e maturidade, características normalmente encontradas em profissionais com mais experiência”, exalta. Isso acontece porque o ideal é contar com profissionais experientes – e essa experiência só é alcançada com a vivência.

Para aqueles que desejam regressar ao mercado de trabalho, existem algumas recomendações que podem ser seguidas “Identifique suas principais competências; procure por um trabalho alinhado às suas experiências profissionais anteriores; faça um bom currículo, destacando a sua experiência; não pareça resistente às mudanças e novidades. Boa apresentação pessoal e postura são muito importantes, capriche nelas; e procure manter-se atualizado sobre a sua área de atuação”, aconselha Madalena.

Para o empregador também existem grandes vantagens em contratar pessoas com mais idade – que vão além da experiência. “Em geral, os mais velhos são excelentes para o atendimento a clientes, são mais humildes em reconhecer seus erros e buscar a melhoria, são menos ansiosos, têm paciência para um plano de carreira mais longo, maior disponibilidade de tempo e flexibilidade na negociação do salário; menor responsabilidade com filhos – geralmente já são formandos ou independentes. Em geral, já recebem a aposentadoria e por isso o foco do trabalho nem sempre é exclusivamente o salário. Hoje em dia, os profissionais acima dos 60 fazem tudo: entram na internet, dirigem, fazem exercícios, dançam, namoram, estudam, enfim, procuram algo que venha trazer bem-estar e o melhor caminho para felicidade – e muitas vezes o trabalho ajuda e muito nesse caminho” conclui a especialista.

Cursos pela internet

Conheça um programa especial de cursos pela internet, com as últimas tendências do mercado. Fique atento aos cursos que estão disponíveis. Acesse o link https://www.target.com.br/produtos/cursos-tecnicos/disponiveis-pela-internet

O fumo e as mortes

Luiz Gonzaga Bertelli, presidente do Conselho de Administração do CIEE

Os números são estarrecedores. Calcula-se que o tabagismo tenha matado 100 milhões de pessoas no século passado, número que poderá chegar a um bilhão até o ano 2100 – é a maior causa de morte entre os homens e a segunda entre as mulheres. Fumar 10 cigarros por dia reduz em cinco anos a expectativa de via, em média. O risco de câncer no pulmão sobe 20 vezes ao longo da vida, em relação aos não fumantes. O tratamento das moléstias provocadas pelo tabaco – câncer, doença coronariana, acidente vascular cerebral, doença pulmonar obstrutiva crônica, entre muitas outras – consome mais de 420 bilhões ao ano em todo o mundo.

Com tudo isso, o tabaco movimenta uma poderosa indústria, que fatura cerca de um trilhão de dólares ao ano e investe boa parte em ações de marketing para atenuar os efeitos das políticas governamentais de controle de consumo, com aumento de impostos, ambientes livres de fumo, advertências em embalagens, proibição de publicidade, etc.

Esses dados constam do Atlas do Tabaco, um alentado estudo produzido pelo American Cancer Society e adaptado (com exaustiva revisão por especialistas) para a língua portuguesa pelo Hospital do Câncer de Barretos, destinando-se à divulgação em países lusófonos, nos quais estima-se que existam 40 milhões de fumantes, num triste ranking encabeçado pelo Brasil com seus 30 milhões de consumidores de tabaco, entre os quais 11% são mulheres.

Disponível gratuitamente para download em www.atlasdotabaco.com.br, o Atlas poderá ser usado como material de apoio às campanhas antitabagistas nas escolas e em outros grupos. Lançado na última quarta-feira, o Atlas é apresentado pelo Hospital do Câncer de Barretos como mais uma peça no esforço de controle, combate e erradicação do tabagismo, valendo como instrumento de conscientização de riscos, em especial para crianças, adolescentes e jovens. Uma iniciativa que merece aplausos e que complementa a atuação do CIEE, que promove uma campanha visando à prevenção ao uso de drogas entre os universitários. Tanto as ilícitas quanto as lícitas, entre as quais se destaca o tabaco.

Cursos pela internet

Conheça um programa especial de cursos pela internet, com as últimas tendências do mercado. Fique atento aos cursos que estão disponíveis. Acesse o link https://www.target.com.br/produtos/cursos-tecnicos/disponiveis-pela-internet

Os vãos das plataformas de embarque da Companhia Paulista de Trens Metropolitanos (CPTM) estão fora das especificações técnicas

Em 2016, 989 pessoas caíram em vãos nas estações de embarque da CPTM, alta de 13% na comparação com 2015, segundo dados obtidos com a empresa via Lei de Acesso à Informação. Esse tipo de acidente é o mais comum nesses locais.

Cristiano Ferraz de Paiva

Conforme um texto publicado pela Folha de São Paulo, no link http://www1.folha.uol.com.br/cotidiano/2017/08/1908112-cptm-tem-mil-quedas-em-vaos-com-largura-4-vezes-maior-que-o-permitido.shtml, os vãos nas estações de trem da CPTM estão fora das especificações da norma técnica. E isso é crime.

As normas técnicas são regras de conduta impositivas para os setores produtivos e de serviços em geral, tendo em vista que, além de seu fundamento em lei ou atos regulamentares, têm em vista o cumprimento da função estatal de disciplinar o mercado com vistas ao desenvolvimento nacional e à proteção de direitos fundamentais tais como os relativos à vida, à saúde, à segurança e ao meio ambiente. A jurisprudência vem se pronunciando pela obrigatoriedade de observância das normas técnicas, único modo de prevenir acidentes que acarretam danos pessoais e sociais ou de responsabilizar quem os provoca.

O texto da matéria relata que uma criança de 5 anos caiu no vão da estação Calmon Viana, em Poá, na Grande São Paulo. O vão onde a criança sofreu a queda tem 33 cm, mas não é o pior caso nas linhas da CPTM. Correspondentes da Agência Mural visitaram todas as 91 estações em funcionamento e mediram os espaços entre a plataforma e as composições.

O recorde, de 46 cm, foi encontrado em Aracaré, na linha 12-safira. Como comparação, um sapato 48 tem 31 cm. Há vãos grandes inclusive em estações movimentadas como Osasco, onde, em média, 45 mil pessoas passam por dia e atravessam 39 cm para embarcar.

Em 2016, 989 pessoas caíram em vãos, alta de 13% na comparação com 2015, segundo dados obtidos com a CPTM via Lei de Acesso à Informação. Esse tipo de acidente é o mais comum nas estações.

Em média, os vãos das estações da CPTM têm 18 cm, quase o dobro do recomendado pela NBR 14021 de 06/2005 – Transporte – Acessibilidade no sistema de trem urbano ou metropolitano que estabelece os critérios e parâmetros técnicos a serem observados para acessibilidade no sistema de trem urbano ou metropolitano, de acordo com os preceitos do desenho universal (forma de conceber produtos, sistemas e meios de comunicação, serviços e ambientes para serem utilizados por todas as pessoas, o maior tempo possível, sem a necessidade de adaptação, beneficiando as pessoas de todas as idades e capacidades. Seu conceito tem como pressupostos: equiparação nas possibilidades de uso, flexibilidade no uso, uso simples e intuitivo, captação da informação, tolerância ao erro, dimensão e espaço para o uso e interação). Para se comparar, nas estações da linha 3-vermelha do metrô, por exemplo, nenhuma estação tem mais de 10 cm de vão.

De acordo com a norma, no estabelecimento desses critérios e parâmetros técnicos, foram consideradas as diversas condições de mobilidade e de percepção do ambiente pela população, incluindo crianças, adultos, idosos e pessoas com deficiência, com ou sem a ajuda de aparelhos específicos, como próteses, aparelhos de apoio, cadeiras de rodas, bengalas de rastreamento, sistemas assistivos de audição ou qualquer outro que venha a complementar necessidades individuais.

Assim, a norma visa proporcionar à maior quantidade possível de pessoas, independentemente de idade, estatura e condição física ou sensorial, a utilização de maneira autônoma e segura do ambiente, mobiliário, equipamentos e elementos do sistema de trem urbano ou metropolitano. Para os novos sistemas de trem urbano ou metropolitano que vierem a ser projetados, construídos, montados ou implantados, esta norma se aplica às áreas e rotas destinadas ao uso público. Deve ser aplicada em novos projetos de sistemas de trem urbano ou metropolitano.

Para os sistemas de trem urbano ou metropolitano existentes, esta norma estabelece os princípios e as condições mínimas para a adaptação de estações e trens às condições de acessibilidade. Deve ser aplicada sempre que as adaptações resultantes não constituírem impraticabilidade. A segurança do usuário deve prevalecer sobre sua autonomia em situação de anormalidade no sistema de trem urbano ou metropolitano.

Para não estar fora da lei, a CPTM deve possuir as áreas de uso público da estação conforme a seção 6 – Acessos e circulação da NBR 9050 (NB833) de 09/2015 – Acessibilidade a edificações, mobiliário, espaços e equipamentos urbanos que estabelece critérios e parâmetros técnicos a serem observados quanto ao projeto, construção, instalação e adaptação do meio urbano e rural, e de edificações às condições de acessibilidade. No estabelecimento desses critérios e parâmetros técnicos foram consideradas diversas condições de mobilidade e de percepção do ambiente, com ou sem a ajuda de aparelhos específicos, como próteses, aparelhos de apoio, cadeiras de rodas, bengalas de rastreamento, sistemas assistivos de audição ou qualquer outro que venha a complementar necessidades individuais.

O sistema de trem urbano ou metropolitano deve prover e manter pessoal habilitado para atendimento das pessoas com deficiência ou com mobilidade reduzida que utilizam seus serviços, considerando as necessidades e as diferenças entre as diversas deficiências. O mobiliário e os equipamentos com altura igual ou inferior a 2,10 m, instalados nas plataformas, devem ser posicionados de forma a não interferir na rota acessível e estar distantes no mínimo 1,20 m da faixa amarela. Os locais de embarque e desembarque para pessoa com deficiência ou com mobilidade reduzida devem estar demarcados, para garantir que o mobiliário e os equipamentos estejam distantes no mínimo 1,50 m da faixa amarela, permitindo uma faixa livre.

Quanto ao vão e desnível entre o trem e a plataforma, no local de embarque e desembarque de pessoas com deficiência ou mobilidade reduzida, o vão máximo entre o trem e a plataforma deve ser 0,1 m e o desnível máximo entre a plataforma e o trem deve ser 0,08 m, conforme figura abaixo.

Além disso, deve-se adequar a porta do carro ou a plataforma, ou ambos, no local de embarque e desembarque de pessoas em cadeira de rodas, de forma a atender às dimensões citadas. Podem ser feitas adaptações, utilizando-se dispositivos fixos ou móveis, atendendo às seguintes condições: não interferir ou prejudicar o intervalo entre trens e a regulação do sistema; ter superfície firme, estável e antiderrapante em qualquer condição; suportar carga de 300 kgf/m²; e permanecer imóvel durante o embarque e o desembarque.

O texto do jornal diz que a frota de trens da CPTM é bastante diversa: há desde trens dos anos de 1950, que passaram por várias reformas e seguem em operação, até os modelos entregues há poucas semanas que oferecem padrão similar ao do metrô. Essa diversidade também se dá nas portas: alguns trens têm uma extensão nas portas para reduzir a distância até a plataforma, e outros não.

Várias estações da CPTM são em curva. Nelas, foram detectados maiores desníveis e mudanças. Em Francisco Morato, por exemplo, o vão vai de 15 cm a 30 cm ao longo da mesma plataforma.

Há também problemas de degraus elevados entre o vagão e a plataforma. Um dos exemplos é a Linha 11-Coral, a mais movimentada da empresa. Em ao menos quatro estações, o vão fica mais alto do que a altura do vagão, o que pode variar dependendo do trem que estiver na via. Há em alguns casos até 20 centímetros de diferença.

A CPTM afirmou que está realizando intervenções para adequar o nível das plataformas. Citou como exemplo ações feitas nas estações Brás Cubas e Guapituba, para reduzir o desnível entre trem e a plataforma e que outras 34 estações possuem projetos de acessibilidade em contratação.

A Companhia também disse que o fato de trens de carga passarem pelas linhas é um dos problemas e a questão deverá ser amenizada com a segregação das vias para o transporte de carga, por meio da implantação de um ferro anel, projeto que é do governo federal. A empresa enfatizou usar avisos sonoros para alertar os usuários e diz manter campanhas permanentes para prevenir os acidentes. Em caso de eventual queda, o procedimento é interromper a circulação naquela via, realizar o atendimento imediato do usuário pelas equipes de segurança e estação. Quando necessário, a pessoa é encaminhada para atendimento médico.

Ainda sobre as ocorrências de quedas citadas na reportagem, a CPTM disse que não foram encontrados registros internos. A empresa orienta os cidadãos a procurarem um funcionário da estação em casos de acidentes para que sejam tomadas as providências necessárias de imediato.

Cristiano Ferraz de Paiva é vice-presidente da Target Engenharia e Consultoria Ltda., consultor na área de tecnologia da informação, especificamente na área de gerenciamento eletrônico de documentos, desenvolveu trabalhos para organismos de normalização e empresas industriais, e teve seis anos de participação como membro suplente eleito no Conselho Deliberativo da Associação Brasileira de Normas Técnicas (ABNT) – cristiano.paiva@target.com.br