Ranking da competitividade

Aterramento e a Proteção de Instalações e Equipamentos Sensíveis contra Raios: Fatos e Mitos – A partir de 3 x R$ 257,81 (56% de desconto)

Inspetor de Conformidade das Instalações Elétricas de Baixa Tensão de acordo com a NBR 5410 – A partir de 3 x R$ 320,57 (56% de desconto)

Interpretação e Aplicações da Norma Regulamentadora Nº 13 (NR-13) do MTE (Inspeção de Segurança de Caldeiras e Vasos de Pressão) – A partir de 3 x R$ 257,81 (56% de desconto)

Filtros de Harmônicos em Sistemas Industriais – A partir de 3 x R$ 257,81 (56% de desconto)

Ranking competitividadeEstudo da Confederação Nacional da Indústria (CNI) revela que, apesar dos pequenos avanços em disponibilidade e custo da mão de obra, peso dos tributos e na microeconomia, o país retrocedeu em infraestrutura e na macroeconomia

O Brasil continua em penúltimo lugar no ranking da competitividade. Quando comparado a outros 14 países que são seus principais concorrentes, o Brasil só fica à frente da Argentina na avaliação de oito fatores decisivos para as empresas conquistarem os mercados interno e externo. A conclusão é do estudo anual Competitividade Brasil 2014, divulgado pela Confederação Nacional da Indústria (CNI). Esta é a quarta edição do estudo e, desde 2012, o Brasil se mantém na mesma posição na lista que, além da Argentina, inclui Colômbia, México, Polônia, Turquia, Índia, Rússia, África do Sul, Chile, China, Espanha, Austrália, Coreia do Sul e Canadá.

No topo da lista, aparece o Canadá, seguido pela Coreia do Sul e a Austrália. “Apenas nos fatores disponibilidade e custo de mão de obra e em tecnologia e inovação, o Brasil não está no terço inferior do ranking, ou seja, entre a 15ª e a 11ª posição”, constata o estudo.

No último ano, o país avançou nos quesitos disponibilidade e custo de mão de obra, peso dos tributos e ambiente microeconômico. No fator disponibilidade e custo de mão de obra, o Brasil passou do sétimo lugar em 2013 para o quarto em 2014, no de peso de tributos, saiu da 14ª posição para a 13ª em 2014.

No quesito ambiente microeconômico, subiu do 13º para o 11º lugar.  Entretanto, o Brasil piorou nos fatores infraestrutura e ambiente macroeconômico.

Na questão da infraestrutura, recuou da 13ª para a 14ª posição. No ambiente macroeconômico, caiu do 10º para o 12º lugar.
“Para ganhar competitividade, é preciso reduzir o custo Brasil. Além de ajudar as empresas a enfrentar a concorrência, isso estimulará os investimentos na melhoria da produtividade das empresas”, diz o gerente  executivo da Unidade de Pesquisa e Competitividade da CNI, Renato da Fonseca. O economista fala das ações de curto prazo que o  Brasil pode adotar para melhorar a competitividade.

Avaliação do Brasil em oito fatores decisivos da competitividade
Disponibilidade e custo da mão de obra: Esse é o quesito que o país tem o melhor desempenho. Fica em quarto lugar no ranking, atrás  de México, Chile e Colômbia. Embora tenha boa oferta de mão de obra, o potencial competitivo do Brasil nesse fator fica comprometido pela baixa produtividade do trabalhador, que só é melhor do que a da Índia e a da China.
Disponibilidade e custo do capital: O Brasil ocupa a última posição do ranking no fator disponibilidade e custo de capital.  “O país tem a mais alta taxa de juros real de curto prazo — de 9,75%, e o maior spread da taxa de juros — de 19,6%, percentuais cerca de três vezes superior ao registrado na Colômbia”, diz o estudo.
Infraestrutura e logística: O país perdeu uma posição no fator infraestrutura e logística e, em 2014, ficou em penúltimo lugar nesse quesito, à frente apenas da Colômbia. Essa queda é resultado, especialmente, da piora do subfator alfândega e operadores, em que o país caiu da 8ª posição em 2013 para a 13ª em 2014. A avaliação do país recuou em todos os itens avaliados nesse subtema eficiência nos processos de liberação alfandegária, capacidade logística, pontualidade no cumprimento de prazos e rastreabilidade.
Peso dos impostos: O  Brasil avançou da 14ª para a 13ª posição nesse fator e trocou de lugar com a Espanha, que apresentou um aumento do conjunto de impostos pagos pelas empresas como percentagem de seus lucros, de 38,7% para 58,2%.

Ambiente macroeconômico:
O Brasil caiu do 10º lugar em 2013 para o 12º neste fator. A piora no ambiente macroeconômico é resultado, sobretudo, da queda do investimento estrangeiro direto no país, que recuou de 2,9%  para 2,85% do PIB, enquanto que, nos demais países avaliados, o investimento estrangeiro direto aumentou. No México, por exemplo, a taxa passou de 1,08% para 2,80% do PIB.
Ambiente microeconômico: O Brasil subiu da 13ª para a 11ª posição no ranking, especialmente porque melhorou o desempenho na variável intensidade da concorrência no mercado doméstico. Conforme pesquisa de opinião, em uma escala de 1 a 7, a avaliação do Brasil em intensidade da concorrência subiu de 5  para  5,3. Quanto maior a intensidade da concorrência, maior é a competitividade do país.
Educação: O Brasil está em nono lugar entre 11 países para os quais se dispõe de informação no fator educação. Duas de três dimensões associadas a esse fator colocam o Brasil no terço inferior do ranking: disseminação da educação, que reflete a queda no número de estudantes matriculados no ensino médio, e qualidade da educação. Apenas na variável recursos destinados à educação que o Brasil aparece em posição mais favorável. “O contraste entre essas dimensões é observado desde o relatório de 2010 e põe em questão a eficiência e eficácia do gasto público no país”, diz o estudo.

Tecnologia e inovação:
O Brasil é o oitavo da lista neste quesito e  ocupa posição intermediária no ranking (do 6º ao 10º lugar) nos subfatores associados à tecnologia e inovação: apoio governamental e P&D e inovação nas empresas. Mas o país caiu da nona para a 10ª posição no subfator política de compra governamental de produtos de tecnologia avançada.

A importância do relacionamento interpessoal

Curso pela internet

Formação de Auditores Internos de Sistemas Integrados de Gestão (Qualidade, Meio Ambiente, Saúde, Segurança do Trabalho e Responsabilidade Social) – Disponível pela Internet

Capacitar os participantes a realizar auditorias compartilhadas do Sistema Integrado.

Entenda os motivos que fazem a comunicação ser tão valorizada no mundo atual.

A comunicação está presente na vida do homem desde os tempos mais longínquos. A forma a qual ela é feita vem sendo mudada e aperfeiçoada com o passar do tempo, mas a sua importância é sabida desde os tempos mais primórdios – afinal, os homens precisavam se comunicar e viver em grupo para sobreviver aos animais ferozes e catástrofes naturais. Hoje os perigos são outros, e mesmo que o ser humano considere-se independente, ele passará por algum momento em que precisa trocar informações com outra pessoa – ou seja, independente do motivo, a comunicação continua exercendo papel essencial na vida de todos.

Uma das formas de comunicação mais valorizadas atualmente é o relacionamento interpessoal, um conceito que significa uma relação entre duas ou mais pessoas, que pode estar inserido em um âmbito familiar, escolar, de trabalho ou de comunidade. “O relacionamento interpessoal implica em uma relação social, que pode ser de diferentes níveis e envolver diversos sentimentos e emoções”, explica o psicólogo e coach, João Alexandre Borba, que complementa, “e hoje, saber ter um bom relacionamento interpessoal com as pessoas que estão a sua volta é uma característica extremamente valorizada – principalmente no mundo dos negócios”.

O mercado está cada vez mais competitivo, e as habilidades que cada um tem em seu currículo podem não ser mais o suficiente na hora de garantir um bom emprego. “As boas experiências anteriores continuam somando muitos pontos na hora de conquistar um emprego – mas, para mantê-lo, é preciso mais do que um currículo recheado, criatividade e força de vontade: é preciso saber se comunicar e se relacionar com seus chefes, colegas e possíveis subordinados”, comenta o coach.

Não é a toa que aqueles que são considerados bons chefes possuem uma capacidade extrema de comunicação e relacionamento – afinal, eles precisam ter o comando da equipe na hora de exigir algo. “Um chefe que não sabe dar ordens, explicar de forma clara as ações que devem ser feitas ou fornecer feedback para seus colaboradores com certeza não terá o controle de sua equipe – e isso poderá lhe causar prejuízos. Por outro lado, um funcionário que não consegue responder de forma clara o seu chefe, compartilhar suas ideias, ser ativo durante reuniões e ter um bom relacionamento dentro da empresa também está em desvantagem e corre riscos”, exalta Borba.

O psicólogo lembra que existem sim pessoas que possuem uma maior facilidade na hora de se relacionar com outras pessoas – mas que essa é uma característica que pode ser desenvolvida por todos, mesmo que alguns precisem da ajuda de um profissional para isso. “Para ter sucesso nesse objetivo, a pessoa deve sempre se lembrar da importância que um bom relacionamento com aqueles a sua volta traz. Rapidamente, consigo listar vários motivos que podem servir como motivação para que a comunicação seja efetiva: melhora e aumento do ciclo de networking; conhecimento de novas culturas; aprendizagem de coisas novas; perder – ou pelo menos minimizar – a inibição e a timidez; autoconhecimento e confiança – afinal, quando sua voz é ouvida, você sente-se mais imponente; possibilidade de desenvolver novas ideias e quebrar paradigmas, etc.”, conclui Borba.

Caminhões adulterados podem poluir cinco vezes mais

CURSO PELA INTERNET

Gestão de Energia – Implantação da Nova Norma NBR ISO 50001 – Disponível pela Internet

A Nova Norma deve conduzir as reduções nos custos, nas emissões de gases de efeito estufa e outros impactos ambientais através da gestão sistemática da energia.

caminhãoO uso correto do Agente Redutor Liquido de NOx Automotivo (Arla 32) reduz as emissões de poluentes em até 98%

O desenvolvimento do mercado do Arla 32, agente líquido redutor de emissões de óxidos de nitrogênio (NOx), foi tema de workshop que reuniu executivos do setor, além de técnicos, pesquisadores, advogados e representantes de entidades de classe no Rio na última semana. Em comum, os participantes do evento têm o propósito de consolidar, no mercado nacional, o uso do produto que é obrigatório para veículos movidos a óleo diesel produzidos com a tecnologia do Sistema de Redução Catalítica Seletiva (SCR).

As emissões de gases poluentes de um caminhão adulterado para não usar Arla 32 equivalem às emissões de, aproximadamente, cinco caminhões não adulterados. O uso correto do aditivo, por sua vez, reduz essas emissões em até 98%.

O Arla 32 atua nos catalisadores do sistema de escapamento dos motores, permitindo a redução da emissão de óxidos de nitrogênio . Em reação com os gases de escape dos veículos, o Arla 32 transforma NOx em vapor d’água e nitrogênio, gases inofensivos para a saúde humana. Seu uso é regulamentado pela Resolução 214, emitida pelo Conselho Nacional do Meio Ambiente (Conama) em 28/09/2009.

O engenheiro Tadeu Cordeiro, do Centro de Pesquisas da Petrobras (Cenpes), confirma que os testes realizados comprovam o aumento das emissões em quase cinco vezes com o uso de emuladores, conhecidos como “chips”, que permitem burlar o uso do Arla 32. Representantes do Departamento Jurídico da Petrobras pontuam que a adulteração do Arla 32 pode gerar advertência e multa para usuários e suspensão das atividades para quem comercializa o produto.

Para o gerente executivo da Petrobras, Marcelo Murta, é importante dar visibilidade à questão de modo a conscientizar a sociedade, fortalecer a fiscalização e eliminar a prática lesiva, assegurando o cumprimento da resolução do Conama. O diretor da Associação dos Fabricantes de Equipamentos para Controle de Emissões Veiculares da América Latina (Affevas), Elcio Luiz Farah, manifesta preocupação com o avanço dos casos de adulteração de veículos para burlar o uso do produto.

Segundo ele, estudo da entidade mostra que, a partir de abril de 2013, houve um claro descolamento entre as vendas do Arla 32 e do óleo diesel. O Arla 32 destina-se à frota de veículos fabricados a partir de 2012 para atender a norma ambiental Euro V, criada na União Europeia para limitar a quantidade de emissões veiculares.

Farah afirmou que o uso de chips que permitem burlar o uso do Arla 32 equivale a uma regressão de 20 anos em termos de atraso ambiental. Para ele, as emissões de NOx de um caminhão Euro V adulterado para não usar o Arla 32 equivalem às emissões de 4,5 caminhões não adulterados.

A visibilidade da poluição atmosférica foi destacada, durante o evento, pelo professor do Departamento da PUC-Rio, José Marcus Godoy, que apresentou fotografias de grandes centros urbanos em São Paulo, Belo Horizonte e Rio de Janeiro encobertos por nevoeiros contaminados por fumaça (smog).Com seu uso correto, o Arla 32 reduz as emissões de óxidos de nitrogênio do veículo em até 98%, contribuindo de forma decisiva para preservar o meio ambiente, reduzindo significativamente os riscos para a saúde da população, hoje exposta a um grau elevado de poluição atmosférica.

Existem diferentes padrões de emissões veiculares no mundo, que por sua vez estabelecem limites específicos para a emissão de NOx. Os padrões mais rigorosos exigem a utilização do sistema SCR e do Arla 32. Normalmente, os principais poluentes focados pelas legislações de emissões veiculares são: os óxidos de nitrogênio (NOx), material particulado (PM), monóxido de carbono (CO) e hidrocarbonetos (HC).

Na Europa, o primeiro desses padrões, o Euro 0, entrou em vigor em 1990, com limites de NOx de 14,4 e de PM de 1,1, ambos mesurados em g/kWh. O padrão Euro III, de 2001, reduziu esses limites para 5 e 0,1, respectivamente. A utilização do ARLA 32 veio com a introdução dos padrões Euro IV, V e VI.

Os componentes regulados são o NOx, o material particulado (PM), os hidrocarbonetos (HC) e o monóxido de carbono (CO). O Euro IV foi implementado de outubro de 2005 a outubro de 2006 e as datas de implementação do Euro V foram de outubro de 2008 a outubro de 2009. O limite de emissões para NOx é de 3,5 g/kWh no Euro IV e 2,0 g/kWh no Euro V. O padrão Euro VI será implementado de  2013-14 e terá um limite de NOx de 0,4 g/kWh.

Nos Estados Unidos, as emissões de veículos são reguladas pelo Clean Air Act. A utilização do Arla 32, conhecido por lá como DEF, no controle de Nox, iniciou-se em janeiro de 2010 com a implementação do padrão de emissão conhecido como US2010, que estabelece os limites de emissão de NOx em 0,3 g/kWh. Na Austrália e na Nova Zelândia, os padrões de emissão seguem os da Europa com alguns anos de defasagem. O Euro IV foi introduzido por etapas a partir de 2007 e o Euro V está sendo implementado em 2010.

Na China, a legislação é chamada de National Standard IV e V. A partir de 2008, o padrão National VI para veículos pesados reduziu os limites de NOx para 3,5 g/kWh e os limites para material particulado para 0,02 g/kWh. Esse padrão tem sido aplicado em Pequim desde 2008.

No Brasil, a legislação é chamada de Proconve – Programa de Controle da Poluição do Ar por Veículos Automotores. Da fase P-5 que seria equivalente ao Euro III, a partir de janeiro de 2012, foi-se direto para a fase P-7.

Deve-se saber que o Arla 32 é um reagente que é usado juntamente com o o Selective Catalytic Reduction ou Redução Catalisadora Seletiva (SCR) para reduzir quimicamente as emissões de óxidos de nitrogênio presentes nos gases de escape dos veículos a diesel. É uma solução a 32,5% de uréia de alta pureza em água desmineralizada que é transparente, não tóxica e de manuseio seguro. Ele não é explosivo, nem inflamável nem danoso ao meio ambiente.

É classificado como produto de categoria de risco mínimo no transporte de fluidos. Não é um combustível, nem um aditivo de combustível e precisa ser utilizado em um tanque específico nos veículos diesel SCR. O abastecimento é feito de forma semelhante ao diesel.

O consumo médio de Arla 32 é de 5% do consumo de diesel, de maneira que será necessário abastecer muito menos dele do que diesel. Serão utilizados cerca de 5 litros para cada 100 litros de diesel. Várias ações podem afetar a qualidade do Arla 32. Para prevenir uma contaminação, é imperativo que materiais estranhos não entrem em contato com a solução. Utilizá-lo contaminado pode levar a uma dispendiosa substituição do catalisador.

O SCR representa uma tecnologia que requer a utilização de um reagente chamado Arla 32 (também conhecido como AdBlue na Europa e DEF nos Estados Unidos) para reduzir quimicamente o Nox. Quase a totalidade dos fabricantes de veículos pesados decidiu utilizar essa tecnologia para se adequar à a nova legislação de emissões de NOx. Tecnologias concorrentes oferecem menores benefícios em eficiência do combustível e emissões mais altas de CO2.

Dessa forma, o SCR é a solução de custo mais eficaz para se adequar aos padrões de emissões de Nox. Os principais componentes do sistema SCR são o catalisador SCR, a unidade de injeção do Arla 32, o tanque de Arla 32 e a unidade de controle de dosagem.

O Arla 32 é injetado no escapamento, antes do catalisador SCR e depois do motor. Aquecido no escapamento, decompõe-se em amônia e CO2. Quando o NOx reage com a amônia dentro do catalisador, as moléculas danosas de NOx no escapamento são convertidas em inofensivas moléculas de nitrogênio e água.

Os principais poluentes atmosféricos são os aldeídos (RCHO), compostos químicos resultantes da oxidação parcial dos alcoóis ou de reações fotoquímicas na atmosfera, envolvendo hidrocarbonetos. Suas fontes são emitidos na queima de combustível em veículos automotores, principalmente nos veículos que utilizam etanol. Os aldeídos emitidos pelos carros são o Formaldeído e o Acetaldeído (predominante). Seus efeitos: a irritação das mucosas, dos olhos, do nariz e das vias respiratórias em geral e podem causar crises asmáticas, são ainda compostos carcinogênicos potenciais.

O dióxido de enxofre (SO2) é um gás tóxico e incolor, pode ser emitido por fontes naturais ou por fontes antropogênicas e pode reagir com outros compostos na atmosfera, formando material particulado de diâmetro reduzido. Suas fontes podem ser naturais, como vulcões, contribuem para o aumento das concentrações de SO2 no ambiente, porém na maior parte das áreas urbanas as atividades humanas são as principais fontes emissoras. A emissão antropogênica é causada pela queima de combustíveis fósseis que contenham enxofre em sua composição. As atividades de geração de energia, uso veicular e aquecimento doméstico são as que apresentam emissões mais significativas. Seus efeitos incluem o agravamento dos sintomas da asma e aumento de internações hospitalares, decorrentes de problemas respiratórios. São precursores da formação de material particulado secundário. No ambiente, podem reagir com a água na atmosfera formando chuva ácida.

O dióxido de nitrogênio (NO2) é um gás poluente com ação altamente oxidante, sua presença na atmosfera é fator chave na formação do ozônio troposférico. Além de efeitos sobre a saúde humana apresenta também efeitos sobre as mudanças climáticas globais. Suas fontes podem ser naturais (vulcanismos, ações bacterianas, descargas elétricas) e antropogênicas (processos de combustão em fontes móveis e fixas). As emissões naturais são em maior escala que as antropogênicas, porém, em razão de sua distribuição sobre o globo terrestre, tem menor impacto sobre as concentrações deste poluente nos centros urbanos. Seus efeitos: altas concentrações podem levar ao aumento de internações hospitalares, decorrente de problemas respiratórios, problemas pulmonares e agravamento à resposta das pessoas sensíveis a alérgenos. No ambiente pode levar a formação de smog fotoquímico e a chuvas ácidas.

Os hidrocarbonetos (HC) são compostos formados de carbono e hidrogênio e que podem se apresentar na forma de gases, partículas finas ou gotas. Podem ser divididos em: THC – hidrocarbonetos totais; CH4 – hidrocarboneto simples, conhecido como metano; NMHC – hidrocarbonetos não metano, compreendem os HC totais (THC) menos a parcela de  metano (CH4). Suas fontes provêm de uma grande variedade de processos industriais e naturais. Nos centros urbanos as principais fontes emissoras são os carros, ônibus e caminhões, nos processos de queima e evaporação de combustíveis. Seus efeitos são precursores para a formação do ozônio troposférico e apresentam potencial causador de efeito estufa (metano).

O material particulado (MP) é uma mistura complexa de sólidos com diâmetro reduzido, cujos componentes apresentam características físicas e químicas diversas. Em geral o material particulado é classificado de acordo com o diâmetro das partículas, devido à relação existente entre diâmetro e possibilidade de penetração no trato respiratório. Suas fontes – as fontes principais de material particulado são a queima de combustíveis fósseis, queima de biomassa vegetal, emissões de amônia na agricultura e emissões decorrentes de obras e pavimentação de vias. Seus efeitos: câncer respiratório, arteriosclerose, inflamação de pulmão, agravamento de sintomas de asma, aumento de internações hospitalares e podem levar à morte.

O monóxido de carbono (CO) é um gás inodoro e incolor, formado no processo de queima de combustíveis. É emitido nos processos de combustão que ocorrem em condições não ideais, em que não há oxigênio suficiente para realizar a queima completa do combustível. A maior parte das emissões em áreas urbanas são decorrentes dos veículos automotores. Este gás tem alta afinidade com a hemoglobina no sangue, substituindo o oxigênio e reduzindo a alimentação deste ao cérebro, coração e para o resto do corpo, durante o processo de respiração. Em baixa concentração causa fadiga e dor no peito, em alta concentração pode levar a asfixia e morte.

O ozônio (O3) é um poluente secundário, ou seja, não é emitido diretamente, mas formado a partir de outros poluentes atmosféricos, e altamente oxidante na troposfera (camada inferior da atmosfera). O ozônio é encontrado naturalmente na estratosfera (camada situada entre 15 e 50 km de altitude), onde tem a função positiva de absorver radiação solar, impedindo que grande parte dos raios ultravioletas cheguem a superfície terrestre. A formação do ozônio troposférico ocorre através de reações químicas complexas que acontecem entre o dióxido de nitrogênio e compostos orgânicos voláteis, na presença de radiação solar.

Estes poluentes são emitidos principalmente na queima de combustíveis fósseis, volatilização de combustíveis, criação de animais e na agricultura. Entre os efeitos à saúde estão o agravamento dos sintomas de asma, de deficiência respiratória, bem como de outras doenças pulmonares (enfisemas, bronquites, etc.) e cardiovasculares (arteriosclerose). Longo tempo de exposição pode ocasionar redução na capacidade pulmonar, desenvolvimento de asma e redução na expectativa de vida.

Os poluentes climáticos de vida curta (PCVC ou em inglês SLCP) são os que têm vida relativamente curta na atmosfera (de alguns dias à algumas décadas), apresentam efeitos nocivos à saúde, ao ambiente e também agravam o efeito estufa. Os principais PCVC são o carbono negro, o metano, o ozônio troposférico e os hidrofluorocarbonetos (HFC). As fontes principais de carbono negro são a queima ao ar livre de biomassa, motores a diesel e a queima residencial de combustíveis sólidos (carvão, madeira).

As fontes de metano antropogênicas são sistemas de óleo e gás, agricultura, criação de animais, aterros sanitários e tratamentos de esgotos. Com relação aos HFCs seu uso ocorre principalmente em sistemas de ar condicionado, refrigeração, supressores de queima, solventes e aerossóis. Os PCVCs têm efeitos negativos sobre a saúde humana, sobre os ecossistemas e sobre a produção agrícola. O carbono negro é um dos componentes do material particulado, o qual apresenta efeitos nocivos sobre os sistemas respiratório e sanguíneo, podendo levar a óbito. O metano tem grande potencial de aquecimento global, além de ser precursor na formação do ozônio troposférico. Os HFCs, assim como o metano, também apresentam grande potencial de aquecimento global.

Verão: estresse térmico pode reduzir produtividade do trabalhador

Versões de normas técnicas em outros idiomas

A Target, com uma ampla experiência na área de normalização, oferece aos seus clientes o serviço de tradução e formatação de normas técnicas. Profissionais especializados fazem uma tradução eficiente e segura das normas internacionais e estrangeiras para o padrão brasileiro de normas e, de acordo com a necessidade do cliente,  também traduzem as normas brasileiras para outras línguas, facilitando o acesso à informação crítica da norma, com toda segurança e garantia de qualidade Target.

Clique aqui para fazer sua solicitação

Empresas devem garantir manutenção de temperatura prevista na NR 15

Com a chegada do verão, aumenta a preocupação dos gestores empresariais em manter um ambiente termicamente confortável para os seus colaboradores. Segundo informações do Instituto Climatempo, 2015 registrará temperaturas mais altas do que o ano anterior. Desmaios, desidratação, sudorese intensa e exaustão são alguns dos reflexos que o estresse térmico pode ocasionar em situações ocupacionais.

De acordo com a legislação trabalhista vigente, nos escritórios e setores administrativos, a temperatura efetiva deve permanecer entre 20º C e 23ºC. “Recomendamos que as empresas monitorem a temperatura do ambiente. Isso garante o conforto térmico no local de trabalho, proporciona o bem estar aos funcionários e mantém a produtividade”, explica a engenheira do trabalho do Imtep, Carolina Arsie Cardoso. Nas indústrias, onde ocorre exposição ao calor em função de fontes artificiais, o cuidado deve ser o mesmo, sempre respeitando o tempo de descanso, o qual deve ocorrer em local com temperatura amena, definido em função do tipo de atividade realizada.

Segundo Carolina, por meio de uma análise quantitativa do calor, é possível verificar se os índices aos quais os trabalhadores estão expostos são adequados para as atividades exercidas. As medições devem ser efetuadas no local onde permanece o colaborador, à altura da região do corpo mais atingida. Após a análise dos resultados, devem ser definidos, seguindo as instruções da Norma Regulamentadora n° 15 anexo 3, os períodos de descanso no próprio local de prestação de serviço.

Algumas medidas contribuem para tornar o ambiente de trabalho mais confortável, como a execução de tarefas mais pesadas durante o período da manhã, ventilação adequada com renovação do ar, adoção de uniformes mais leves e utilização de barreiras nas fontes de calor. O Imtep, um dos maiores grupos de saúde ocupacional do país, oferece todo o suporte para diagnosticar e auxiliar as organizações na promoção de um ambiente de trabalho seguro, confortável e que garanta a qualidade de vida do capital humano. Abaixo, algumas dicas de como amenizar o calor e assegurar um local de trabalho termicamente correto.

– Execute tarefas mais pesadas no período da manhã, quando as temperaturas estão mais amenas;

– As pausas devem ser realizadas conforme legislação vigente, em função da atividade realizada (leve, moderada e pesada);

– Realize rodízios dos trabalhadores;

– Promova a renovação do ar. Ventiladores são indicados apenas para locais com temperaturas inferiores a 29ºC;

– Controle a umidade relativa do ar;

– Adote uniformes mais leves no verão;

– Hidrate-se! Para os trabalhadores é necessária a reposição de sódio para atividades com carga solar ou realizadas com exposição a fontes artificiais de calor.

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Linkedin: http://br.linkedin.com/pub/hayrton-prado/2/740/27a

Facebook: http://www.facebook.com/#!/hayrton.prado

Skype: hayrton.prado1

O Brasil dois anos depois de Santa Maria

Aterramento e a Proteção de Instalações e Equipamentos Sensíveis contra Raios: Fatos e Mitos – A partir de 3 x R$ 257,81 (56% de desconto)

Inspetor de Conformidade das Instalações Elétricas de Baixa Tensão de acordo com a NBR 5410 – A partir de 3 x R$ 320,57 (56% de desconto)

Interpretação e Aplicações da Norma Regulamentadora Nº 13 (NR-13) do MTE (Inspeção de Segurança de Caldeiras e Vasos de Pressão) – A partir de 3 x R$ 257,81 (56% de desconto)

Filtros de Harmônicos em Sistemas Industriais – A partir de 3 x R$ 257,81 (56% de desconto)

boate-kissPassados dois anos do incêndio da Boate Kiss, em Santa Maria/RS, que deixou 242 vítimas – o segundo com maior número de mortos no Brasil depois do Gran Circo Americano, em 1961, que deixou 503 mortos em Niterói (RJ) -,  as discussões sobre prevenção e detecção de incêndios no Brasil ainda não evoluíram de forma a criar um ambiente mais seguro no país, apesar de algumas iniciativas neste sentido.

No âmbito legislativo, a Câmara dos Deputados aprovou, em abril de 2014, o projeto de Lei (Nº 2020/2007), que atualiza as regras de prevenção e combate a incêndios em casas noturnas e similares no Brasil. Entretanto, o texto seguiu para o Senado, onde, desde então, aguarda ser aprovado antes da sanção da presidente Dilma Rousseff. Paralelamente, no Senado, tramita o Projeto de Lei Nº 121/2014, de autoria da senadora Ana Amélia, que tem por objetivo instituir normas gerais sobre segurança contra incêndio e pânico, visando à proteção da vida e à redução de danos ao meio ambiente e ao patrimônio.

Enquanto estas leis não são efetivamente aprovadas, desde a tragédia de Santa Maria, foram registrados outros casos que reforçam a necessidade de providências para a prevenção e detecção de incêndios, como o ocorrido no Memorial da América Latina, na Barra Funda, zona oeste de São Paulo, ou na faculdade Uniesp, na região central de São Paulo, que foi além das perdas materiais e deixou uma vítima fatal, que morreu intoxicada pela fumaça. “Estes são exemplos de instalações que estariam enquadradas na PL 2020 e as perdas patrimoniais e de vítimas poderiam ter sido reduzidas se o projeto já estivesse em vigência”, diz o diretor do Grupo Setorial de Sistemas de Detecção e Alarme de Incêndio (GSDAI) da Abinee, César Miranda.

A Abinee, por intermédio do GSDAI, criado em 2005, tem procurado fazer a sua parte para alterar este cenário preocupante, integrando seus trabalhos, que já vinham sendo desenvolvidos, às ações em andamento após a tragédia de Santa Maria. O grupo reúne fabricantes e integradores deste setor e tem por objetivo desenvolver e aprimorar esse mercado, incentivando a atração para o país das mais recentes tecnologias. “Ao mesmo tempo, trabalhamos no sentido de melhorar os padrões de segurança para proprietários e usuários de edificações, diminuindo o risco para empresas seguradoras, protegendo bens e, principalmente, pessoas, mostrando o potencial de crescimento e o aumento da importância da indústria de segurança contra incêndio”, afirma o diretor do GSDAI.

Entre os trabalhos do Grupo está o acompanhamento de consultas públicas referentes a regulamentações dos Corpos de Bombeiros e a interação com outras entidades ligadas ao setor de combate, prevenção e detecção de incêndios.  O GSDAI pretende, em breve, criar estatísticas de mercado, como forma de respaldar novas iniciativas, e materiais com informações relevantes e acessíveis destinadas ao público final, uma vez que é essencial educar a população, como forma de proteger vidas humanas criando uma cultura de prevenção e detecção contra incêndios no país.

Neste contexto, o GSDAI tem promovido o debate sobre o assunto, ampliando a conscientização de todos os envolvidos. “No âmbito da ISC Brasil – Feira e Conferência Internacional de Segurança -, temos realizado o Fórum Nacional de Detecção e Combate a Incêndios, que, em 2015, chega à sua terceira edição, tendo como tema a responsabilidade civil e criminal dos autores de projetos, instaladores e mantenedores de sistemas contra incêndio”, salienta o diretor do Grupo.

Normas técnicas e certificações

A questão das normas técnicas e certificações tem sido um dos focos da atuação do GSDAI, que participa das discussões junto aos orgãos competentes. No âmbito da ABNT, o assunto é discutido no CB-24 – Comitê Brasileiro de Segurança contra Incêndio. Neste comitê há uma série de normas publicadas e em elaboração em várias comissões de estudos. A Abinee participa de forma ativa em três delas: Iluminação de Emergência (CE-24:204.01), Proteção contra incêndio em instalações de Geração e Transmissão de Energia Elétrica (CE-24.301.04) e Sistemas de detecção e alarme de incêndio (CE-24:202.03).

“Nesta última comissão, a Abinee contribuiu para a elaboração da ABNT NBR 17240:2010 – Sistemas de detecção e alarme de incêndio – Projeto, instalação, comissionamento e manutenção de sistemas de detecção e alarme de incêndio – Requisitos”, explica César Miranda. Agora, o grupo tem trabalhado para divulgá-la junto ao mercado e aos orgãos competentes.

O GSDAI também tem contribuído na série de normas NBR ISO 7240 – Normas de produtos, dividida em partes específicas para cada equipamento que compõe um sistema de detecção e alarme de incêndio. A norma NBR ISO 7240 é idêntica à norma ISO 7240 – uma vez que o Brasil segue diretrizes de padrão internacional -, considerando as particularidades do país.

Na parte de certificação de produtos, a Abinee conseguiu junto ao Inmetro a inclusão de cinco produtos no Programa Brasileiro de Avaliação da Conformidade (PBAC). São eles: Detector de fumaça, Detector de Temperatura, Central de Alarme, Acionador Manual e Avisador Sonoro e Audiovisual. A partir destas inclusões, está sendo feito um levantamento da qualidade e desempenho dos produtos encontrados no mercado para então definir o modelo de certificação a ser adotado.

Apesar de todas estas iniciativas encaminhadas, ou ainda pendentes, o tema do combate, prevenção e detecção de incêndios ainda tem muito a avançar. “Infelizmente a tragédia de Santa Maria foi um marco importante para sensibilizar a sociedade da necessidade de mais cuidados na prevenção contra incêndios. Alguns passos foram dados nestes últimos dois anos nesta direção, mas entendemos que ainda há muito o que fazer. Nós, como Abinee, estamos dedicando esforços para melhorar tais condições, através das diversas iniciativas já mencionadas”, conclui o diretor do GSDAI, César Miranda.

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Linkedin: http://br.linkedin.com/pub/hayrton-prado/2/740/27a

Facebook: http://www.facebook.com/#!/hayrton.prado

Skype: hayrton.prado1

Advocacia preventiva permite que empresas cresçam de forma sustentável

CURSO PELA INTERNET

Metodologia para Identificação e Classificação de Aspectos e Impactos Ambientais, Conforme NBR ISO 14001 – Disponível pela Internet

Possibilitar ao participante a identificação dos aspectos e impactos ambientais, e elaborar o LAIA – Levantamento de Aspectos e Impactos Ambientais de sua organização conforme a norma NBR ISO 14001.

A maioria dos empresários desconhece a legislação trabalhista, tributária e do consumidor, o que fatalmente pode comprometer o bom andamento e a saúde financeira do empreendimento. Por esse motivo, as vantagens em ter uma advocacia preventiva são inúmeras porque evitará o surgimento de ações judiciais, autuações e interdições administrativas.

O advogado Jean Nagib Eid Ghosn especializado em direito do trabalho e empresarial, explica que é possível realizar uma contratação legal de empregados até por meio salário mínimo através do contrato de regime parcial. “ Nesta situação, uma assessoria eficaz se faz necessário porque boa parte não sabe como proceder nestes casos ou pior, desconhecem até quais contribuições sindicais devem ser pagas e também sobre as exigências legais do Ministério do Trabalho”, alerta.

Outro alerta feito pelo advogado é em relação a contratação de empregados temporários, muito comum nesta época do ano. “Há um tipo de contrato específico para esta modalidade. Caso não seja elaborado por um profissional especializado, pode haver futuros problemas”, lembra Jean.

Aretha Chaia Marques da Silva, advogada especializada em direito empresarial e trabalhista, afirma que em relação ao direito tributário, a maioria dos empresários não sabem se estão enquadrados no regime adequado, o que ocasiona o pagamento de mais impostos indevidamente. Além disto, a maioria acredita que alguns créditos como cheque, duplicata, nota promissória, contrato descumpridos estão perdidos. “ Atualmente, com a chegada da tecnologia e a interligação dos órgãos pela internet, já é possível recuperar esses dividendos”, avalia a especialista.

Reclamações do órgão de defensa do Consumidor, o Procon, também têm manchado a imagem de algumas empresas. Muitos empresários também não sabem como se prevenir ou se defender de algumas queixas realizadas pelos consumidores, como por exemplo, os prazos de garantia, se há garantia, se deve trocar ou não e o direito de arrependimento. Cada infração corresponde a multas superiores a 800 UFIRS além da possibilidade de terem o seu empreendimento fechado pelos agentes fiscais.

Já no ponto de vista financeiro, o advogado reforça que a assessoria poderá evitar multas, autuações e interdições administrativas. “Outro fator que merece destaque é a reestruturação e redução de custos, devido a terceirização de alguns serviços assim como revisar e elaborar o planejamento tributário”, afirma.

No aspecto econômico, a empresa pagará uma mensalidade fixa para contratar a assessoria, independentemente da quantidade de trabalho ou processos enquanto que a contratação tradicional (por ato), a empresa pagará, em média, o percentual de 30% sobre o valor da causa sobre cada processo. “ Ou seja, a contratação mensal e global é muito mais econômica enquanto a contratação individual (tradicional e por ato) é custosa e limitada”, conclui Aretha.

A assessoria jurídica é uma parceira que objetiva o sucesso do empreendimento. Desta forma, com todo o respaldo fornecido pela equipe de advogados, a empresa tem grandes chances de prosperar, crescer, ampliar e expandir .

O paradigma da complexidade inerente

CURSO PELA INTERNET

TPM para Operadores – Disponível pela Internet

Como conscientizar e habilitar operador a entender a praticar o TPM.

Eduardo Moura

Esse paradigma consiste em crer que “a realidade é altamente complexa em sua essência”. Partindo dessa definição fundamental, nossa reação “natural” para enfrentar a complexidade passa a ser: “dividamos o sistema complexo em pequenas partes mais manejáveis e administremos tais partes individualmente.” (por isso poderíamos também chamar esse paradigma de “Paradigma da Fragmentação”).

E isso, aplicado a inúmeras situações (algumas das quais discutimos a seguir) , ocasiona toda uma série de conflitos organizacionais, com os respectivos sintomas negativos que nos afligem no dia-a-dia.
Por exemplo: na grande maioria das empresas, um mal crônico é a comunicação deficiente entre os diferentes departamentos, resultante de “interfaces nebulosas” no que diz respeito à clara definição de papéis e responsabilidades pelo fluxo de trabalho.

Uma vez que estamos dedicados às atividades e objetivos departamentais, a integração e o fluxo de informações e materiais entre áreas (que é o que realmente determina o tempo e a qualidade da resposta ao cliente) ficam relegados a segundo ou terceiro plano. Como consequência, vários problemas pipocam mais tarde e fazem com que cerca de 70% (!) do tempo das pessoas seja desperdiçado no combate a “incêndios”. O que evidentemente se propaga no tempo e no espaço, e no final acaba impactando negativamente os clientes, com respostas lentas e ineficazes.

E tais sintomas negativos são consequência de um conflito de fundo que podemos chamar de “o dilema da atenção gerencial”, “O Dilema da Atenção”): “A. Focar-se nas metas departamentais de curto prazo” versus “B. Focar-se nos objetivos organizacionais de longo prazo”.

Paradigma-da- Complexidade-InerenteA “solução” ganha-perde (que dá origem aos problemas mencionados) é a centenária “Gestão por Departamentos”, a qual prioriza o lado (A) do conflito, sacrificando o lado (B). Tal decisão (tomada por inércia, sem muita reflexão) fundamenta-se na premissa de que “a empresa irá bem, se cada departamento empenhar-se em cumprir suas metas individuais”.

A realidade, entretanto, oferece inúmeras evidências de que essa premissa é falsa: é comum ver organizações nas quais as pessoas dão o melhor de si em suas atividades departamentais, mas o desempenho global da empresa é sofrível. Mas é aí que o paradigma revela seus poderes ocultos: interpretando tais problemas sob a ótica da “Gestão Departamental” (sem jamais questionar o próprio paradigma), os gestores chegam à conclusão que é necessário “aperfeiçoar” o sistema vigente através da imposição de metas mais agressivas, mais controles, um amplo desdobramento de metas numéricas via BSC (Balanced Scorecard) até chegar à metas individuais de cada colaborador, complementado por um sofisticado sistema de incentivos etc., o que apenas aumenta a complexidade e aprofunda ainda mais os efeitos negativos.

Outro exemplo prático do pleno funcionamento do Paradigma da Complexidade Inerente é a questão das prioridades na produção. Com frequência, vemos o pessoal saltitando entre priorizar a qualidade, ou o lead-time, ou volume de produção, ou os pedidos urgentes, ou o custo, inventários etc. E fazem isto porque assumem a falsa premissa de que aqueles são temas relativamente independentes, que podem ser tratados separadamente.

Mas apesar das evidências mostrarem que ao priorizar qualquer um daqueles temas os demais ficam prejudicados, sua atitude (dentro do paradigma vigente) é simplesmente resignar-se a conviver com os problemas, como se eles fossem moléstias inevitáveis. Ou então, seus atormentados ouvidos cedem ao canto místico da sereia informática e buscam desesperadamente a solução num software mais sofisticado, o que no frigir dos ovos acaba apenas aumentando a complexidade do sistema produtivo e produz um molho mais caro do que o peixe.

Um outro exemplo do paradigma em questão é o Gerenciamento de Projetos. Diante da complexidade de gerenciar centenas de tarefas e dezenas de recursos envolvidos num projeto complexo, dividimos o mesmo em pequenos conjuntos de tarefas e programamos para cada tarefa uma data de início e fim, ingenuamente adotando a (falsa) premissa de que “se todas as tarefas se concluírem a tempo, o projeto será entregue no prazo, com o conteúdo prometido e dentro do orçamento planejado.” Ledo engano.

Mas, apesar das contundentes evidências de que, quase que invariavelmente, todo projeto é entregue com atraso, com várias modificações em relação ao conteúdo prometido e com muitos gastos imprevistos, as pessoas (presas ao paradigma da gestão individualizada de tarefas) concluem que a solução está em negociar mais prazo com os clientes, sofisticar a análise de riscos antes de iniciar o projeto, fragmentar ainda mais as tarefas, aumentar a frequência e abrangência dos “gate reviews”, desenvolver a inteligência emocional da equipe, escrever um novo procedimento sobre como gerenciar projetos, etc. E assim o PMBOK já se aproxima das 500 páginas…

Bem, uma breve reflexão sobre os exemplos acima são suficientes para revelar um padrão comum por trás dos mesmos: a contraditória tendência de que os intentos para resolver a complexidade do sistema, uma vez decididos sob a ótica do Paradigma da Complexidade Inerente, acabam invariavelmente aumentando a complexidade! O que reforça ainda mais a crença de que a realidade é naturalmente complexa, completando assim o ciclo de uma profecia auto-realizável.

A solução definitiva, portanto, não se encontra dentro das fronteiras do próprio paradigma, mas requer sua substituição por um mais adequado: o Paradigma da Simplicidade Inerente, preconizado por Eli Goldratt em seu livro “The Choice”, o qual consiste em descobrir que “a realidade é sumamente simples e intrinsecamente harmoniosa.” A prática desse revolucionário paradigma consiste em engajar-se corajosamente (com a “humildade arrogante” de um cientista, como dizia Goldratt) em um processo de raciocínio fundamentado em relações lógicas de causa e efeito, até que seja identificado o único ou poucos fatores de fundo responsáveis pela multiplicidade de efeitos indesejáveis da realidade atual.

O método para isso é o Thinking Process. Revela-se desse modo a simplicidade inerente que sempre esteve escondida atrás da complexidade aparente. Então (e só então) fica evidente o caminho para uma solução poderosa e, com frequência, vergonhosamente simples.

Aplicado como antídoto eficaz para as problemáticas situações mencionadas anteriormente, a Simplicidade Inerente aponta para: romper com a Gestão por Departamentos e adotar a Gestão por Processos, subordinando a estrutura vertical das diversas áreas funcionais ao fluxo horizontal e integrado dos processos empresariais; focar e priorizar apenas o fluxo ininterrupto de trabalho através dos diferentes processos e recursos para que os demais objetivos de qualidade, produtividade e mínimo custo sejam “automaticamente” alcançados (o que constitui a essência do Sistema Lean de Produção); substituir o manejo individual das tarefas do projeto pela orquestração global da “corrida de bastão” através da cadeia de atividades e recursos dependentes que determinam a data de entrega final do projeto (o método da Corrente Crítica, de Goldratt). Mas faltaria espaço nesse meio para entrar em detalhes sobre tais soluções.

Eduardo Moura é diretor da Qualiplus Excelência Empresarial – emoura@qualiplus.com.br