Os indicadores para sustentabilidade dos meios de hospedagem

Nesse blog já foi publicado o texto sobre a sustentabilidade dos meios de hospedagem no link https://qualidadeonline.wordpress.com/2014/07/24/a-sustentabilidade-dos-meios-de-hospedagem-conforme-a-norma-tcnica/

Agora foi editada uma norma técnica especificando os indicadores para se conseguir isso. A NBR 16534 de 09/2016 – Meios de hospedagem – Indicadores para o sistema de gestão da sustentabilidade especifica exemplos de indicadores para um sistema de gestão da sustentabilidade em meios de hospedagem, permitindo que um meio de hospedagem monitore e reporte os resultados referentes aos impactos ambientais, socioculturais e econômicos significativos.

Destaca-se que os exemplos de indicadores apresentados nesta norma são modelos que podem ser adequados aos meios de hospedagem conforme a estratégia da empresa, levando em consideração, principalmente, a compatibilidade com a legislação aplicável, bem com seu porte, tipo, localização geográfica e condições culturais e sociais. Por exemplo, um indicador seria a geração de resíduos/hóspede/noite.

O indicador de geração de resíduos/hóspede/noite tem como fundamento o impacto ambiental gerado pelo meio de hospedagem no uso de recursos e na geração de resíduos sólidos. Deve ser calculado para o período adotado e a fórmula de cálculo seria a quantidade total de resíduos sólidos (kg) gerados no período kg de resíduos/hóspede/noite dividido pelo número de hóspedes vezes o número de noites que seria igual a X kg de resíduos/hóspede/noite.

Para as regras de contagem, deve ser considerada a quantidade de resíduos sólidos gerados em quilogramas no período. O valor pode ser estimado, com base em critérios que permitam monitoramento consistente. Para calcular o denominador da fórmula, o meio de hospedagem deve contabilizar os hóspedes, os colaboradores, os visitantes e a quantidade de dias de permanência.

As exceções para as regras de contagem são as quantidades (em kg) muito pequenas de resíduos, de difícil quantificação, podem ser desprezadas. As fonte de dados são os locais onde os resíduos sólidos estão armazenados são a fonte para este tipo de informação.

Exemplo de como calcular

—— volume de resíduo gerado no restaurante (Junho/2014): 304 kg

—— volume de resíduo gerado na lavanderia (Junho/2014): 6 kg

—— volume de resíduo gerado no escritório (Junho/2014): 10 kg

—— volume de resíduo gerado em obras (Junho/2014): 180 kg

—— número de hóspedes.

Inserir indicador

Esta norma se aplica a qualquer meio de hospedagem que deseje: medir, avaliar e monitorar o desempenho do sistema de gestão da sustentabilidade; assegurar-se de sua conformidade com sua política de sustentabilidade definida; medir, avaliar e monitorar os resultados das práticas sustentáveis implementadas nas suas operações; avaliar o cumprimento dos objetivos da sustentabilidade estabelecidos; e monitorar o cumprimento à legislação aplicável.

A abordagem da normalização da sustentabilidade do turismo e a decorrente possibilidade de implementar um sistema de certificação dos meios de hospedagem que aplica a(s) norma(s) relacionada(s) partem do estabelecimento de requisitos de desempenho para as dimensões da sustentabilidade (ambiental, sociocultural e econômica), os quais são suportados por um sistema de gestão da sustentabilidade.

Este sistema de gestão proporciona uma base estável, coerente e consistente para o alcance do desempenho sustentável dos meios de hospedagem e a sua manutenção. O sistema de gestão da sustentabilidade soma-se aos demais modelos de sistemas de gestão estabelecidos, entre os quais estão, como principais referências, a NBR ISO 9001 e a NBR ISO 14001.

Nesta perspectiva, indicadores de desempenho, como estes apresentados nesta norma, são essenciais para que o meio de hospedagem possa monitorar os resultados obtidos pelo planejamento e implementação de ações relacionadas aos impactos ambientais, socioculturais e econômicos significativos. Estes indicadores podem ser utilizados pelos meios de hospedagem que buscam reduzir os seus custos e, ao mesmo tempo, aumentar a sua lucratividade, colocando em prática os conceitos de uma gestão mais sustentável.

Esta gestão permite, na dimensão ambiental, alcançar uma maior eficiência energética, otimizando o uso dos insumos, matérias-primas e recursos hídricos, reduzindo a geração de resíduos e tornando os funcionários mais conscientes e motivados para a preservação do destino turístico onde o meio de hospedagem está localizado.

Na dimensão sociocultural, funcionários capacitados, diminuição da rotatividade, melhorias no ambiente de trabalho, estreitamento de parcerias com fornecedores e outras organizações relacionadas ao meio de hospedagem, reconhecimento e melhoria da imagem do meio de hospedagem para hóspedes, comunidade local, fornecedores e outras partes interessadas, além da valorização do destino por meio do desenvolvimento da comunidade e proteção dos seus valores culturais.

Na dimensão econômica, o aprimoramento da gestão proporciona maior saúde financeira da empresa, permitindo o desenvolvimento de estratégias para maior lucratividade associada ao crescimento e desenvolvimento do meio de hospedagem, para satisfazer as necessidades do seu cliente. O turismo, que é um dos maiores segmentos econômicos do mundo, vem cada vez mais sendo objeto de atenção em relação à sua potencial contribuição para o desenvolvimento sustentável e ao mesmo tempo quanto aos impactos que pode provocar nos campos ambiental, sociocultural e econômico.

Organizações de todos os tipos no setor do turismo estão cada vez mais preocupadas em atingir e demonstrar um desempenho correto em relação à sustentabilidade, gerindo o impacto de suas atividades, produtos ou serviços, levando em consideração sua política e seus objetivos de sustentabilidade.

Este comportamento se insere no contexto de uma legislação cada vez mais exigente, do desenvolvimento de políticas econômicas e sociais, de outras medidas destinadas a estimular a proteção ao meio ambiente e ao patrimônio cultural e de uma crescente preocupação das partes interessadas, em particular os clientes, em relação à qualidade e às questões ambientais e socioculturais.

Muitas iniciativas têm sido desenvolvidas com o propósito de promover o turismo sustentável. Entre elas, o desenvolvimento de normas que estabeleçam os requisitos mínimos para o turismo sustentável, aliadas a mecanismos de certificação, tem se destacado como uma das tendências mais presentes no mercado internacional, despertando maior engajamento das partes interessadas.

A experiência em outros setores da economia mostra que um sistema de gestão eficaz depende de um conjunto consistente de indicadores e, portanto, esta norma tem como propósito servir de fonte de consulta e orientação para os meios de hospedagem que desejem implementar um sistema de gestão da sustentabilidade.

Para tal deve ser levado em conta que trabalhar com um número muito grande de indicadores, geralmente resulta em um sistema ineficaz, pois é muito difícil se manejar um número grande de variáveis independentes ao mesmo tempo. Outro aspecto a ser considerado é que a norma NBR 15401:2014 estabelece requisitos para três dimensões da sustentabilidade (ambiental, sociocultural e econômica), sendo que as dimensões não se sobrepõem uma sobre as outras em termos de importância, ou seja, todas precisam ser igualmente administradas.

Os indicadores devem ser claros, compreensíveis, objetivos e operacionalmente fáceis de serem apurados e calculados. Os indicadores devem ser utilizados em estreita consonância com os objetivos da sustentabilidade estabelecidos pelo meio de hospedagem.

Considerando estes aspectos, foram definidos indicadores para as três dimensões da sustentabilidade (ambiental, sociocultural e econômica). Os indicadores propostos podem ser considerados como base para cada meio de hospedagem. Assim, será possível que determinados meios de hospedagem usem outros indicadores além destes propostos, e usem alguns dos indicadores, propostos ou indicadores diferentes destes aqui apresentados.

Importante ressaltar que os custos fixos são custos existentes em relação à operação do meio de hospedagem, mesmo que não haja ocupação. São exemplos de custos fixos em meios de hospedagem: folha de pagamento (salários e encargos); taxas e licenças (IPTU, alvarás, entre outros); aluguéis; serviços contratados (manutenção, segurança, jardinagem, internet, TV a cabo, informática, comunicação); energia, água e telefonia (parte fixa da conta); combustível (consumo mínimo); estoque (alimentos e bebidas, material de limpeza, entre outros).

Os custos variáveis são os custos existentes em relação à operação do meio de hospedagem em função da ocupação. São exemplos de custos variáveis em meios de hospedagem: comissões, horas extras e mão de obra temporária incidentes na folha de pagamento; energia, água e telefonia; combustível; consumo e reposição de estoque (alimentos e bebidas, material de limpeza, entre outros); serviços contratados (lavanderia, entre outros).

As despesas variáveis são as despesas relacionadas à estrutura administrativa e comercial da empresa. São exemplos de despesas variáveis em meios de hospedagem: impostos (ISS, PIS, Cofins, entre outros); taxa de recolhimento de lixo por quantidade; comissão de venda e intermediação; taxa administrativa do cartão de crédito e antecipação de receitas.

Os investimentos são recursos aportados para ampliação e/ou melhoria do meio de hospedagem. São exemplos de investimentos em meios de hospedagem: construção de novas UH; modernização das instalações; aquisição de novos equipamentos; inserção de novos serviços; e campanha de marketing.

Gestão do desempenho é fundamental, mas… desempenho de quê?

O Target Genius Respostas Diretas é o mais avançado e inovador sistema de perguntas e respostas sobre requisitos de normas técnicas.
É, basicamente, um conjunto de perguntas mais comuns sobre determinados assuntos das normas técnicas, acompanhadas das respectivas respostas. Definitivamente, a solução para as dúvidas sobre normas técnicas. Selecione o Comitê Técnico desejado e clique sobre o código ou título para consultar no link https://www.target.com.br/produtos/genius-respostas-diretas

Eduardo Moura

Todos no mundo dos negócios buscam resultados, por razões óbvias. Reconhecendo que os resultados não vêm se não houver um acompanhamento dos mesmos, todos se metem em alguma forma de controle. E é justamente aí que alguns gestores fracassam (no pior dos casos) ou que a grande maioria se enredam na penosa rotina diária de verter muito sangue, suor e lágrimas, isto é, realizar muito esforço desnecessário para melhorar o desempenho organizacional, mais ou menos como carregar no braço (sem descanso) uma mala de paralelepípedos (sem alça) ou engajar-se numa briga de foice morro acima.

Chega a ser triste constatar que, na maioria dos casos, os gerentes (em todos os níveis hierárquicos) dedicam cerca de 80% de seus dias (e às vezes toda sua vida produtiva) à ingrata atividade de “apagar incêndios”, isto é, reagir a problemas que, em 80% ou mais dos casos, simplesmente poderiam ter sido prevenidos. Arrisco afirmar que tais incêndios emanam fundamentalmente de três dilemas administrativos não satisfatoriamente resolvidos.

O dilema da atenção: “Por um lado tenho que envolver-me em dar respostas imediatas às urgências do dia-a-dia (para servir os clientes atuais) mas ao fazer isto não consigo dedicar tempo a pensar e agir estrategicamente (para assegurar o futuro da empresa)”.

O dilema do controle: “Por um lado tenho que acompanhar os resultados de cada departamento da empresa (participando de múltiplas e intermináveis reuniões), a fim de garantir o bom desempenho, mas ao fazer isto sinto que perco a visão do negócio como um todo e de alguma forma não obtemos uma melhoria expressiva e sustentável do desempenho global”.

O dilema da informação: “Por um lado necessito informação de cada aspecto do negócio, para analisar e tomar decisões, mas ao fazer isto sou bombardeado com tamanho volume de dados que não consigo achar a agulha no palheiro…”

O caminho para a solução definitiva de tais dilemas começa com a identificação de pelo menos uma premissa inválida sobre a qual os mesmos se apóiam. Faltaria espaço aqui para uma discussão mais extensa nesse sentido, de modo que vou direto para o âmago da questão: todos os três dilemas gerenciais declarados acima têm sua origem no paradigma vigente de administração: o fracionamento e manejo da empresa através de departamentos estanques (os famosos “silos” ou “feudos” organizacionais resultantes do que chamo “paradigma da fragmentação” – ver artigos anteriores). Senão, vejamos:

Por que é que gerentes de alto nível têm que estar envolvidos nas urgências do dia-a-dia? (o dilema da atenção). Porque os processos interdepartamentais não estão identificados e padronizados, o que inevitavelmente gera má comunicação e integração entre as áreas, e que finalmente resulta em urgências e “incêndios”.

Por que é que os executivos têm que controlar o desempenho de cada departamento separadamente? (o dilema do controle). Porque é assim que vemos e gerenciamos a empresa: como um aglomerado de áreas e departamentos, e não como um sistema integrado de negócios.

Por que é que executivos têm que receber e analisar múltiplas informações de todas as áreas? (o dilema da informação). Porque ao fracionar a empresas em áreas e departamentos isolados, desenvolvemos a falsa impressão de que tudo tem a mesma importância, e a partir daí achamos que todas as partes têm que reportar informação sobre o seu desempenho individual.

Se aprofundarmos o pensamento a partir de tais constatações, poderemos chegar uma premissa inerente ao citado paradigma da fragmentação: a de que “todo resultado é gerado pelas áreas e departamentos da empresa”. Permitam-me afirmar que tal premissa é falsa! Na verdade, os resultados de maior impacto para o negócio não vêm de áreas isoladas, mas sim do fluxo de atividades de criação de valor que cruzam as várias áreas e departamentos.

Se tal fluxo de atividades for repetitivo, temos um processo interdepartamental. Se porém tal fluxo ocorre uma única vez, temos um projeto empresarial. O que nos leva a reconhecer e adotar uma nova premissa que substitui a anterior: “todo resultado relevante é obtido através de processos ou projetos organizacionais”.

Em qualquer dos casos (processos ou projetos), se o fluxo horizontal de atividades que integram as diferentes áreas envolvidas não estiver claramente identificado, padronizado e gerenciado eficazmente, não será possível obter resultados consistentes, e muito menos sustentar a melhoria contínua do desempenho global. O que nos leva à conclusão de que a tradicional gestão de departamentos deve ser erradicada e substituída por uma metodologia eficiente para gerenciar processos e projetos.

Em outras palavras, no caso de resultados repetitivos (processos) devemos contar com técnicas consistentes para padronizar as atividades rotineiras e orientar o trabalho das equipes de processos; no caso de resultados pontuais (projetos) devemos contar técnicas consistentes para padronizar a forma como planejamos e executamos projetos eficazmente, orientando o trabalho das equipes de projetos (o que acaba sendo também um processo de gerenciamento de projetos).

Portanto, visto de modo amplo, a gestão por processos é o antídoto contra a gestão de departamentos. Como já afirmamos em artigos passados, implementar a gestão por processos não significa cometer o erro crasso da reengenharia de processos, que pregava a destruição dos departamentos. Isso sempre soubemos que não funciona. Trata-se, porém de subordinar a estrutura vertical de departamentos e colocá-la a serviço do fluxo horizontal de criação de valor, integrando-os efetivamente através de processos empresariais padronizados.

Contemplar a empresa dessa maneira global e sistêmica imediatamente traz à tona a questão de como gerenciar a rotina de trabalho nesse novo ambiente. Como acompanhar de maneira simples e eficaz o desempenho de processos e projetos? Quais indicadores devem ser acompanhados? Que devemos fazer para que funcionem como ferramentas para alinhar os esforços do pessoal e orientá-los a tomar decisões corretas, que melhorem o desempenho global?

Eduardo Moura é diretor da Qualiplus Excelência Empresarial –emoura@qualiplus.com.br

Os sete piores erros no uso de indicadores de desempenho

Bem vindo ao sistema Target GEDWeb. Se você já é usuário do sistema Target GEDWeb, basta preencher seu e-mail no campo a seguir e clicar em “Enviar”.Caso você ainda não seja usuário e queira conhecer a ferramenta definitiva para gerenciar e acessar grandes acervos de Normas Técnicas e Documentos Técnicos, clique no botão “Folder do Target GEDWeb”. Agora, se já conhece a ferramenta e deseja montar sua biblioteca digital a partir de R$ 47,60, clique no botão “Monte seu GEDWeb”. Clique no link www.gedweb.com.br

Eduardo Moura

Circula por aí o ditado “o que não se mede não pode ser gerenciado”. E muitos o interpretam da seguinte maneira: “se estamos medindo, então estamos gerenciando”. Ledo engano: é perfeitamente possível usar indicadores e não estar exercendo a verdadeira gestão.

Discuto aqui os que, em minha opinião, são os erros “top seven” na questão de indicadores de desempenho organizacional. Se você é um gerente ou alto executivo, sugiro que use essa lista como um “teste de sanidade” de como sua empresa usa indicadores. Já lhe adianto que vai ser difícil escapar ileso desse “checkup”…

Erro 1: Só analisar números. Deming já alertava que os principais números de um negócio são desconhecidos e “inconhecíveis”. Por exemplo: quantas vendas estamos perdendo devido a clientes insatisfeitos ou por falta de inovação? Mas muitos reduzem a “gestão” à simples verificação de resultados numéricos, mais ou menos como quem controla o placar de um jogo. Isso é o que eu chamo de gestão símia.

Até um chimpanzé é capaz de detectar se um número subiu ou baixou. Além disso, “administrar” com base apenas em números é como dirigir um automóvel olhando apenas para o espelho retrovisor. Há certas questões vitais que apontam para o futuro e que são impossíveis ou muito difíceis de traduzir numericamente, como por exemplo: estamos realmente sintonizados com o que vai na cabeça dos clientes, em seus diferentes segmentos? Conhecemos profundamente seus problemas e necessidades? Quais são as melhores oportunidades do mercado, neste exato momento? Temos respostas atrativas para tais coisas, mais do que os concorrentes? O que é que nos está impedindo de crescer? Qual é o nosso “core problem”, hoje? E muitas outras. Portanto, a questão é medir, sim, mas que os números sejam apenas uma das vertentes que se consideram com o propósito de lançar luz sobre o processo de análise, reflexão e tomada de decisões.

Erro 2: Só usar indicadores financeiros. Os resultados financeiros são simplesmente vitais, mas no fundo são apenas isso: resultados. Embora importantes e absolutamente indispensáveis de serem medidos e controlados, os números do “bottom line” monetário são “lagging indicators” (indicadores reativos), pois muita água já passou por debaixo da ponte quando chegamos aos resultados de rentabilidade. É preciso usar também os “leading indicators” (indicadores proativos) que permitam monitorar outras dimensões vitais do negócio, tais como o nível de inovação da empresa, a satisfação dos clientes, o nível de competência profissional e o comprometimento dos colaboradores, para citar apenas alguns exemplos. Esse foi o importante recado de Kaplan e Norton no início dos anos 90, ao introduzirem o conceito do BSC (“Balanced Scorecard”). As empresas mais rentáveis do planeta são aquelas que, paradoxalmente, não pautam suas ações pelo lucro, mas sim em um propósito central mais nobre que vai além de simplesmente gerar dinheiro. E o conjunto de indicadores de desempenho deve refletir em termos numéricos esse enfoque mais amplo.

Erro 3: Usar indicadores de cumprimento de metas. O conceito de administrar com base no cumprimento de metas predefinidas está tão arraigado nas mentes e corações da esmagadora maioria dos administradores que estou certo de que o que vou dizer aqui será considerado sacrilégio. Mas considere por um momento a possibilidade de que uma empresa não estabeleça e não exija o cumprimento de metas numéricas estabelecidas a priori (o que não quer dizer que o desempenho não seja monitorado). Ao fazer isso, alguns benefícios relevantes são imediatamente assegurados: a) a empresafica livre da mediocridade, pois evita que a equipe respire aliviada e pare de se esforçar quando metas fáceis de atingir são conquistadas; b) a equipe fica livre de um pesado clima de frustração (mesmo após ter feito um excelente trabalho) quando metas irrealistas não são atingidas. A esta altura alguém poderia argumentar: “Mas como trabalhar sem metas?!”. Bem, não estabelecer metas numéricas não significa ausência de objetivos. Uma coisa é elaborar objetivos estratégicos e decidir as correspondentes táticas, como resultado de um abrangente e profundo exercício de planejamento, e outra coisa completamente diferente é estabelecer arbitrariamente certas  metas numéricas, após uma análise superficial. Por exemplo: “aumentar substancialmente as vendas no canal atacadista” (objetivo estratégico) através de “garantir a reposição em 24 horas do produto vendido e a substituição de produto que não gira” (a correspondente tática) é muito   diferente de  impor  uma meta numérica tipo “aumentar 35% as vendas em todos os segmentos até Janeiro de 2014”. O exemplo anterior (estratégia e tática) serve para orientar e alinhar esforços, enquanto o segundo exemplo (meta numérica), ao contrário, pode disparar esforços divergentes, acirrar conflitos e acumular frustrações.

Ainda sobre este ponto, um segundo questionamento poderia ser: “Mas sem metas o pessoal vai folgar”. Essa objeção resulta de adotar, lá no fundinho do coração, duas premissas a respeito das pessoas, a saber: que “as pessoas são naturalmente apáticas em relação ao trabalho, e, portanto, precisam de estímulo externo”, e que “a recompensa financeira é o melhor ou principal fator de motivação”. Ambas as premissas são falsas! A verdade é que planejamento, boa gestão e obtenção de resultados sustentáveis não tem nada a ver com o estilo vigente de declarar metas numéricas a priori e cobrar seu cumprimento a posteriori.

Erro 4. Usar indicadores de eficiência local. Este é um sintoma do “paradigma da fragmentação”, que se fundamenta na premissa equivocada de que “se cada parte realiza sua função, então o sistema como um todo estará operando em seu ponto ótimo”. Aplicado à estrutura organizacional de uma empresa, isto implica dividi-la em áreas funcionais ou departamentos, e em seguida definir objetivos para cada parte. E assim por diante: dentro de cada área (por exemplo a Produção) o procedimento é o mesmo, dividindo-o em sub-áreas (por exemplo Materiais, Manufatura, Engenharia de Processos, Qualidade, Expedição etc.), cada qual com seus respectivos indicadores locais ou específicos (por exemplo: nível de inventário, taxa de utilização de ativos, custo de produção, nível de qualidade do produto final). O que leva a pelo menos dois efeitos negativos: primeiro, as partes perdem a visão do fluxo global de trabalho que as integra e, segundo, seus “clientes” passam a ser os respectivos indicadores locais, ou seja, as partes agora se dedicam a “servir” o cumprimento ou “otimização” de seus números isolados. E ao contrário da sonhada otimização do desempenho da empresa, o resultado inevitável será a geração de conflitos internos e a sub-otimização do desempenho global! Por exemplo: o departamento de Materiais reduz o estoque de certas matérias primas (para melhorar seu indicador de inventário), mas variações no mix de demanda acabam causando paradas no departamento de Produção por falta de materiais (o que prejudica a taxa de utilização de ativos e o custo unitário de manufatura); Engenharia de Processos implementa idéias que aumentam a velocidade da linha (a fim de reduzir o “custo unitário de manufatura”) mas isso deteriora o índice de qualidade do produto final. Enquanto tudo isso acontece, lá fora existem clientes insatisfeitos com o tempo de resposta e a disponibilidade do produto final (indicadores que, curiosamente não são responsabilidade de nenhuma área específica e que portanto podem não estar sendo monitorados). Como consequência, a empresa perde oportunidades de venda e reduz sua participação no mercado. A saída para tais dilemas e incoerências consiste em identificar com clareza os processos empresariais que cruzam e integram as diferentes áreas e departamentos e, somente para tais processos, definir indicadores globais de desempenho. O que imediatamente elimina a multiplicidade de esforços improdutivos de coleta de dados e elaboração de relatórios, além de subordinar as diferentes áreas ao fluxo horizontal de processos e promover o alinhamento dos esforços para dar melhor serviço ao cliente final.

Erro 5. Usar “estatística de elevador”. Esse erro resulta de confundir dois tipos distintos de variação: aquelas que são puramente aleatórias e intrínsecas do processo do qual se origina o indicador em questão (o que chamamos de “variação comum”), e a variação provocada por causas esporádicas, externas ao processo (chamada de “variação especial”). Mais precisamente, o erro está em confundir variação comum com variação especial. Explico, tomando como exemplo um indicador de vendas: ao comparar dois valores consecutivos, é altamente provável que eles sejam diferentes. Tomando como referência o primeiro valor, muito provavelmente o segundo ponto sobe ou baixa, não como resultado de alguma ação específica que tenhamos tomado antes, mas como resultado puramente aleatório de uma infinidade de causas naturais do processo (variação comum). Particularmente, se um valor se afasta razoavelmente da média, é muito provável que o próximo  valor seja “atraído” em direção à mesma, já que é em torno da média que se concentram a grande maioria dos pontos. Suponha que tenhamos, por mero acaso, um valor de vendas relativamente baixo. Falto de maior conhecimento de como interpretar corretamente a variabilidade do processo de vendas, o gerente responsável reage àquele dado isolado e decide convocar o indivíduo ou equipe que reportou a informação, aplicando-lhe(s) uma repreensão ou discurso exortativo. O pessoal sai então desesperado para tentar vender mais (sem porém ter a menor ideia de qual tenha sido o seu erro, e muito menos do que fazer especificamente para que as vendas aumentem). É claro que, por mera questão probabilística (sem qualquer relação com o apelo do gerente ou com o esforço da equipe), o próximo valor das vendas será maior. O que produz um duplo engano: por um lado o gerente sai convencido de sua habilidade de “motivar” o pessoal, e por outro os vendedores se entusiasmam com sua “capacidade de reação”. Agora imagine a situação oposta, quando se obtém (por mero acaso) vendas relativamente altas. De novo o gerente reage e, para não dar a entender que é um chefe que só vê o lado ruim das coisas, decide elogiar e premiar o indivíduo ou equipe responsável pelo bom resultado. O pessoal então recebe de muito bom grado o reconhecimento, sem porém ter a menor idéia de o que é que fizeram de diferente para conquistar tal honraria. Novamente entra em cena a Senhora Probabilidade, e é claro que o próximo valor de vendas será menor do que o anterior. O que leva aquele gerente a concluir que não se pode elogiar as pessoas, que elas já ficam muito convencidas e tiram o pé do acelerador. Multiplique tais ocorrências ao longo do tempo, e o resultado será um gerente amargurado e uma equipe ressentida e desorientada, além de um processo que apresenta um desempenho crônico, sem um tendência expressiva de melhoria. A solução para este erro está a apenas umas poucas horas de treinamento, para que o gerente entenda a natureza da variação e saiba como aplicar um critério estatístico para interpretá-la corretamente e tomar decisões mais acertadas.

Erro 6: Usar demasiados indicadores. Este erro também é uma consequência do “paradigma da fragmentação”. Ao dividir a empresa em departamentos, áreas ou mesmo processos, a tendência natural é considerar que todas as partes são igualmente importantes, e que portanto devemos monitorar o desempenho de cada uma. E com a facilidade dos sistemas informáticos, rapidamente se acumulam dados em grande quantidade. Além do desperdício de tempo e recursos, o principal problema resultante é a falta de foco. Se tudo eh importante, então nada é importante. E muito provavelmente não são medidos (ou não recebem a devida atenção) os números mais importantes da organização. Como recomendação geral, uma unidade de negócios não deveria ter mais do que 10 ou no máximo 20 indicadores globais de desempenho, cobrindo todos os resultados vitais da organização.

Erro 7: Sepultar indicadores. Na maioria dos casos que se vê por aí, os números que as pessoas precisam controlar (seja na operação ou na gestão) estão enterrados em algum computador. Isso normalmente faz com que tais dados importantes não estejam prontamente disponíveis, mas a uma certa distância das pessoas, seja no tempo e/ou no espaço. Em processos operacionais, é preciso trazer a informação chave e colocá-la à vista do pessoal, para que não tenham que deslocar-se ou desviar sua atenção da operação. E em processos de gestão, é preciso colocar todos os resultados importantes simultaneamente à vista, para permitir uma análise sistêmica. Apesar de que hoje em dia as telas ou monitores grandes possam proporcionar visibilidade, e os tablets ofereçam portabilidade, a solução mais funcional e econômica para a questão da gestão à vista ainda são os velhos e confiáveis painéis ou quadro de indicadores. É claro que estes dão mais trabalho que aqueles, pois o trabalho de atualização da informação é manual, mas em compensação toda a informação relevante pode ser acessada com uma única mirada.

Eduardo Moura é diretor da Qualiplus Excelência Empresarial –emoura@qualiplus.com.br

Indicador, para que te quero?



NBR IEC 60357 de 01/2016: o desempenho das lâmpadas halógenas de tungstênio

Quais os requisitos gerais das lâmpadas halógenas de tungstênio? Quais os princípios de dimensionamento…

Leia mais…

Eduardo Moura

Medir o desempenho é fundamental para melhorá-lo. Por isso é raro encontrar uma empresa que não se guie por algum tipo de medição. Seria como um carro sem velocímetro e sem medidor de combustível, ou um avião sem painel de comando. É verdade que o fato isolado de medir o desempenho não assegura o sucesso, pois de pouco valem os indicadores do painel se as coordenadas de destino estiverem incorretas ou se o piloto estiver embriagado. Mas uma vez cumpridos tais requisitos básicos, a questão de decidir quais indicadores medimos e que uso fazemos da informação é algo simplesmente vital.

Apesar de ser óbvio afirmar que não devemos fazer medições com o propósito de obter medições, essa é uma prática muito comum nas empresas, já que o uso de computadores e sistemas de informação facilitou muito a medição, coleta e armazenamento de dados que depois nunca se transformam em informação útil efetivamente utilizada. Porque uma coisa que os computadores ainda não fazem é questionar se tudo o que medimos é realmente necessário, e se de fato estamos medindo somente o que é suficiente. Sem conceitos claros e definições corretas sobre o quê medir e que uso dar às medições, é muito provável que estejamos cometendo um erro duplo: acumulando muitos dados desnecessários e ao mesmo tempo não contando com informação relevante.

Por isso não é nada raro encontrar empresas que têm seu sistema de informação saturado de dados, mas que são incapazes de responder corretamente à simples pergunta “quais dos nossos produtos mais contribuem para a lucratividade do negócio?”. Isto porque, na triste realidade da absoluta maioria das empresas, o paradigma do Reino dos Custos tem levado seus súditos a dividirem o sistema de negócios em pequenos feudos e sub-feudos, e a partir daí todos são vistos como contribuintes igualmente importantes para a nobre tarefa de acumular e reportar dados minuciosos cujo fim supremo é calcular um Indicador-Rei chamado “Custo do Produto” o qual, como déspota insano, acaba levando todos a tomar as piores decisões.

Portanto, consideremos seriamente a definição dada por   Goldratt quanto ao uso estratégico das medições, isto é, o “para quê” de um sistema de indicadores de desempenho (quadro ao lado). É interessante destacar alguns pontos chave embutidos nessa brilhante frase:

  1. Cabe às partes intervir para melhorar o sistema. Enquanto durar o processo evolutivo do sistema, toda intervenção de melhoria sempre será sobre um ponto ou parte específica do mesmo, e nunca sobre o sistema como um todo.
  2. Toda melhoria requer uma ação efetiva de mudança, ou seja, introduzir algum elemento novo na praxis do sistema. É preciso ir além de discursos ou intenções, e reconhecer que resultados expressivamente melhores requerem um esforço intelectual intenso para definir a filosofia correta, um trabalho analítico profundo para estabelecer a visão estratégica acertada e uma  disciplina fanática para executar as táticas corretas, e que tudo isso transformará radicalmente o  status quo.
  3. Embora as ações de melhoria sejam sempre pontuais, a definição das mesmas deve sempre ser feita a partir de uma perspectiva sistêmica, reconhecendo que isso requer a subordinação das partes ao objetivo global. Isso significa que, em um dado momento, somente uma das partes (a restrição do sistema) estará trabalhando no máximo da sua capacidade, ou, em outras palavras, que todas as demais partes estarão trabalhando abaixo da sua capacidade (isto é, com capacidade extra disponível para apoiar o trabalho na restrição do sistema). O que implica que a informação vital para a melhoria do sistema como um todo será apenas aquela que diz respeito à maximização do desempenho da restrição do sistema. O que nos libera do trabalho exaustivo e infrutífero de acumular dados sobre todas as partes e com isso perder o foco do que é realmente essencial.
  4. Estabelecer um sistema de indicadores que seja verdadeiramente eficaz não é tarefa que as partes possam fazer isoladamente, mas sim é responsabilidade não-delegável da alta gerência.

Se adotarmos tais premissas, reconheceremos as seguintes virtudes de um indicador de desempenho sadio:

  1. É prático e fácil de obter: o tempo de ciclo coleta-análise-decisão-ação é curto, e preferivelmente realizado no próprio “gemba”.
  2. Tem efeito produtivo no curto prazo e efeito cultural no largo prazo: leva às ações corretas para a melhoria global do sistema e estabelece o comportamento correto e coerente das pessoas.
  3. É relevante: é fácil estabelecer a “ponte” entre o indicador e algum aspecto vital de desempenho do sistema.

Tudo isso leva a concluir que, a menos que a alta direção realize um esforço intencional de avaliar  criticamente e revisar seu sistema de indicadores de desempenho, com base em paradigmas administrativos mais adequados à realidade atual dos negócios, com grande chance estará condenando a empresa a um desempenho muito aquém do seu verdadeiro potencial, pois as medições tradicionais, com enfoque essencialmente financeiro e fundamentadas no paradigma de alocação de custos, além de não apresentarem as qualidades acima, sistematicamente levam as pessoas a fazer o que é prejudicial ao sistema.

Um exemplo prático, para não ficar apenas no plano conceitual: é comum o uso do indicador “taxa de utilização de ativos”, que leva os recursos produtivos a operarem continuamente, a fim de “diluir o custo fixo” (parar a produção é tabu). O resultado típico é que, não havendo vendas que desovem a produção extra, o inventário aumenta, e com ele o custo total, incluindo o custo de manter produto que não vende ou descartar produto que se tornou obsoleto. Que é o resultado oposto ao que se buscava originalmente. Mas, como tais consequências estouram distantes no tempo e no espaço em relação à decisão anteriormente tomada de continuar produzindo para aumentar a taxa de utilização do ativo, acrescentando-se ainda o fato de que cada parte é avaliada isoladamente, sem uma visão sistêmica que revele a interação das mesmas, a vida segue adiante e tais perdas crônicas acabam sendo absorvidas, planejadas e vistas como “normais”.

Um belo dia tal empresa implementa Lean Manufacturing e muda para o sistema puxado, produzindo apenas o que o mercado está pedindo. Os inventários se reduzem drasticamente, e eventualmente, não havendo puxada do mercado, não há necessidade de produzir, e a linha pára. Além disso, mesmo quando há puxada do mercado, como agora a linha de produção está sincronizada com o sistema kanban, nenhum recurso trabalhará num ritmo maior à capacidade do gargalo da linha ou acima da velocidade de puxada do mercado.

Tudo isso torna a empresa muito mais enxuta, mais ágil, mais flexível e responsiva ao mercado, ou seja: melhor. Porém, em tal empresa foram mantidos os indicadores financeiros tradicionais. Resultado: os números indicam que o custo de produção aumentou! (já que o custo da “mão de obra”, o “custo” das horas paradas e demais custos fixos agora são rateados a uma quantidade menor de unidades produzidas). Concluindo, é possível afirmar que uma forma de validar a solidez e profundidade de um processo de mudança, é observar o que aconteceu com o sistema de indicadores que guiam as decisões do negócio: se não houve mudança nos indicadores, então nada realmente mudou.

Eduardo Moura é diretor da Qualiplus Excelência Empresarial –emoura@qualiplus.com.br

Cinco métricas para serviços em campo que você precisa acompanhar de perto

CURSO PELA INTERNET

Armazenamento de Líquidos Inflamáveis e Combustíveis de acordo com a Revisão da Norma ABNT NBR 17505 – Disponível pela Internet

O curso visa a orientação de todo o pessoal envolvido no Projeto, na Construção, na Aprovação de Licenças e na Fiscalização de Instalações voltadas para o Armazenamento de Líquidos Inflamáveis e Combustíveis.

Alexsandro Labbate, gerente sênior de marketing da ClickSoftware para as Américas

As métricas são dados essenciais para a gestão estratégica de pessoas e serviços em campo. O sucesso no planejamento e na execução das operações em campo exige que os gestores tenham em mãos informações e números precisos, que apresentem o padrão de qualidade dos serviços prestados e apontem áreas de possível melhoria.

No entanto, por não saber quais métricas utilizar e como aplicá-las, os gestores de serviços em campo nem sempre conseguem ter uma visão real e completa das operações. Como agravante, a grande quantidade de dados pode confundir mais que auxiliar, criando uma falsa sensação de que tudo está bem.

Por isso é tão importante conhecer as principais métricas de avaliação dos serviços em campo e saber como utilizá-las. Confira as cinco métricas para serviços em campo que você precisa acompanhar.

Tempo médio de atendimento: Como o nome já diz, ela calcula a duração da execução do serviço, desde a saída do funcionário ou da equipe em campo ao fechamento da ordem de serviço, incluindo os tempos de deslocamento até o cliente, de espera por informações adicionais e de eventuais visitas futuras para resolver o mesmo problema. A AHT (Average Handle Time) pode ser uma ferramenta muito útil ao permitir que você controle exatamente a eficiência e as horas gastas por atendimento, funcionário e tipo de tarefa. Essa métrica também possibilita a criação de benchmarks internos entre funcionários e equipes de campo. Ela deve ser analisada sempre em conjunto com algumas outras métricas que mostraremos a seguir para que sua utilização seja eficaz.

Aderência da programação: A aderência da programação calcula se os funcionários em campo executam satisfatoriamente os chamados de serviços agendados em um determinado período. O cálculo é o seguinte: divida o tempo total em que o funcionário está disponível para chamados pelo tempo médio de atendimento de um chamado. Quanto mais baixo o resultado, melhor. Por exemplo, se o tempo total que um funcionário está disponível semanalmente é 44 horas, e o tempo médio de execução de um chamado são 2 horas, este funcionário conseguirá finalizar 22 chamados por semana. Caso ele leve mais tempo que a média da sua empresa para finalizar o chamado, a programação semanal das ordens de serviços agendará mais chamados a ele do que a sua capacidade de execução. Isto gerará reagendamento de chamados, atrasos em execuções e uma piora significativa na qualidade do serviço prestado e do atendimento ao cliente.

Taxa de finalização na primeira visita: Imagine o seguinte cenário: digamos que você gerencie uma companhia de instalação de sistemas de gás em apartamentos. A taxa de finalização na primeira visita apontará a porcentagem de sucesso na finalização desse serviço logo na primeira visita agendada. Esse é um dos motivos pelos quais ela é tão importante para uma boa gestão de serviços. Quanto maior a taxa, menor os custos relacionados à prestação de serviços em campo, pois uma taxa de reagendamento menor possibilita que a empresa atenda mais chamados novos. Em outras palavras, ao manter essa taxa alta, as empresas reduzem os gastos com pessoal e logística e ainda economizam tempo e energia para atender mais clientes. Estatísticas indicam que empresas de credibilidade mantêm a porcentagem de sucesso acima de 90%. Uma taxa na casa dos 80% é considerada razoável, embora indique uma necessidade urgente de melhorias na prestação do serviço.

Precisão de previsão: Essa métrica determina a exatidão das previsões feitas pela empresa em relação à demanda de serviços. Ela é fundamental para a elaboração do planejamento estratégico das suas operações em campo, e considera principalmente a sazonalidade nas prestações de serviços. Uma previsão precisa possibilita o planejamento avançado de recursos e pessoal necessários em um período específico. O cálculo é feito através da análise e do cruzamento de dados históricos, incluindo o número de funcionários, o tempo médio de atendimento, a aderência da programação, o número e os tipos de novos chamados, a taxa de finalização na primeira visita, os horários de pico diários, semanais, mensais, trimestrais e anuais, além de outros.

Taxa de cumprimento de SLAs: O SLA, ou Service Level Agreement, é o compromisso estabelecido entre a sua empresa e o cliente sobre o tempo médio necessário para executar um serviço ou finalizar um chamado ou ordem de serviço. Em alguns segmentos de mercado, os SLAs são estabelecidos por agências reguladoras, como no caso das Telecomunicações e da Energia Elétrica. O SLA também pode ser uma promessa de resolução ou um documento formal, com cláusulas de qualidade e tempo máximo de resolução do serviço prestado pela sua companhia.

Indicadores de Desenvolvimento Sustentável (IDS) 2015

Entre 2004 e 2011, as emissões de gás carbônico (CO2), um dos principais gases de efeito estufa, caíram 84,4% no setor de mudança do uso da terra e florestas. Isso ocorreu em consequência da queda do desflorestamento na Amazônia, que mostrou tendência de queda entre 2005 e 2013, atingindo o nível mais baixo em 2012 (4.571 km²). No período de 2008 a 2013, o ano de 2013 apresentou o menor número de queimadas e incêndios, com 115.184 focos, enquanto em 2010, o ano com o maior valor, haviam sido 249.274 focos. Os incêndios se concentram em algumas regiões, sendo que a mais extensa e recorrente corresponde ao denominado Arco do Desflorestamento, que abrange o sul e o leste da Amazônia Legal.

Já a intensidade do uso de agrotóxicos mais que dobrou entre 2000 e 2012. Em 2002, ano de menor uso da série, a comercialização do produto era de 2,7 kg por hectare, enquanto em 2012 foi de 6,9 kg/ha. Os produtos considerados perigosos (medianamente) foram os mais representativos no período entre 2009 e 2012, respondendo por 64,1% dos itens comercializados em 2012.

A energia renovável perdeu participação na matriz energética brasileira, registrando, em 2012, sua menor participação em uma década (42,4%). Por outro lado, a participação de petróleo e derivados, fontes não renováveis de energia, aumentou de 36,7% para 39,2% entre 2008 e 2012.

É o que revelam alguns dos resultados da 6ª edição dos Indicadores de Desenvolvimento Sustentável (IDS) Brasil 2015, que reúne 63 indicadores com o objetivo de traçar um panorama do país, em quatro dimensões: ambiental, social, econômica e institucional. Entre as fontes de pesquisa utilizadas para a construção dos indicadores estão a Pesquisa Nacional por Amostra de Domicílios (PNAD), Produto Interno Bruto (PIB), Pesquisa da Produção Agrícola Municipal (PAM) e Projeção da População do Brasil, todos do IBGE. O estudo também utiliza dados de ministérios, secretarias estaduais e municipais, Ibama, DataSUS, Iphan, Unesco e outras instituições.

Esta edição dá continuidade à série, iniciada em 2002, atualizando os indicadores já publicados e disponibilizando novas informações, além da introdução de novos dados, reafirmando o objetivo de disponibilizar um sistema de informações para o acompanhamento da sustentabilidade do padrão de desenvolvimento do país. O estudo traz, pela primeira vez, informações sobre a diversidade cultural e ambiental brasileira, por meio do indicador de Patrimônio Cultural brasileiro, formado por 11 bens culturais e oito naturais, todos reconhecidos pela Organização das Nações Unidas para a Educação (Unesco). A publicação completa pode ser acessada pelo link www.ibge.gov.br/home/geociencias/recursosnaturais/ids/default_2015.shtm

Com 19 indicadores, a dimensão ambiental do IDS aborda temas ligados à emissão de gases de efeito estufa, poluição do ar e das águas, uso de agrotóxicos, queimadas, desflorestamento, além de informações sobe saneamento básico, entre outros. Em relação à emissão de gases de efeito estufa, houve uma queda de 84,4% das emissões de dióxido de carbono (CO2) no setor de mudança do uso da terra e floresta, (de 1.579.660 Gg para 246.245 Gg) entre 2004 e 2010. Isso ocorreu em função da redução do desflorestamento na Amazônia, que chegou ao seu menor valor em 2012 (4.571 km² de desflorestamento).

O ano de 2013 apresentou o menor número de queimadas e incêndios desde 2008, com 115.184 focos, enquanto em 2010, o ano com o maior valor, foram 249.274 focos. A espacialização dos focos de calor evidencia a sua concentração em algumas regiões do país, sendo que a mais extensa e recorrente corresponde ao denominado Arco do Desflorestamento, que abrange o sul e o leste da Amazônia Legal. Nesta região, as queimadas, associadas ao desflorestamento, são responsáveis pela destruição de grandes áreas florestais. Pará (20.542), Mato Grosso (17.768) e Maranhão (16.189) são os estados com os maiores números de focos de calor em 2013.

As terras indígenas (TIs) e unidades de conservação (UCs) também sofrem queimadas, embora em menor intensidade. Em 2013, os focos de calor destas áreas corresponderam a 14,9% do total do país. No mesmo ano, registrou-se a mesma tendência observada para o Brasil, com redução do número de focos de calor em relação a 2012 (30.956 para 17.137).

A análise segundo os biomas também mostra valores oscilantes, sendo que entre 2012 e 2013 ocorreu uma redução do número de focos de calor em todos os biomas. A Amazônia registrou a maior ocorrência de focos em todos os anos analisados (48.929 em 2013), seguido pelo Cerrado, com 42.622 focos de calor em 2013. Os demais biomas somados (Caatinga, Mata Atlântica, Pantanal e Pampa) corresponderam a 20,0% do total de focos de calor em 2013. A Mata Atlântica vem apresentando decréscimo contínuo desde 2011, mas ainda é o bioma mais desflorestado (85,5% de sua área original até 2012).

De 1997 a 2004, o desflorestamento bruto anual na Amazônia Legal teve crescimento continuado, atingindo seu maior nível em 2004 (27.772 km²). De 2005 até 2013, a tendência foi de queda, chegando ao nível mais baixo em 2012 (4.571 km²). Quanto ao desflorestamento bruto acumulado de 1997 a 2013, a análise das duas metades desse período de 16 anos mostra uma desaceleração: entre 1997 e 2004, a área desmatada foi de 159.078 km², enquanto de 2005 a 2013 foram desmatados 89.158 km².

Entre os biomas extra-amazônicos, o Cerrado teve 49,0% de sua área desmatada até 2010, enquanto na Caatinga, até 2009, a perda foi de 46,0%. O Pampa, único bioma restrito a uma única unidade da federação, ocupa 63,0% do Rio Grande do Sul e teve 54,0% da sua cobertura vegetal desmatada até 2009. Já o Pantanal teve 15,0% de sua área desmatada.

Em 2013, o país possuía 1.783 unidades de conservação (UCs), terrestres e marinhas, com cerca de 1,5 milhão de km², superando as áreas somadas de Portugal, França e Alemanha. Houve forte crescimento da área total das UCs: em 1992 elas representavam 5,4% do território nacional e, em 2013, 17,3%. As unidades da federação com as maiores proporções dos seus territórios em áreas protegidas eram o Distrito Federal (93,5%), Amapá (62,8%), Acre (32,3%) e Pará (32,2%). Juntos, Amazonas e Pará concentravam 9,4% das áreas protegidas do país.

A Amazônia detém a maior área protegida (26,1%, das quais 16,3% são de uso sustentável e 9,4% de proteção integral), além de possuir também as maiores UCs em extensão, que ocupam uma área total de 1.093.604 km². O Pampa e o Pantanal são os biomas com as menores proporções dos seus territórios protegidos em UCs (2,7% e 4,6%, respectivamente). A Mata Atlântica, o Cerrado e a Amazônia possuem os maiores números de UCs (964, 362 e 313, respectivamente).

Há 627 espécies da fauna brasileira ameaçadas de extinção, metade delas na categoria vulnerável. Os grupos que apresentam maior número de espécies ameaçadas são as aves (160), os peixes de água doce (142) e os insetos (96 espécies). Entre os biomas, a Mata Atlântica tem o maior número de espécies da flora e da fauna ameaçadas de extinção (275 e 269, respectivamente), com o Cerrado (131 espécies da flora) e a Amazônia (118 espécies da fauna) a seguir. A maioria das espécies da flora ameaçadas encontra-se no Sudeste e no Sul. De um total de 4.617 espécies, 45,9% foram classificadas como ameaçadas, nas categorias Vulnerável (VU), Em Perigo (EN) ou Criticamente em Perigo (CR).

A emissão de ozônio (O3) é um dos pontos críticos para a poluição atmosférica, pois é de difícil controle, sendo gerado na baixa atmosfera por reações oriundas da queima de combustíveis fósseis. O aumento da frota de veículos dificulta o controle das concentrações do O3, além de aumentar a emissão direta dos outros poluentes atmosféricos. Na cidade de São Paulo, por exemplo, dentre os poluentes estudados, é o que apresenta os maiores números de violações do padrão primário (576 em 2012). Em Belo Horizonte também é o poluente mais crítico em termos de número de violações (65 em 2011).

Os valores de comercialização de agrotóxicos e afins por área plantada registram aumento contínuo a partir de 2009, alcançando 6,9 kg/ha em 2012. Isto representa um acréscimo de 4,2 kg/ha num período de dez anos, tendo em vista que em 2002 o valor foi de 2,7 kg/ha. Quanto à análise por classes de periculosidade ambiental, as classes III (produto perigoso) e II (produto muito perigoso) foram as mais representativas no período 2009-2012, tendo participado com 64,1% e 27,7%, respectivamente, do total dos agrotóxicos comercializados em 2012. A classe IV (produto pouco perigoso) apresentou crescimento contínuo no período analisado. Em 2012, as classes de agrotóxicos mais comercializadas foram os herbicidas (62,6%), seguidos pelos inseticidas (12,6%) e fungicidas (7,8%).

A região Sudeste apresentou a maior comercialização de agrotóxicos por unidade de área (8,8 kg/ha), seguida pela região Centro-Oeste (6,6 kg/ha). Entre as unidades da federação, os maiores valores foram verificados em São Paulo (10,5 kg/ha), Goiás (7,9 kg/ha) e Minas Gerais (6,8 kg/ha), e os menores ocorreram no Amazonas e Ceará, com menos de 0,5 kg/ha.

De 2001 a 2003, o percentual de esgoto tratado no Brasil era inferior a 60,0%. Em 2009, essa taxa chega a 68,4%. A partir de 2010, houve um declínio, possivelmente associado ao maior número de municípios amostrados, que eram 1.739 em 2009 e passaram a 1.948 em 2010. Em 2011, a taxa recuou para 67,9%. Assim, de 2001 a 2011, houve um incremento de aproximadamente 1,6 bilhão de m³ (ou 15,4%) no volume de esgoto tratado.

A Demanda Bioquímica de Oxigênio (DBO) e o Índice de Qualidade da Água (IQA) são indicadores da qualidade da água em trechos de rios e represas. A DBO mede a quantidade de oxigênio necessária para degradar a matéria orgânica na água. Quanto maior o seu valor, pior é a qualidade da água. Já o IQA utiliza nove parâmetros (temperatura, pH, oxigênio dissolvido, demanda bioquímica de oxigênio, coliformes termotolerantes, nitrogênio total, fósforo total, resíduo total e turbidez) e varia de 0 a 100. Quanto maior o valor, melhor a qualidade da água.

Entre os 367 pontos de monitoramento no país, 73,0% tinham DBO média dentro dos padrões do Conselho Nacional do Meio Ambiente (Conama), entre 0 e 5 mg/l. Mas o baixo percentual de tratamento dos esgotos lançados em corpos de água se reflete no alto valor de DBO e baixo IQA em trechos dos rios que cortam áreas urbanas ou industrializadas, como o Alto Tietê/Zona Metropolitana de São Paulo (inclusive a represa Billings) e o Iguaçu/Zona Metropolitana (Paraná). Outros importantes corpos d’água mostraram valores médios anuais de DBO abaixo do limite, como rio Paraíba do Sul (no trecho que abastece a região metropolitana do Rio de Janeiro) e os rios Caí, Gravataí e Sinos (formadores do Lago Guaíba, na região metropolitana de Porto Alegre).

Os dados do IDS 2015 apontaram avanços na maior parte dos 21 indicadores da dimensão social, que avaliam a satisfação das necessidades humanas, melhoria da qualidade de vida e justiça social. Os indicadores se relacionam a temas como demografia, emprego, saúde, educação e violência. Mesmo apresentando tendência de declínio, o número de internações por doenças relacionadas ao saneamento ambiental inadequado (DRSAI) ainda é elevado. Em 2013, ocorreram 202,6 casos por 100 mil habitantes, uma redução de 37,8% na comparação com 2000 (326,1 por 100 mil habitantes). As diferenças regionais são marcantes: enquanto na região Norte, 396,1 pessoas foram internadas para cada 100 mil habitantes, no Sudeste esse número chegou a 78,3, em 2013. Em relação aos estados, alguns atingiram valores superiores a 500 (Maranhão, Piauí e Pará), enquanto em São Paulo foram 55,5 internações por 100 mil habitantes, o menor valor do país.

Desde a segunda metade da década de 1990, as coberturas de vacinas como sarampo, tríplice bacteriana e poliomielite, que antes apresentavam oscilações, passaram a um movimento de rápida ascensão, alcançando a totalidade da população alvo ou chegando próximo a isso. A BCG, desde o início do período analisado, foi uma vacina de grande amplitude, partindo de 90% e apresentando, desde 1995, cobertura plena (100%).

A década de 2000 apresentou mudanças no esquema vacinal, com a tríplice bacteriana sendo substituída pela tetravalente em 2002 e a vacina contra sarampo sendo incorporada à tríplice viral a partir de 2003. Desde sua implantação, esta última vacina tem apresentado constância na cobertura plena, enquanto a tetravalente tem mostrado certa oscilação, porém com taxas sempre elevadas, variando de 94% a 100%. O aumento da proporção de crianças imunizadas contra o sarampo é um dos indicadores utilizados pela ONU para avaliar o atingimento da meta de redução da taxa de mortalidade infantil.

Além de informações sobre energia e reciclagem, os 11 indicadores da dimensão econômica abordam dados relacionados ao PIB, endividamento do país e rejeitos radioativos. O consumo final de energia per capita apresentou crescimento constante ao longo do período 2000-2012, com exceção apenas para 2009, tendo passado de 41,5 GJ/habitante em 2000 para 53,3 GJ/hab, em 2012. A população cresceu 1,2% ao ano em média, enquanto o consumo de energia exibiu um crescimento de 3,3% ao ano. A queda em 2009 (47,8 GJ/hab) possivelmente se deveu à crise mundial de 2008. O maior acesso da população aos bens de consumo essenciais e aos serviços de infraestrutura acarretou aumento do consumo de energia, o qual, por sua vez, causa impactos sobre a população e o meio ambiente.

A participação da energia não-renovável na matriz energética brasileira apresentou crescimento (de 56,1% em 2003 para 57,6% em 2012), principalmente na oferta de petróleo e derivados, que passou de 36,7% para 39,2%, entre 2008 e 2012. Os combustíveis fósseis continuam a dominar a matriz energética brasileira (57,6%), mas, analisando-se a distribuição das diferentes fontes renováveis, percebe-se que os derivados de cana-de-açúcar e carvão vegetal estão perdendo participação, em parte devido ao aumento relativo das fontes alternativas (solar, eólica, biomassa, biogás etc.). A participação destas fontes na matriz energética passou de 2,8% em 2003, para 4,1% em 2012. Já participação da lenha e do carvão vegetal caiu de 13,2% para 9,1%, entre 2004 e 2012. Embora considerados fontes renováveis, nem sempre são produzidos de forma sustentável, ou seja, a partir de florestas plantadas para tal.

Distribuição percentual da oferta interna de energia, segundo as fontes de energia Brasil – 2003-2012

Fontes de Energia Distribuição percentual da oferta interna de energia (%)
2003
2004
2005
2006
2007
2008
2009
2010
2011
2012
            Total
100,0
100,0
100,0
100,0
100,0
100,0
100,0
100,0
100,0
100,0
Energia não renovável
56,1
56,0
55,3
54,8
53,9
53,9
52,7
54,9
56,0
57,6
      Petróleo e derivados
40,2
39,3
38,8
37,9
37,5
36,7
37,9
37,8
38,6
39,2
      Gás natural
7,7
8,9
9,4
9,6
9,3
10,3
8,8
10,2
10,2
11,5
      Carvão mineral e derivados
6,4
6,3
6,0
5,7
5,7
5,5
4,6
5,4
5,7
5,4
      Urânio e derivados
1,8
1,5
1,2
1,6
1,4
1,5
1,4
1,4
1,5
1,5
Energia renovável
43,9
44,0
44,7
45,2
46,1
46,1
47,3
45,1
44,0
42,4
      Hidráulica e eletricidade (1)
14,7
14,5
14,9
14,9
14,9
14,1
15,2
14,0
14,7
13,8
      Lenha e carvão vegetal (2)
12,9
13,2
13,1
12,7
12,0
11,6
10,1
9,7
9,5
9,1
      Derivados da cana-de-açúcar
13,5
13,5
13,8
14,6
15,9
17,0
18,1
17,5
15,7
15,4
      Outras fontes primarias renováveis
2,8
2,8
2,9
3,0
3,2
3,4
3,9
3,9
4,1
4,1
Fonte: Balanço Energético Nacional 2013. Ano base 2012. Rio de Janeiro: Empresa de Pesquisa Energética – EPE, 2013. Disponível em: . Acesso em: mar. 2015.
(1) Conversão de energia elétrica segundo o equivalente térmico teórico – primeiro princípio da termodinâmica (1 KWh = 860Kcal).
(2) Fontes consideradas renováveis embora nem toda a produção de lenha e carvão vegetal se dê de modo sustentável.

Observa-se uma tendência de crescimento da reciclagem entre 1993 e 2012. As latas de alumínio mantiveram seu destaque, com o reaproveitamento de 97,9% em 2012. Em 2011, por exemplo, o Índice de Reciclagem de alumínio (não apenas latas) para o Brasil foi de 98,3%, superior ao do Japão (92,6%), Argentina (91,7%) e Estados Unidos (65,1%), conforme apresentado pelo Compromisso Empresarial para Reciclagem. Isto se deve a vários fatores, como a existência de mercado de reciclagem em todas as regiões do país, a facilidade para coletar, transportar e vender, a sua disponibilidade durante todo o ano e o alto valor de mercado da sucata de alumínio.

Aproximadamente 59,0% das embalagens pós-consumo de PET foram recicladas em 2012. Para as embalagens longa vida, também conhecidas como cartonadas ou tetrapak, de reciclagem mais recente, os valores são mais baixos, tendo alcançado 29,0% em 2012, em razão da necessidade de separar os materiais componentes (papel, alumínio, plástico), fator que dificulta a reciclagem desse tipo de embalagem.

A dimensão institucional, com 12 indicadores, aborda temas como acordos multilaterais internacionais, legislação, serviços de tecnologia e patrimônio cultural. O país tem, hoje, 11 bens culturais e oito bens naturais considerados patrimônio mundial pela Organização das Nações Unidas para a Educação (Unesco). Entre 1980 e 1987, o Brasil obteve o reconhecimento de seis deles, a maioria cidades históricas. Foi necessário o dobro do tempo (1987-2012) para outros cinco bens culturais serem considerados de importância mundial. O mais antigo é o Conjunto Arquitetônico e Urbanístico de Ouro Preto (MG), de 1980, e os mais recentes são o Centro Histórico da Cidade de Goiás (GO) e a Praça de São Francisco, em São Cristóvão (SE), aprovados em 2010, e paisagens cariocas entre a montanha e o mar (RJ), aprovado em 2012.

Quanto aos bens naturais, o primeiro reconhecimento foi em 1986, o do Parque Nacional do Iguaçu (no Paraná). Em 2001, já eram oito, ano em que entraram para a lista o Parque Nacional dos Veadeiros e das Emas (GO) e o Parque Nacional de Fernando de Noronha e Atol das Rocas (PE). Com exceção da Sudeste, todas as regiões do Brasil e a maioria dos biomas, exceto o Pampa, têm pelo menos um bem natural incluído na lista.

Já a lista de bens imateriais que fazem parte do Patrimônio Mundial é integrada pelo Samba de Roda do Recôncavo Baiano (BA), Expressão Oral e Gráfica dos Wajãpi (AP), Frevo do Carnaval de Recife (PE) e Círio de Nazaré (PA). Em 2011, o Comitê destacou um bem imaterial em necessidade urgente de salvaguarda: o Yaokwa, ritual do povo Enawene Nawe (MT), entre o Cerrado e a Amazônia. A maioria dos bens materiais está nas regiões Sudeste e Nordeste, enquanto os imateriais se distribuem mais uniformemente pelo território brasileiro, com ênfase na região Norte.

Planeje antes de empreender

GLOSSÁRIO TÉCNICO GRATUITO

Selecione o idioma que deseja ordenar os termos técnicos:

de Português para Inglês

de Português para Espanhol

de Inglês para Português

de Espanhol para Português

Para iniciar um novo negócio e entrar para os time das startups brasileiras, não basta ter uma boa ideia. A intuição do empreendedor é importante, mas ela deve estar aliada a um planejamento minimamente estruturado. A premissa é de Maximiliano Tozzini Bavaresco, sócio-fundador da Sonne Branding, que dá dicas essenciais para quem deseja empreender:

– Organize as ideias e comece a estruturar um plano de negócios. Colocar as ideias no papel, mesmo que seja em uma página do Word, com base em uma estrutura que pode seguir modelos já disponibilizados na Internet por fontes seguras, como Sebrae e universidades, é a primeira etapa de um novo negócio. Além de ser a base de um planejamento minimamente estruturado, esta tarefa ajudará o empreendedor a controlar a ansiedade e o ímpeto de colocar um negócio em prática. Em linhas gerais, o planejamento deve definir o modelo do negócio, seu propósito, além do que e como o produto e/ou serviço vai ser oferecido ao mercado.

– Contemple o orçamento. Ao pensar no novo negócio e no planejamento para colocá-lo em prática, uma pergunta que não pode faltar é: “quanto vou investir?”. Segundo Bavaresco, em geral, os negócios começam a dar resultados em uma velocidade menor do que a prevista pelo empreendedor. Em decorrência do fluxo de caixa, apesar de ser, de fato, inovador, diferente e de atender uma demanda de mercado, o negócio pode não conseguir se manter. “Ou seja, sem dinheiro em caixa, o empreendedor não tem fôlego para levar o negócio adiante e persistir até que ele atinja o ponto em que passa a ser lucrativo”, destaca.

– Estabeleça grandes objetivos. Faz parte deste processo estabelecer objetivos com foco no curto, médio e longo prazos. Estes objetivos devem incluir desde o break even do negócio até questões mais ambiciosas para o período de três a cinco anos de operação. Para cada objetivo, é importante que o empreendedor detalhe um conjunto de metas, que serão os indicativos de que o negócio está evoluindo. As metas podem incluir dados quantitativos, como faturamento, lucratividade, número de unidades vendidas, percentual de custos proporcionais com pessoal, ocupação etc, e qualitativos, como a satisfação dos clientes. “As metas são indicadores de performance do negócio que também auxiliam no desenvolvimento da cultura organizacional e na percepção que os clientes internos e externos têm ou terão da marca”, afirma.

Segundo Bavaresco, para definir quais serão esses indicadores de performance, o empreendedor pode buscar referências em fontes de informações confiáveis no mercado e também nas empresas concorrentes e consolidadas. “O importante é ter claro que todo planejamento e seus objetivos devem ser acompanhados e ajustados periodicamente. Não são informações ou previsões estáticas. O empreendedor precisa avaliar sempre o que superdimensionou ou superestimou em suas premissas iniciais”, ressalta. 

– Defina o público-alvo. A definição do perfil de cliente é fundamental para que o modelo de negócio seja aderente às demandas e expectativas daquele grupo de pessoas. “A partir da premissa de que as pessoas são diferentes e têm distintas formas de se comportar e se expressar, é fácil compreender que não será possível atender todos os bolsos e gostos”, afirma o executivo. Segundo ele, quanto mais alinhado o negócio estiver ao perfil do cliente, maiores as chances de um determinado grupo de consumidores perceber valor e passar a se relacionar com aquela determinada marca. É este alinhamento que impulsiona um dos principais – se não o maior – fator de sucesso de qualquer negócio: “o boca a boca”. 

– Pense na marca. Desde a fase de planejamento e concepção do negócio, a marca e seu posicionamento mercadológico devem ser motivo de atenção dos empreendedores. O papel da marca é expressar o propósito, os valores e a cultura da organização. Assim, cumprindo este papel, a marca é capaz de auxiliar e alavancar o potencial dos bons negócios. “É comum que alguns empreendedores não dêem a atenção devida às questões relacionadas à marca ou as coloquem num plano secundário, muitas vezes tratando-as de forma menos profissional. Muitos imaginam que este investimento só precisa ser feito em um estágio futuro da empresa. Porém, neste caso, perde-se a oportunidade de ter a marca justamente como um impulsionador do negócio”, ressalta Bavaresco.

– Estruture a comunicação. Pensar na comunicação não envolve apenas ações de propaganda e divulgação. Estruturar a comunicação significa considerar todos os pontos de contato que a empresa terá com os seus diferentes públicos. A comunicação acontece por meio de diversas mídias, veículos, canais, inclusive, fortemente, por meio do boca a boca. Segundo o especialista em Branding, um dos maiores equívocos cometidos por diversas empresas, de startups a multinacionais, é atribuir à comunicação a responsabilidade, quase que exclusiva, pelo sucesso ou insucesso de um negócio.

Em linhas gerais, de acordo com o executivo, muitas empresas e empreendedores dedicam energia e recursos em ações de comunicação que poderiam e deveriam estar canalizados no planejamento ou desenvolvimento do próprio negócio. “O alinhamento fundamental é ter o que comunicar de forma verdadeira, é garantir que os clientes vivenciem uma boa experiência de marca em todos os seus pontos de contato. Para criar uma marca de sucesso, é preciso criar uma organização de sucesso. Afinal, a marca é reflexo da organização”, reitera.