Sistemas de dosagem industrial

CURSOS TÉCNICOS DISPONÍVEIS NA INTERNET

A Target preparou um programa especial de cursos pela Internet, contemplando as últimas tendências do mercado. Com o objetivo de facilitar a participação daqueles que possuem uma agenda de compromissos complexa, a Target criou a opção para que o cliente possa assistir aos cursos através da transmissão pela Internet. Fique atento aos cursos que estão disponíveis. Clique aqui e veja um exemplo de como funciona o recurso. Garanta a seu desenvolvimento profissional adquirindo os cursos pela Internet da Target. Para mais informações, acesse o link https://www.target.com.br/produtossolucoes/cursos/gravados.aspx

Cristiano Bertulucci Silveira

Um sistema de dosagem industrial pode ser definido como sendo um conjunto de equipamentos com a finalidade de manipular matérias-primas (líquidos e sólidos) para produzir produtos químicos tais como como bebidas, derivados químicos, mistura de nutrientes para ração animal (premix, sal mineral), aditivos e líquidos para indústria alimentícia em geral. Devido a grande quantidade de variações de processos e grandezas tais como temperaturas, tipo de matérias-primas, aquecimento, mistura e clima, não existe um projeto único que possa ser utilizado como padrão em todas as indústrias. No entanto, diferentes alternativas podem ser combinadas para produzir melhores soluções visando segmentos industriais específicos. Neste artigo apresentaremos como funciona um sistema de dosagem industrial e faremos um comparativo dos sistemas manuais com os sistemas automatizados ressaltando as diferenças e ganhos produtivos que cada tipo de sistema pode oferecer.

Os sistemas de dosagem são utilizados nas mais diversas indústrias: exploração e refinamento de óleo e gás natural; ferro e aço; indústrias de processamento químico; indústrias de papel e celulose; tratamento de água e efluentes; indústrias alimentícias e farmacêuticas; indústrias de ração animal; e indústrias de bebidas. Novas tecnologias de mistura química e dosagem sempre estão em desenvolvimento, porém, de forma geral, os princípios químicos básicos de líquidos permanecem constantes. Por este motivo, a utilização de alguns componentes no sistema de dosagem acabam sendo um padrão tais como: válvulas, bombas, etc. Outrossim, a complexidade do sistema necessário para uma indústria em particular varia com a capacidade de produção, tipo de produto, topografia do local e as regras regionais e regulamentos de agências reguladoras.

O projeto e a engenharia detalhada de um sistema de dosagem devem ser pré requisitos para o projeto individual de cada componente deste sistema, sendo que a integração de todos os componentes deve resultar em um sistema compacto e eficiente. Um sistema de dosagem bem projetado deve ser: compacto; economizar espaço na instalação predial; ser amigável operacionalmente; e ter instrumentações avançadas como sensores ultrassom e medidores de vazão com tecnologia de ponta podem ser incorporadas no sistema para o completo controle e registro de informações. Na Figura 1 abaixo, é possível visualizar um sistema completo de dosagem industrial.

sistema dosagem quimica industrial liquidos automacao Sistemas de Dosagem Industrial: O que são e como funcionam?

Na Figura 1, podem ser destacados alguns subsistemas de um sistema de dosagem industrial:

  1. Tanques de mistura ou reatores: São responsáveis por receber a matéria-prima, misturar os ingredientes, aquecer ou resfriar em alguns casos e criar o produto final com as especificações desejadas. É nos tanques ou reatores onde a produção ocorre de fato;
  2. Tanques de matéria-prima: São os tanques que armazenam a matéria prima utilizada na composição do produto. Aguns exemplos destas matérias primas são: óleo vegetal, formol, ácido acético, ácido propiônico, propileno glicol, ácido fórmico, leite, xarope, água, etc.
  3. Recebimento e armazenamento de matéria-prima: tanques para o armazenamento;
  4. Sistema de envase: O envase é a parte onde o produto será colocado na embalagem primária (bombona, galão, frasco, sachê, isocontainer, etc) de acordo com o pedido do cliente.  O sistema de envase pode ser tanto manual quanto automatizado.

Os subsistemas possuem ainda alguns componentes auxiliares responsáveis por coletar informação e permitir a conexão entre eles. São eles:

  • Agitadores;
  • Medidores de nível (Ultrassom);
  • Tubulação interconectada;
  • Acessórios para tubulação;
  • Válvulas;
  • Instrumentação (medidores de fluxo ou vazão, medidores de pressão ou phmetros, células de carga);
  • Painéis de controle ou sistemas de controle;

componentes sistema dosagem industrial Sistemas de Dosagem Industrial: O que são e como funcionam?

Componentes de um sistema de dosagem industrial

Dentre os citados acima, o principal componente de um sistema de dosagem é a bomba hidráulica. Em um sistema de dosagem de líquidos, a bomba hidráulica tem a funcionalidade de fornecer o líquido ou solução a um fluxo ou vazão desejado. Trata-se de um dispositivo de deslocamento positivo que possui a funcionalidade de variar sua capacidade de bombeamento manualmente ou automaticamente, o tanto quanto o processo demandar. A bomba deve apresentar um elevado nível de repetição e acurácia e deve ser capaz de bombear uma variedade de produtos químicos, incluindo ácidos, bases, líquidos viscosos ou corrosivos.

As bombas hidráulicas podem ser equipamentos destinados ao bombeamento controlado, ou seja, equipamentos que possuem controle de vazão para os processos de tratamento de água ou efluentes e para processos industriais nas áreas químicas, petroquímicas, beneficiamento, usinas de açúcar e álcool, farmacêuticas, dentre varias outras aplicações que necessitam de controle. O controle de vazão pode ser manual ou automático por sinal de 4 a 20 mA ou por pulso.

Dentre vários tipos de bombas podemos citar 2 tipos mais utilizados:

  • Bomba de pistão: Este tipo de bomba possui seu princípio de funcionamento baseado em um pistão que se movimenta alternadamente em contato direto com o fluido. Assim, o seu deslocamento gera uma pressão que permite a movimentação do fluido  de um lugar para outro;
  • Bomba de diafragma:  Esta bomba também possui um pistão, porém ele é blindado do fluído por um diafragma. Trata-se uma bomba de deslocamento positivo, na qual um pistão corretamente dimensionado, funcionando em movimento alternado e com um curso determinado desloca um volume exato de óleo. Por meio deste óleo, o pistão move hidraulicamente e alternativamente um diafragma, cujo deslocamento, por sua vez, força o movimento do líquido a ser bombeado através do sistema de válvulas de retenção na aspiração e no recalque.
Imagine na Figura1 que todo o sistema dependa de pessoas para funcionar. Poderíamos até elaborar um procedimento operacional para isto, Vamos lá: Primeiramente é importante que os operadores sejam treinados para realizar os seguintes procedimentos:
  1. Abastecer os tanques de matérias-primas;
  2. Abrir a válvula de um tanque de matéria-prima desejado;
  3. Ligar a bomba de dosagem para que ela alimente o reator de matéria-prima;
  4. Acompanhar a dosagem de matéria-prima até que o reator possua a quantidade desejada de matéria prima;
  5. Repetir os passos 3 e 4 para a adição de outras matérias-primas;
  6. Ligar o agitador do reator;
  7. Esperar o tempo de agito;
  8. Ligar o banco de resistência para aquecer o líquido (se for necessário na receita);
  9. Esperar o tempo de aquecimento;
  10. Realizar o envase manualmente.

Veja pelo procedimento acima que são várias as etapas envolvidas na fabricação de um determinado produto. Elas podem ainda ser mais detalhadas (um ou mais procedimentos para cada etapa) e geralmente exigem mais pessoas envolvidas na operação. Por exemplo, existem os operadores que são responsáveis pela mistura e os operadores responsáveis pelo agito do líquido. Analisando superficialmente o procedimento acima, percebemos que existe o risco iminente de falha humana logo no passo 2. Neste item, visualizamos que se o operador por exemplo esquecer de abrir a válvula e ir direto para a etapa 3, a bomba vai inserir uma pressão no sistema podendo fazer com que as válvulas ou a própria tubulação do sistema se danifiquem, causando um acidente de trabalho. O acidente pode ser ainda mais grave se for líquido for corrosivo e, portanto, danoso ao ser humano.

Outro risco que podemos verificar é com relação à última etapa, a de envase. Se o operador tiver que manusear líquidos com temperaturas elevadas, há também o risco de queimaduras. Analisando os fatores acima, percebe-se facilmente que os sistemas autocontrolados tornam-se uma alternativa bem interessante não somente pelo ganho de produtividade mas também pela redução de falhas e riscos de acidentes do trabalho. A desvantagem por sua vez, aparentemente é com relação ao custo. Digo aparentemente devido ao motivo de que com os avanços tecnológicos, a carência de mão-de-obra e a diminuição do custo dos componentes de automação, está ficando cada vez viável sistemas automatizados e mais difícil encontrarmos sistemas de dosagem completamente manuais.

Os sistemas de dosagem autocontrolados exigem a aplicação de controladores lógicos programáveis (CLPs). Estes controladores são capazes de aquisitar sinais de sensores de acordo com valores pré-determinados e realizar o monitoramento e controle automático da dosagem. Eles possuem ainda um baixo tempo de resposta  e são responsáveis por alterar condições do processo que exigem mudanças frequentes nas condições de dosagem. Podemos citar dois tipos mais aplicados de sistemas de dosagem autocontrolados:

Método de vazão proporcional:

  • Utiliza sinal de instrumentos para ajustar a taxa de dosagem, baseada na vazão atual;
  • Um sinal elétrico é gerado dos medidores de vazão que alimentam um controlador (CLP);

Método de medição de parâmetros:

  • Mede vários parâmetros coletados do processo (densidade, Ph, etc);
  • Os parâmetros são analisados para tomar decisões de dosagem;
  • As decisões são tomadas por um processador central, baseado na comparação de leituras e controles pré-programados.
Tratando-se de sistemas de dosagem autocontrolados, é fundamental que haja uma interface humana com o sistema, ou seja, o operador precisa informar o quanto e o que vai ser produzido e quando isto vai acontecer. Para realizar esta operação, podem ser utilizadas IHMs (Interface Homem Máquina) ou softwares instalados em plataforma PC capazes de serem operados pelo ser humano. Aqui falaremos um pouco mais dos softwares, os chamados sistemas supervisórios.

Os softwares supervisórios são sistemas desenvolvidos com a funcionalidade de comunicar com um CLP e aquisitar toda a informação de sensores e atuadores em campo, projetando então estas informações em uma tela de computador. Para realizar a comunicação com CLPs eles precisam “falar” uma linguagem comum (denominado de protocolo de comunicação). Alguns protocolos de mercado mais conhecidos são: Modbus, Canopen, Devicenet, Profibus. É importante reforçar aqui que com a evolução dos softwares supervisórios, foi possível agregar uma série de recursos que antes dificilmente seria possível com a utilização somente de IHMs. São recursos interface com banco de dados, controle avançado, registro em banco de dados de histórico de grandezas de processo, equipamentos, produção, consumo e geração automática de indicadores de performance. Abaixo, na Figura 3, é possível visualizarmos as telas de um software supervisório para um sistema de dosagem.

software sistema dosagem quimica automacao Sistemas de Dosagem Industrial: O que são e como funcionam?

Software para sistemas de dosagem.

Com relação aos recursos, os softwares podem ainda fornecer funcionalidades importantes como:

  • Supervisão assistida e remota;
  • Cadastro de receituário e histórico de produção;
  • Cálculo de eficiência operacional, OEE (Produtividade x Eficiência x Qualidade);
  • Geração de histórico de equipamentos e grandezas;
  • Monitoramento de status do sistema: em falha, em produção, ociosiade;
  • Baixa automática de matéria-prima;
  • Cadastro de produtos e matéria-prima;
  • Alimentação automática das ordens de produção;
  • Informações precisas de falhas no sistema para análise crítica;
  • Integração com sistemas ERPs.

Fica evidente que para o software coletar as informações de campo, ele deve se comunicar com o CLP. O CLP por sua vez, busca as informações de campo através de interfaces analógicas e digitais que fazem a aquisição do sinal de sensores instalados em campo. Para os sistemas de dosagem industrial, os sensores mais utilizados são:

  • PT-100: Sensor utilizado para medir a temperatura da solução;
  • Células de carga: São sensores de peso capazes de coletar o peso de líquido contido em um tanque. São muito utilizadas nos reatores;
  • Phmetro: Sensores utilizados para medir o ph dos líquidos;
  • Sensores de nível Ultrassom: Sensores capazes de informar a altura em coluna de água de líquido contido em um tanque;
  • Sensor de temperatura e umidade do ar: Utilizado para coletar a temperatura ambiente.

Da mesma forma que o software busca informações no CLP, ele também envia comandos ditados pelo operador. Uma vez este comando recebido, ele dispara o acionamento de bombas e válvulas ou outros dispositivos acionados em campo. Veja que  o CLP faz toda a gestão da lógica de controle e o software a interface e gestão das informações.

Como é possível concluir, os benefícios proporcionados pela automação industrial em sistemas de dosagem são imensos. No entanto, é preciso analisar a fundo cada projeto para saber o que se aplica e o que não se aplica de forma a evitar custos desnecessários. Deve-se levar em conta também o retorno sobre o investimento que cada componente adicionado poderá trazer. Como por exemplo, instalar um sensor ultrassom em cada tanque de matéria-prima pode parecer onerar o projeto em um primeiro momento, porém quando é realizada uma análise mais detalhada poderia-se contatar o contrário.

Se por algum motivo acontecer um problema recorrente de que ao abastecer os tanques, o fornecedor deixe de completar os mesmos no nível desejado (é possível que isto ocorra justamento pelo fato de não ter como medir a quantidade abastecida) e houver perda de matéria-prima (paga-se mais do que é recebido), com o passar do tempo isto acabará ficando mais oneroso do que se fosse instalado os sensores no sistema de forma a garantir o abascecimento correto. Lembre-se de que atuar na causa raiz é sempre mais importante do que atuar no problema.

Apesar do sistema automatizado fornecer a melhor alternativa, não deve-se lançar mão desta excelente alternativa sem antes recorer a um bom projeto de engenharia. Com o projeto em mãos e todas as necessidades e requisitos delineados, os sistemas automatizados de dosagem industrial com certeza proporcionam um excelente retorno para a empresa com ganhos de produtividade, performance e capacidade analítica das informações.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti

Reprojetando a empresa

COLETÂNEAS

Reprojetando_Capa

Essa publicação, de autoria de Floriano do Amaral Gurgel, engenheiro formado pela Escola Politécnica da Universidade de São Paulo (Poli USP), tem como objetivo demonstrar aos gestores de uma empresa em dificuldades financeiras os caminhos a seguir para salvá-la e remodelá-la para tornar-se rentável no futuro. A obra é dirigida a empresários e também a profissionais contratados para estes objetivos específicos, além de servir de ferramenta para cursos de especialização, mestrado e doutorado.

O autor foi professor do Departamento de Engenharia de Produção (DEP) da Poli e da Fundação Vanzolini e teve uma experiência profissional adquirida como executivo de empresas do ramo de moldagem de material plástico, na área de produtos de consumo e peças técnicas para o abastecimento de montadoras. O livro foi escrito em uma linguagem bem coloquial e no seu início Gurgel trata das providências imediatas que devem ser tomadas para se resolver uma crise financeira empresarial e atingir a normalidade. Mostra que, depois dessa etapa, é preciso visar a consolidação do caixa da empresa, incrementando outras atividades gerenciais para que esta torne-se saudável e possa gerar um caixa substancial.

Passada a parte inicial, o texto de Reprojetando a Empresa trata de ferramentas de administração e também do estabelecimento de uma nova cultura, que têm como objetivo contribuir com o amadurecimento organizacional, além de abordar aspectos que podem tornar a empresa mais robusta e rentável em um futuro próximo. Segundo o autor, ­o livro é indicado para uma administração especializada na gestão de empresas que venham apresentando dificuldades. Depois de tomadas as medidas essenciais para a normalização de suas finanças, são necessárias medidas de outro teor, que visam a consolidar a relativa estabilidade de caixa, incrementando outras atividades gerenciais para que a empresa fique inteiramente saudável e gere um caixa substancioso.

A dificuldade financeira é apenas um efeito ou um sintoma de um processo de gestão empresarial sem planejamento estratégico e, normalmente, tem origem na área comercial devido a um método inadequado de captação de pedidos e na área de marketing de desenvolvimento em virtude de uma captação errada das necessidades das pessoas que compõem um segmento de mercado.

Igualmente, para o autor, as dificuldades são geradas na área de formação de preços, devido a uma visão equivocada do valor econômico e mercadológico associada à necessidade de absorção de despesas e dos custos fixos, em montante muito elevado para o negócio. As dificuldades também são encontradas na engenharia do produto, devido à falta de consciência de que o custo se projeta, assim como na área de produção permissiva, pela aceitação da geração imprudente de desperdício.

Depois da parte inicial, o texto trata de várias ferramentas interessantes de administração e do estabelecimento de uma nova cultura que possibilitem um amadurecimento organizacional e de visão dos negócios que tornem a empresa bem robusta e rentável em um futuro próximo. Alguns capítulos tratam resumidamente de certos temas acerca de atividades gerenciais com o intuito de informar o leitor da existência de algumas ferramentas que poderão ser úteis na administração da empresa, proporcionando, com essas leituras, uma melhor visão do muito que se pode fazer objetivando a futura consolidação saudável da empresa. Para mais informações e compra do livro, acesse o link http://reprojetandoaempresa.com.br/

Produtividade e inovação

COLETÂNEAS DE NORMAS TÉCNICAS

Coletânea Série Sistema de Gestão Ambiental

Coletânea Digital Target com as Normas Técnicas, Regulamentos, etc, relacionadas à Sistema de Gestão Ambiental!
Saiba Mais…

Coletânea Série Tecnologia da Informação

Luiz Gonzaga Bertelli

Qual a maior diferença entre o Brasil e Coreia? Se a pergunta fosse feita há 40 anos, alguém mais bem humorado poderia dizer que aqui as pessoas não nascem com os olhos puxados. As duas nações ostentavam índices de produtividade e inovação muito parecidos. Ou seja, tanto aqui quanto lá um trabalhador apresentava mais ou menos a mesma produção, da mesma forma que os números de patentes se equivaliam. Hoje, o engraçadinho não teria tanto motivo para rir: o Brasil perde  – e feio – nos dois quesitos.

O concorrente asiático tem produção quatro vezes maior que a brasileira e está disparado no topo da lista de países mais inovadores, enquanto o Brasil amarga a 55ª posição. Os dados têm impactos diretos na economia brasileira cujo crescimento dá sinais de começar a perder vigor. Praticamente toda mão de obra qualificada está empregada e as organizações precisam descobrir novos meios para gerar mais divisas, continuando competitivas. 

Uma solução possível para curto prazo é estimular a criatividade e atenção concentrada nos jovens que chegam agora ao mercado de trabalho. A geração Y já se provou capaz de surpreender, dependendo apenas de treinamento e orientação de profissionais experientes. Nesse sentido, os programas de estágio e aprendizagem – bem como os vários cursos de educação à distância gratuitos que o CIEE oferece pelo site www.ciee.org.br – valem como um diferencial a toda modalidade de formação profissional.

A longo prazo há outras opções para a criação desses talentos. Na capital paulista, por exemplo, o Instituto Superior de Inovação e Tecnologia (Isitec) – uma faculdade pioneira no país – está na reta final para receber e formar engenheiros focados no aumento de eficiência e na criação de novos produtos que possam garantir posições melhores para o Brasil no mercado internacional. Esse caminho, entretanto, ainda demorará a surtir efeito: os primeiros graduandos sairão dentro de quatro ou cinco anos.

A decisão de mudar a atual maneira de encarar a produtividade e a inovação não pode esperar tanto; assim é preciso adotar novas medidas nesse sentido para resultados também a curto prazo. A posição de liderança que o Brasil almeja no futuro depende dela.

Luiz Gonzaga Bertelli é presidente executivo do Centro de Integração Empresa-Escola (CIEE), da Academia Paulista de História (APH) e diretor da Fiesp.

A competitividade industrial brasileira está cada vez mais em baixa

NORMAS COMENTADAS

NBR 14039 – COMENTADA
de 05/2005

Instalações elétricas de média tensão de 1,0 kV a 36,2 kV. Possui 140 páginas de comentários…

Nr. de Páginas: 87

Clique para visualizar a norma imediatamenteVisualizar já!

NBR 5410 – COMENTADA
de 09/2004

Instalações elétricas de baixa tensão – Versão comentada.

Nr. de Páginas: 209

Clique para visualizar a norma imediatamenteVisualizar já!

NBR ISO 9001 – COMENTADA
de 11/2008

Sistemas de gestão da qualidade – Requisitos. Versão comentada.

Nr. de Páginas: 28

Clique para visualizar a norma imediatamenteVisualizar já!

Um estudo da Federação das Indústrias do Estado de São Paulo (Fiesp), “Custo Brasil e taxa de câmbio na competitividade da indústria de transformação brasileira conforme intensidade tecnológica”, constatou que em 2012 o PIB do Brasil cresceu somente 0,9%, muito pouco em comparação com o PIB mundial (crescimento de 3,2%) e da América Latina (3,0%), e, principalmente, ante as economias em desenvolvimento, que cresceram 5,1%. Um dos determinantes do baixo crescimento econômico brasileiro tem sido a estagnação da indústria de transformação, culminando com a retração de 2,5% do PIB do setor em 2012.

Por outro lado, a expansão do consumo interno vem sendo atendida, predominantemente, por aumento das importações. Um bem manufaturado nacional é 34,2% mais caro que um similar importado dos principais parceiros comerciais, já contando com as alíquotas de importação vigentes, unicamente em função do Custo Brasil, isto é, as deficiências no ambiente de negócios do país, e devido a sobrevalorização do real em relação ao dólar.

O Custo Brasil e a sobrevalorização cambial têm efeitos mais perniciosos nos segmentos de maior intensidade tecnológica. Nesses segmentos, as barreiras naturais a importações são menores. Além disso, no segmento de alta tecnologia, a alíquota efetiva média de importação brasileira é significativamente menor que a já baixa alíquota média da indústria de transformação agregada.

A tributação interna também exemplifica perfeitamente as dificuldades enfrentadas pelas empresas que produzem no país. Tome-se o caso da alíquota de IPI, que é mais elevada nos segmentos de média-alta e alta tecnologia, o que desencoraja tais atividades no país. Esses fatores têm contribuído para um processo mais agudo de substituição da produção doméstica por estrangeira no segmento de alta tecnologia, expresso em aumento significativo do coeficiente de penetração de importações no último decênio.

Sem dúvida os investimentos em tecnologia são fundamentais para obtenção de incrementos de produtividade e aperfeiçoamento de portfólio de produto. Ocorre que as medidas de política adotadas pelo governo nos últimos anos têm sido neutralizadas pelas condições adversas do ambiente de negócios, com destaque para o Custo Brasil e sobrevalorização do real. As possibilidades de evolução virtuosa da estrutura industrial brasileira (leia-se, crescimento liderado pelas atividades de maior conteúdo tecnológico) são, assim, muito restringidas, e mesmo inviabilizadas, pelos fatores expostos.

Os diferenciais de preços quantificados no estudo devem ser o cerne de qualquer diagnóstico das causas do baixo nível de investimentos, pífio nível de atividade inovativa e reduzido crescimento econômico do Brasil. Mais do que isso, os resultados evidenciam que a retomada da competitividade brasileira pressupõe a adoção de políticas de Estado dirigidas a eliminação ou redução expressiva do Custo Brasil e da sobrevalorização do real. Parte das políticas requeridas para redução do Custo Brasil somente terão resultados no longo prazo. Portanto, há necessidade de políticas públicas emergenciais estruturantes e permanentes, que proporcionem um ambiente de negócios com previsibilidade a longo prazo, e com condições isonômicas de competição para o setor produtivo doméstico ante a produção estrangeira.

O estudo também mostrou que a produção industrial brasileira não tem acompanhado o rápido crescimento do consumo interno. Em 2012, enquanto o PIB da indústria de transformação recuou 2,5%, o volume de vendas do varejo ampliado cresceu 8,0%. O fraco desempenho da indústria de transformação brasileira pode ser atribuído fundamentalmente ao Custo Brasil e à sobrevalorização do real. (gráficos 1, 2, 3 e 4)

CLIQUE NAS FIGURAS PARA UMA MELHOR VISUALIZAÇÃO

gráfico 1

gráfico 2

gráfico 3

gráfico 4

Assim, o Custo Brasil, associado à sobrevalorização do real, encarece os produtos da indústria brasileira em relação aos produtos importados internados no país. Esse diferencial de preços é de: 34,2% no agregado da indústria de transformação; 21,6% no grupo dos setores de baixa intensidade tecnológica; 39,6% no grupo dos setores de média-baixa intensidade tecnológica; 33,2% no grupo dos setores de média-alta intensidade tecnológica; e 36,0% no grupo dos setores de alta intensidade tecnológica.

Quanto aos imposto de importação, dentre os dados que subsidiaram a análise do custo de internação de produtos estrangeiros, deve ser ressaltado que, diferentemente do senso comum, a alíquota efetiva média de importação brasileira é bastante baixa em relação ao máximo de 35% acordado com a Organização Mundial do Comércio: 9,8% no agregado da indústria de transformação; 17,3% nos setores de baixa intensidade tecnológica; 7,4% nos setores de média-baixa intensidade tecnológica; 10,6% nos setores de média-alta intensidade tecnológica;e 7,4% nos setores de alta intensidade tecnológica.

Como conclusão, o estudo revelou que os investimentos em tecnologia são fundamentais para obtenção de incrementos de produtividade e aperfeiçoamento de portfólio de produto. Ocorre que as medidas de política adotadas pelo governo nos últimos anos têm sido neutralizadas pelas condições adversas do ambiente de negócios, com destaque para o Custo Brasil e sobrevalorização do real. Em outros termos, as possibilidades de evolução virtuosa da estrutura industrial brasileira (leia-se, crescimento liderado pelas atividades de maior conteúdo tecnológico) são, assim, muito restringidas, e mesmo inviabilizadas, pelos fatores expostos.

Dessa forma, os fatores discutidos no âmbito do Custo Brasil e sobrevalorização cambial são forte desincentivo a agregação de valor no território nacional, punindo a realização de atividades de maior conteúdo tecnológico com diferenciais de preço crescentes em relação a produção dos países competidores. A desvantagem da produção local somente é atenuada no segmento de baixa intensidade tecnológica, até pelos custos relativos de movimentação e outras limitações no comércio intrínsecas a determinadas atividades. A trajetória comumente observada em nações industrializadas tem sido a progressiva transição para atividades industriais de crescente conteúdo tecnológico. A repetição desse processo de evolução da estrutura industrial não ocorre no país, em função da barreira exercida pelo Custo Brasil e sobrevalorização cambial à agregação de valor nas cadeias produtivas.

Atualmente, as atividades de alta tecnologia correspondem a apenas 6,1% do PIB total da indústria de transformação. O trabalho apresenta quantificação do diferencial de preços internos de produtos da indústria de transformação brasileira ante importados, decorrente do Custo Brasil e da sobrevalorização do real, de acordo com o nível de intensidade tecnológica dos setores. Os resultados indicam que o Custo Brasil e sobrevalorização do real são bastante significativos na determinação do preço dos produtos industriais, constituindo-se na principal causa da perda de competitividade da indústria de transformação, independentemente do nível de intensidade tecnológica dos setores.

Os grupos de setores de média-baixa, média-alta e alta intensidade tecnológica são os mais afetados pelo Custo Brasil e sobrevalorização do real. Nesses grupos, o diferencial de preços entre produtos nacionais e importados é sempre igual ou superior a 33%. As alíquotas do imposto de importação são insuficientes para eliminar a desvantagem competitiva da indústria de transformação brasileira decorrente dos dois fatores em questão.

Isso ocorre, sobretudo, nos grupos de setores de média-baixa, média-alta e alta intensidade tecnológica, cujas alíquotas médias do imposto de importação são até 57% inferiores a alíquota média do grupo de baixa intensidade tecnológica. Os dados apresentados expressam o desincentivo existente no ambiente de negócios brasileiro à atividade inovativa e agregação de valor ao longo das cadeias produtivas domésticas, isto é, em geral, quanto mais a jusante o elo da cadeia em questão, maior tende a ser o Custo Brasil, e, portanto, a desvantagem da produção doméstica ante importações.

O Custo Brasil e a sobrevalorização cambial explicam o fraco desempenho da indústria de transformação, repercutindo em baixo nível de investimento e crescimento do PIB, muito aquém do necessário para o desenvolvimento da nação. Esses fatores também demonstram enorme limitação do ambiente de negócios doméstico ao avanço tecnológico da indústria de transformação. O Custo Brasil e a sobrevalorização cambial reforçam a importância da política de compras governamentais com margens de preferência para a produção doméstica que o governo tem tentando implementar. Por outro lado, as margens de preferência estabelecidas tendem a não compensar a desvantagem de preço da produção local, podendo implicar na ineficácia dessas políticas, especialmente na aquisição de bens com maior intensidade tecnológica.

A análise comprova que as deficiências do ambiente de negócios não podem ser compensadas por melhorias nas estratégias empresariais. Tanto a eliminação do Custo Brasil como a desvalorização cambial são condições fundamentais e não excludentes para a retomada da competitividade da indústria de transformação brasileira. A eliminação ou redução do Custo Brasil pressupõe políticas de Estado efetivas, coordenadas com uma política econômica que promova a produção doméstica pelo aumento continuado da competitividade.

A apreciação dos riscos em empresas de manufatura (parte 2 – final)

maquinas2Importante na norma NBR 14009 é a descrição dos métodos para a análise de perigos e estimativa de riscos. Há muitos métodos de análise de perigos e estimativa de riscos e apenas alguns deles são citados no anexo B. Também estão inclusas as técnicas de análise de risco que combinam a análise de perigos com a estimativa de risco. Cada método foi desenvolvido para aplicações particulares.

Dessa forma, pode ser necessário modificá-los em alguns detalhes, em aplicação para máquinas. Há dois tipos básicos de análise de riscos; um é chamado de método dedutivo e o outro de método indutivo. No método dedutivo, o evento final é admitido e os fatos que podem causar esse evento final são, então, determinados. No método indutivo, a falha de um componente é admitida. As análises subsequentes identificam os eventos que essa falha pode causar.

Análise preliminar de perigos (APP)

A APP é um método indutivo cujo objetivo é identificar, para um sistema/subsistema/componente especificado, e para todas as suas fases, os perigos, situações e eventos perigosos que podem causar danos, levando a um possível acidente. O método é completado com a identificação das possibilidades da ocorrência do acidente e a avaliação qualitativa da gravidade do possível ferimento ou dano à saúde e, posteriormente, com as propostas de medidas de segurança e os resultados de sua aplicação. A APP deve ser atualizada durante as fases do projeto, construção e testes, para detectar novos perigos e para fazer as correções, se necessário. A descrição dos resultados obtidos pode ser expressa em diferentes formas (por exemplo, tabelas, árvore, etc.).

Estudo do perigo e operabilidade (HAZOP)

Um estudo HAZOP é uma técnica sistemática para a identificação de perigos e problemas de operabilidade de toda a instalação. Cada seção de um processo é examinada e todos os possíveis desvios das condições normais de operação, e de como podem ocorrer, são listados. As consequências sobre o processo são avaliadas e as medidas para detectar desvios “prováveis”, que podem levar a eventos perigosos ou problemas de operabilidade, são identificadas.

Método “O QUE – SE”

Para aplicações relativamente simples, o processo é revisado da matéria prima ao produto. A cada passo de manuseio ou processamento, perguntas “o que – se” são formuladas e respondidas, para avaliar os efeitos de falhas de componentes ou de procedimentos, no processo. Para aplicações mais complexas, o método “o que – se” pode ser melhor aplicado, através de um check list e pela divisão do trabalho, com o objetivo de associar certos aspectos do processo às pessoas que têm maior experiência ou habilidade na avaliação desses aspectos. A prática do operador e conhecimento do trabalho são auditados no campo, a adequação de equipamentos e de seus materiais constituintes é estudada, a química do processo e os sistemas de controle são revisados, e os registros de operação e manutenção são auditados. Geralmente uma avaliação por check list de um processo precede o uso de métodos mais sofisticados, abaixo descritos, a menos que o processo tenha sido operado, seguramente, por muitos anos e tenha sido sujeito a inspeções e auditorias de segurança periódicas.

Modo de falhas e análise de efeitos (FMEA, ver IEC 812)

O FMEA é um método indutivo onde a principal finalidade é a avaliação da frequência e consequências da falha de componentes. Em razão disso, pode ser inadequado, quando procedimentos de operação ou erros de operadores são significantes. O FMEA pode ser um processo mais demorado que, por exemplo, uma árvore de falhas, pois, para cada componente, todo modo de falha deve ser considerado. Entretanto, as falhas que têm uma probabilidade muito baixa de ocorrência não precisam ser analisadas com profundidade, porém essa decisão deve ser registrada na documentação.

Método DEFI

O DEFI é um método que usa a injeção de falhas em um sistema computadorizado, para estimar a razão da falha ao perigo, em um determinado sistema.

Método organizado para uma análise de risco sistemática (MOSAR)

O MOSAR é uma aproximação completa em dez etapas que, considerando o sistema para análise (máquina, processo, instalação, etc.) como feito de subsistemas em interação, identifica o perigo, a situação perigosa e os eventos que podem causar danos com o uso de uma primeira tabela. A adequação dos meios de prevenção é estudada com uma segunda e uma terceira tabelas, levando-se em conta sua interdependência. O estudo da segurança de operação, usando ferramentas conhecidas (FMEA, HAZOP, etc.), salienta as possíveis falhas perigosas. Isso leva à elaboração de roteiros, representados como árvores lógicas. Os roteiros são classificados em uma tabela de gravidade, elaborada com o consenso de pessoas envolvidas. Uma tabela, definida por consenso, relaciona a severidade com os objetivos a serem alcançados pelas medidas preventivas e indica o número de barreiras tecnológicas (sem a intervenção humana) e barreiras de utilização (com intervenção humana).As barreiras de prevenção são, então, incorporadas em árvores lógicas e o risco residual é analisado, por via de uma tabela de aceitabilidade, definida por consenso.

Árvore de análise de falhas (FTA)

A FTA é, primariamente, um meio de análise (não identificação) de perigos. Eventos perigosos ou os principais deles são inicialmente identificados por outras técnicas, tais como HAZOP. Então, todas as combinações de falhas individuais que podem levar ao evento perigoso, são mostradas no formato lógico de uma árvore de falhas. Pela estimativa da probabilidade de falha individual, e então usando as expressões aritméticas apropriadas, a frequência do evento principal pode ser calculada. O impacto da mudança do processo na frequência do evento principal pode ser prontamente avaliado e, dessa forma, a FTA torna fácil a investigação do impacto de medidas preventivas alternativas. Esse método tem sido considerado também útil na determinação da causa de acidentes.

Técnica DELPHI

Um grande círculo de especialistas é questionado, em vários etapas, onde o resultado da etapa anterior, juntamente com a informação adicional, é comunicado a todos os participantes. Durante a terceira ou quarta etapa, o questionador anônimo concentra-se naqueles aspectos para os quais não se conseguiu, até então, concordância. Basicamente, a DELPHI é um método de prognósticos que também é usado na geração de ideias. O método é particularmente eficiente, em razão de sua limitação a especialistas.

Os sete desperdícios da produção

Cristiano Bertulucci Silveira

O maior foco das indústrias que aplicam a ferramenta do Lean Manufacturing é combater os sete desperdícios que podem ocorrer na produção de um produto. Existem várias formas de desperdícios e um exemplo é quando se produz mais do que o necessário, ou mesmo, mais rápido ou antes do que é preciso. Ele também pode ocorrer quando o produto não é enviado ao consumidor, desencadeando uma série de eventos que geram custos financeiros e operacionais. Existem dois tipos de desperdícios: os que são visíveis e os que são ocultos. Com relação aos ocultos, é muito importante que eles sejam descobertos e eliminados antes que possam se tornar grandes demais, incorrendo em uma fonte maior de problemas para a empresa. Uma analogia interessante para exemplificar os problemas visíveis e ocultos é quando imaginamos um iceberg. A ponta do iceberg, que fica visível às pessoas representa os desperdícios visíveis: defeitos, retrabalhos, excesso, refugos ou atividades de inspeções. Já o restante do iceberg, que é muito maior do que seu topo, é composto pelos desperdícios ocultos. Alguns exemplos destes desperdícios são: custos de urgência nas entregas, procedimentos desnecessários, falhas de equipamentos, tempo perdido em função de acidentes, excesso de inventário, etc. Veja abaixo uma Figura que exemplifica os vários desperdícios visíveis e ocultos encontrados em uma linha de produção na indústria.

desperdicios-visiveis-ocultos-industria

Figura 1 – Desperdícios visíveis e ocultos que podem ser encontrados na indústria

Os desperdícios podem assumir deferentes formas, podendo ser encontrados no processamento de um produto ou em entradas e saídas desnecessárias. Podem ainda ser observados na forma de material, estoque, equipamento, infraestrutura, utilidades, documentos, movimentos e outras atividades que não agregam valor.

Quais são os sete desperdícios da produção?

Os sete desperdícios da produção foram identificados e categorizados por Taiichi Ohno,  um engenheiro de produção que iniciou sua carreira no setor automotivo em 1943 e é considerado o pai do TPS. Segundo ele os desperdícios podem ser categorizados da seguinte forma:

  1. Defeitos;
  2. Excesso de produção ou Superprodução;
  3. Espera;
  4. Transporte;
  5. Movimentação;
  6. Processamento inapropriado;
  7. Estoque.

sete-desperdicio-producao

Figura 2 – Os sete desperdícios da produção segundo Taiichi Ohno.

1 – Defeitos

O que é:

  • Processamento na produção de produtos defeituosos;
  • Processamento devido ao retrabalho de produtos defeituosos;
  • Materiais utilizados na ocorrência de produtos defeituosos e retrabalhos;

Causas:

  • Falta de objetividade na especificação do cliente com relação ao produto;
  • Processos incapazes;
  • Falta de controle de processo;
  • Incapacitação de pessoas ou pessoas não qualificadas;
  • Setorização ou departamentalização ao invés de qualidade total;
  • Fornecedores desqualificados.

Qualidade é fazer a coisa certa logo na primeira vez. Trata-se de prevenção e planejamento, não de correção e inspeção. A má qualidade ou defeitos não só resultam na insatisfação do cliente e danos à imagem da empresa, como também em desperdícios devido aos custos e tempo envolvidos em repor um produto defeituoso. Sendo assim, a melhoria contínua e medidas de prevenção são os meios mais eficazes para reduzir os desperdícios causados por defeitos.

2 – Excesso de Produção ou Superprodução

O que é:

  • Produzir mais do que o necessário;
  • Produzir mais rápido do que o necessário;

Causas:

  • Incentivos e metas por volume (vendas, compras, pagamento, PLR);
  • Aumento da capacidade do equipamento;
  • Desequilíbrio na linha de produção: Agendamento deficiente/mudanças;
  • Planejamento de produção deficiente;
  • Práticas contábeis de custos que incentivam o aumento de estoques

A superprodução ocorre quando mais há maior produção do que a empresa pode vender, resultado em um aumento no estoque de produtos acabados. A superprodução esconde desperdícios, uma vez que muitos pensam que o estoque é considerado um ativo de valor para a empresa, quando na verdade a maioria deles podem se tornar obsoletos ou implicar em  custos para mantê-los até que possam ser vendidos. Observe que existe ainda o risco deles não serem vendidos. O Just-in-time e as regras de Kanban são uma boa alternativa para evitar o excesso de desperdício referente à superprodução. Um fato importante é que a aplicação de sistemas Lean favorece equipamentos de menor porte, em grandes parte, com o intuito de evitar a superprodução.

3 – Estoque

O que é:

  • Estoque excessivo de produto final;
  • Estoque excessivo de matérias-primas e insumos.

Causas:

  • Produção excessiva;
  • Desequilíbrio na linha;
  • Grande tamanho dos lotes;
  • Alto tempo entre o pedido e entrega do produto (lead time);
  • Alta taxa de retrabalho;
  • Falta de requisição de materiais e padrões de compras;

Os desperdícios de estoque podem ser originados na compra e armazenamento de excedentes de insumos, materiais ou outros recursos. Eles também possuem origem no excesso de materiais em processo (WIP ou work-in-process) acumulados. A principal causa é, muitas vezes, devido à falta de planejamento e falta de desconhecimento do departamento de compras com relação ao consumo real ou taxa de utilização de um determinado recurso. Ter excesso de estoque significa um maior custo para a empresa, ocupação de área, manutenção do inventário e do estoque. Reforçando novamente que existe a possibilidade de se armazenar produtos obsoletos como ferramentas e materiais. Para evitar o desperdício é necessário um planejamento de compras eficiente e que após a produção do produto o mesmo seja enviado diretamente ao cliente.

4 – Espera

O que é:

  • Ociosidade humana ou tempo de espera;
  • Ociosidade de equipamentos ou tempo de espera;

Causas:

  • Processos ou linhas desbalanceadas;
  • Força de trabalho inflexível;
  • Superdimensionamento da equipe;
  • Não agendamento de máquinas para produção;
  • Tempo de setup longo;
  • Falta de material ou atraso;

O desperdício referente ao tempo de espera ocorre quando os recursos (pessoas ou equipamentos) são obrigados a esperar desnecessariamente em virtude de atrasos na chegada de materiais ou disponibilidade de outros recursos, incluindo informações. Como exemplo, podemos citar a situação em que um participante atrasa a reunião por perder o horário e chegar atrasado. A espera de ferramentas para começar a trabalhar, de uma assinatura para que um processo continue ou de um veículo atrasado para transportar os trabalhadores para o local de trabalho, são bons exemplos também.

5 – Transporte

O que é:

  • Movimento desnecessário de material;
  • Movimento desnecessário de ferramentas ou equipamentos;

Causas:

  • Planejamento da rota do produto ineficiente;
  • Fornecedores distantes da produção;
  • Fluxo complexo dos materiais;
  • Layout dos equipamentos ou das células ruim;
  • Local de trabalho desorganizado;

Quando qualquer recurso (pessoas, equipamentos, suprimentos, ferramentas, documentos ou materiais) é movido ou transportado de um local para outro sem necessidade, está sendo criado o desperdício de transporte. Como exemplos, podemos citar: o transporte de peças erradas, o envio de materiais para o local errado ou na hora errada ou o envio de documentos para lugares que não deveriam ser enviados. Uma maneira de reduzir o desperdício de transporte é criando um layout eficiente, onde os clientes são atendidos por fornecedores próximos. Células que trabalham entre si ou servindo umas às outras, também devem ser alocadas em proximidade para reduzir o desperdício de transporte. Materiais e ferramentas de algumas células de trabalho também podem ser movidos, realocados, ou posicionados ao lado ou perto de usuários de outras células de trabalhos ou seus clientes internos.

Lembre-se de que transportar recursos no ambiente fabril é uma necessidade, mas se não houver planejamento e estudos de forma a minimizar este tempo, torna-se uma atividade que não agrega valor ao produto. Por isso é necessário acompanhar de perto se em algum local há lacunas ou falhas que possam ser ajustadas.

6 – Movimentação nas operações

O que é:

  • Movimentos desnecessários dos trabalhadores.

Causas:

  • Layout ruim e ambiente de trabalho desorganizado;
  • Estoque ou células de trabalho desorganizados;
  • Instruções de trabalho não padronizadas ou não compreendidas;
  • Fluxo de materiais no processo não muito claro.

O desperdício no movimento acontece quando ocorrem movimentos desnecessário do corpo ao executar uma tarefa. Alguns exemplos: procurar, andar, flexionar, elevar, abaixar e outros movimentos corporais desnecessários. Os trabalhadores cometem este tipo de desperdício quando procuram por ferramentas ou documentos ou quando seu local de trabalho está cheio ou desorganizado. Muitas vezes, o desperdício de movimento atrasa o início dos trabalhos e interrompe o fluxo das atividades.

Para reduzir a movimentação dos operadores, primeiramente é necessário analisar se elas são necessárias ou não. As desnecessárias devem ser imediatamente trabalhadas. Já para movimentações necessárias, é importante verificar se é possível torná-las mais práticas para o operador. Isto pode ser feito reorganizando o local de trabalho ou mesmo redesenhando o layout da linha de produção.

7 – Processamento

O que é:

  • Processo que não agrega valor realizado pelo homem;
  • Processo que não agrega valor realizado pela máquina;

Causas:

  • Falta de objetividade nas especificações do cliente;
  • Mudanças frequentes na engenharia do produto;
  • Qualidade excessiva (refinamento);
  • Análise inadequada de valor;
  • Instruções de trabalho mal elaboradas.

Esta categoria de desperdício refere-se aos processamentos que não agregam valor ao item que está sendo produzido ou trabalhado. Exemplos são etapas adicionais que não aumentam a qualidade do produto ou etapas que simplesmente adicionam excesso de qualidade de que os clientes não necessitam. Documentação desnecessária é também uma forma de desperdício de processamento.

Se for realizada uma análise criteriosa, é possível identificar atividades e tarefas dentro do processo que podem ser irrelevantes e que afetam diretamente a produtividade e o custo da operação. Por este motivo é necessário analisar e identificar em cada etapa a existência de gargalos e eliminá-los.

Como eliminar os desperdícios? Abaixo, alguns passos que podem ser seguidos para uma efetiva eliminação dos desperdícios:

  • Fazer com que o desperdício seja visível, caso ele seja oculto;
  • Estar consciente do desperdício;
  • Assumir a responsabilidade pelo desperdício;
  • Mensurar o desperdício;
  • Eliminar ou reduzir o desperdício.

Em resumo, para que seja possível eliminar os desperdícios, é necessário vê-los e reconhecê-los, identificando quem é o responsável por eles. Finalmente ele deve ser mensurado de forma a estabelecer seu tamanho e magnitude. Os desperdícios que não podemos ver, não podem ser eliminados. Quando um desperdício é negligenciado, também não é possível eliminá-lo e quando alguém se recusa a aceitar a responsabilidade desperdício, então ele não vai trabalhar para eliminá-lo. Finalmente, quando o desperdício não é medido, as pessoas podem pensar que ele é pequeno demais ou trivial e, por este motivo, não estarão motivadas em detê-lo. Como diz o ditado: “O que não é medido, não é melhorado”…

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos da Citisystems – cristiano@citisystems.com.br – Skype: cristianociti

Jidoka: automatização com um toque humano

Cristiano Bertulucci Silveira

Jidoka é um termo japonês que no mundo do Lean Manufacturing significa: “automatização com um toque humano” ou ainda “automação com inteligência humana”. A aplicação do Jidoka fornece às máquinas e operadores a capacidade de detectar quando uma condição anormal ocorreu de forma a interromper imediatamente o trabalho. Esta ferramenta é um dos pilares na implantação do Lean e juntamente com o Just-in-Time compõe os dois pilares do sistema Toyota de produção. É através da aplicação do Jidoka que é possível permitir ao processo que ele tenha seu próprio autocontrole de qualidade, reduzindo desperdícios e melhorando a qualidade dos produtos.

O Jidoka teve sua origem ligada à automatização da máquina de tear fabricada por Sakichi Toyoda (1867-1930), fundador da Toyoda Automatic Loom Works, considerado um dos dez maiores inventores da história contemporânea do Japão e inventor da máquina de tear automática. Quando da criação da máquina de tear automática, foram detectados dois problemas indesejados: O primeiro é que a máquina continuava funcionando mesmo diante de um fio rompido e o segundo é que o defeito só era detectado quando o processo estivesse concluído, tendo produzido muito tecido defeituoso. Sendo assim, se um fio rompesse, a máquina produziria tecido com defeito, o que não era desejado.

Para evitar a produção de produtos com defeito, havia a necessidade de ter um operador tomando conta da máquina para que diante de qualquer anomalia o operador parasse a máquina. Imagine colocar um operador em cada máquina em uma fábrica com enorme quantidade de máquinas de tear. Isto tornava o processo muito oneroso aumentando os custos de produção. Sendo assim, ainda em 1924, Sakichi inventou e colocou em prática uma máquina de tear dotada de dispositivo que parava a máquina quando: detectava o rompimento da linha, detectava o fim da linha, ou detectava a quantidade programada atingida.

Utilizando-se desses recursos, Sakichi pôde liberar o operador de ficar como “vigia” tomando conta das máquinas à espera de ocorrência de anomalia, fundamentando exatamente o objetivo do Jidoka que é o de reduzir o número de desperdício através da implantação de dispositivos nas máquinas da produção sendo estes dispositivos responsáveis por alertar se algum problema foi detectado e então parar o trabalho imediatamente quando da detecção do problema. A sua aplicação também livra as máquinas da necessidade constante de atenção humana, permitindo assim que os operadores realizem múltiplas funções. Na Figura abaixo é possível visualizarmos o Jidoka na prática.

jidoka-automatizacao-toque-humano-conceito-indústria-andon

Figura 1 – Jidoka “Automatizacao com um toque humano”.

Importante ressaltar ainda que os benefícios do Jidoka também podem ser verificados em linhas de montagem manual, onde o operador tem autonomia para parar a linha de produção e corrigir anomalias caso seja necessário. Geralmente, o Jidoka lança mão de uma excelente ferramenta, o Andon, visto que trata-se de uma ferramenta visual que sinaliza falhas que requerem atenção e ação imediata. Na prática o Andon pode ser representado da seguinte forma:

Luzes de sinalização classificadas por cores onde cada uma possui o seu significado:

  • Vermelho: Linha parada
  • –Amarelo  : Chamada  de atenção ou solicitação de ajuda
  • –Verde      : Normalidade no processo

Na Figura 2 abaixo, é possível visualizar uma aplicação do Jidoka em uma linha de montagem manual utilizando o Andon.

jidoka-manual-conceito-indústria-andon

Figura2 – Jidoka em processo de manufatura manual com utilização de Andon.

Os quatro passos do Jidoka

O Jidoka não funcionaria somente detectando uma anomalia e parando a máquina ou processo. Ele deve ser algo maior, abrangendo também a correção de condições anormais e investigação da causa raiz dos problemas. Assim podemos dizer que o Jidoka consiste em quatro passos importantes:

  1. Detectar a falha ou anormalidade;
  2. Parar;
  3. Corrigir ou consertar imediatamente a condição anormal;
  4. Investigar a causa raiz (utilizando por exemplo os “5 porquês”) e estabelecer ações efetivas para que o problema não ocorra mais.

Os dois primeiros passos podem ser automatizados, diferentemente dos passos 3 e 4 que requerem total domínio das pessoas envolvidas, necessitando de um diagnóstico, análise e ferramentas para solução de problemas. No passo 1, as falhas podem ser detectadas tanto em processos que envolvem máquinas quanto em processos que envolvem pessoas (manual). Quando o processo envolver máquina, uma boa solução é aplicar os serviços de automatização industrial, com utilização de dispositivos mecânicos, elétricos e eletrônicos (sensores, atuadores, etc.), que acusam automaticamente qualquer anormalidade. Por outro lado, se o processo for manual, dispositivos devem ser criados para que os operadores possam informar o problema e parar a linha. Estes dispositivos podem ser: botoeiras de acionamento, andon de sinalização, luminoso ou mesmo monitores informativos interligados em rede capazes de informar toda a linha de produção.

O segundo passo é o de parar. Algumas pessoas podem cair no erro de pensar que quando dispositivo de detecção de falha é acionado no passo 1, informando falha em uma estação de trabalho, toda a linha de produção terá uma grande parada  até que o problema seja resolvido. Sendo assim, é importante que as linhas de produção sejam divididas em seções e estas, por sua vez, em estações de trabalho. Assim, pode-se criar pequenos “buffers” ou folgas na linha para que quando uma estação de trabalho notificar o seu problema, toda a linha continue a produzir possuindo um tempo de ciclo para resolver o problema sem prejudicar a linha como um todo.

Qual é a diferença entre autonomação e automação? Algumas vezes, o Jidoka é também chamado de autonomação (automação com inteligência humana), pois ele identifica a falha no produto e assim pára o funcionamento da máquina. Se compararmos a automatização com a autonomação, constataremos que o processo é mais completo na autonomação, pois esta última implica na identificação da falha, decisão sobre a forma de correção e a execução da correção. Na tabela abaixo, podemos elencar algumas diferenças entre automatização e autonomação:

Autonomação Automatização
Operador com controle restrito a comandos. Operador de máquina opera simultaneamente várias máquinas. Controle realizado pela máquina com acompanhamento do operador.
Máquinas são providas de uma função de cérebro humano, ou seja, a capacidade de detectar anormalidades de forma autônoma. Máquinas automatizadas não estão dotadas de cérebro humano.
Controle autônomo de qualidade, defeitos e quantidades em um processo. As causas dos defeitos são investigadas imediatamente, e uma ação corretiva é implementada. O sistema calcula a ação corretiva mais apropriada
Produtos flexíveis, de baixo custo e qualidade superior. Atividade meio para melhorar a integração e a flexibilização em um processo produtivo.

A autonomação também representa uma redução de custo considerável, considerando-se os aspectos do baixo custo dos produtos e da garantia da qualidade. Pode-se dizer também que devido as realidades econômicas diferenciadas, existe a necessidade de se elaborar caminhos diferentes para a implantação da autonomação em empresas industriais. Para obter sucesso, deve-se proceder em pequenos passos, realizando um conjunto pequeno de ações de cada vez. Ou seja, metodologias baseadas em melhorias contínuas e progressivas baseadas no Kaizen são desejáveis para aprofundar e sistematizar a implantação do pilar autonomação na empresa. Assim, pode-se dizer que: “a autonomação é inconcebível sem melhorias contínuas”.

Qual é a diferença entre Jidoka e Poka Yoke? O Poka Yoke tem como premissa prevenir que falhas aconteçam, sendo uma ferramenta que estabelece maneiras de evitar que problemas mecânicos e humanos ocorram. Ele pode ser representado da seguinte forma:

  • Controle visual da qualidade;
  • Previne a ocorrência de defeitos;
  • Exemplo: Encaixe USB.

O Jidoka tem como premissa a detecção dos problemas quando acontecem, sendo um conceito que visa identificar se uma falha ocorre durante o processo de produção.

Benefícios do Jidoka

  • Sustenta fluxos produtivos, contínuos e estáveis, evitando defeitos;
  • Identifica e elimina as causas dos desperdícios causados pela falta de qualidade;
  • Libera o homem para ele execute múltiplas tarefas que agreguem valor;
  • Melhora a produtividade e estabelece ações que evitam a recorrência de problemas, por meio de soluções definitivas em nível sistêmico, incorporando elementos que assegurem a qualidade na origem.

Cristiano Bertulucci Silveira é engenheiro eletricista pela Unesp com MBA em Gestão de Projetos pela FVG e certificado pelo PMI. Atuou em gestão de ativos e gestão de projetos em grandes empresas como CBA-Votorantim Metais, Siemens e Votorantim Cimentos. Atualmente é diretor de projetos na Citisystems – cristiano@citisystems.com.br

A produtividade das pessoas aumenta em ambientes de trabalho bem iluminados

iluminaçãoUma das características importantes dos ambientes de trabalhos é a quantidade de luminosidade disponível para o exercício das atividades profissionais. O iluminamento ou iluminância é uma grandeza expressa em lux (lx) que indica o fluxo luminoso de uma fonte de luz que incide sobre uma superfície situada a certa distância desta fonte. Em termos práticos, trata-se da quantidade de luz dentro de um ambiente, e pode ser medida com o auxílio de um aparelho denominado luxímetro.

Assim, em um local de trabalho onde há uma iluminação inadequada (com sombras ou ofuscamentos) é exigido um esforço maior da visão do indivíduo. Os efeitos imediatos que poderão ocorrer dessa agressão à visão são a fadiga visual e as cefaleias (dores de cabeça). Se o indivíduo permanecer nesse ambiente desfavorável, com o passar dos anos, a prática do trabalho irá ocasionar a diminuição da sua capacidade visual. Uma iluminação insuficiente interfere nos níveis de desempenho do indivíduo em decorrência da diminuição do ritmo de trabalho, numa menor percepção de detalhes, aumento de erros ao executar determinados trabalhos e elevação dos índices de acidentes do trabalho.

A NBR ISO/IEC 8995-1 de 03/2013 – Iluminação de ambientes de trabalho – Parte 1: Interior especifica os requisitos de iluminação para locais de trabalho internos e os requisitos para que as pessoas desempenhem tarefas visuais de maneira eficiente, com conforto e segurança durante todo o período de trabalho. Não especifica como os sistemas ou técnicas de iluminação devem ser projetados a fim de aperfeiçoar as soluções para locais específicos de trabalho. Estas podem ser encontradas nos guias pertinentes e relatórios da Commission Internationale de l´Eclairage (CIE).

Uma boa iluminação propicia a visualização do ambiente, permitindo que as pessoas vejam, se movam com segurança e desempenhem tarefas visuais de maneira eficiente, precisa e segura, sem causar fadiga visual e desconforto. A iluminação pode ser natural, artificial ou uma combinação de ambas. Uma boa iluminação requer igual atenção para a quantidade e qualidade da iluminação. Embora seja necessária a provisão de uma iluminância suficiente em uma tarefa, em muitos exemplos a visibilidade depende da maneira pela qual a luz é fornecida, das características da cor da fonte de luz e da superfície em conjunto com o nível de ofuscamento do sistema.

Nessa norma foi levado em consideração não apenas a iluminância, mas também o limite referente ao desconforto por ofuscamento e o índice de reprodução de cor mínimo da fonte para especificar os vários locais de trabalho e tipos de tarefas. Os parâmetros para criar as condições visuais confortáveis estão propostos no corpo dessa norma. Os valores recomendados foram considerados, a fim de representar um balanço razoável, respeitando os requisitos de segurança, saúde e um desempenho eficiente do trabalho. Os valores podem ser atingidos com a utilização de soluções energeticamente eficientes.

Existem também parâmetros ergonômicos visuais, como a capacidade de percepção e as características e atributos da tarefa, que determinam a qualidade das habilidades visuais do usuário e, consequentemente, os níveis de desempenho. Em alguns casos a otimização destes fatores de influência pode melhorar o desempenho sem ser necessário aumentar os níveis de i1uminância. Por exemplo, pela melhora do contraste na tarefa, ampliando a visualização de própria tarefa através do uso de equipamentos de auxílio à visão (óculos) e pela provisão de sistemas de iluminação especiais com capacidade de uma iluminação local direcional.

A prática de uma boa iluminação para locais de trabalho é muito mais que apenas fornecer uma boa visualização da tarefa. É essencial que as tarefas sejam realizadas facilmente e com conforto. Desta maneira, a iluminação deve satisfazer os aspectos quantitativos e qualitativos exigidos pelo ambiente. Em geral a iluminação assegura: conforto visual, dando aos trabalhadores uma sensação de bem estar,desempenho visual, ficando os trabalhadores capacitados a realizar suas tarefas visuais, rápida e precisamente, mesmo sob circunstâncias difíceis e durante longos períodos, segurança visual, ao olhar ao redor e detectar perigos.

A fim de satisfazer isto, é requerido que seja dada atenção a todos os parâmetros que contribuem para o ambiente luminoso. Os principais parâmetros são: distribuição da luminância, i1uminância, ofuscamento, direcionalidade da luz, aspectos da cor da luz e superfícies, cintilação, luz natural, manutenção.

Os valores de projeto para os parâmetros quantificáveis de iluminância, desconforto referente ao ofuscamento e reprodução de cor estão estabelecidos na Seção 5 para várias atividades. Adicionalmente à iluminação, existem outros parâmetros ergonômicos visuais que influenciam o desempenho visual dos operadores, como: as propriedades intrínsecas da tarefa (tamanho, forma, posição, cor e refletância do detalhe e do fundo); capacidade oftálmica do operador (acuidade visual, percepção de profundidade, percepção da cor).

A atenção a estes fatores pode otimizar o desempenho visual sem a necessidade de um incremento dos níveis de iluminância. A distribuição da luminância no campo de visão controla o nível de adaptação dos olhos, o qual afeta a visibilidade da tarefa. Uma adaptação bem balanceada da luminância é necessária para ampliar: a acuidade visual (nitidez da visão), a sensibilidade ao contraste (discriminação das diferenças relativamente pequenas de luminância), a eficiência das funções oculares (como acomodação, convergência, contrações pupilares, movimento dos olhos, etc.). A distribuição de luminâncias variadas no campo de visão também afeta o conforto visual e convém que sejam evitadas: luminâncias muito altas que podem levar ao ofuscamento; contrastes de luminâncias muito altos causam fadiga visual devido à contínua readaptação dos olhos; luminâncias muito baixas e contrastes de luminância muito baixos resultam em um ambiente de trabalho sem estímulo e tedioso.

Convém que seja dada atenção à adaptação na movimentação de zona para zona no interior do edifício. As luminâncias de todas as superfícies são importantes e são determinadas pela refletância e pela iluminância nas superfícies. As faixas de refletâncias úteis para as superfícies internas mais importantes são: teto: 0,6-0,9; paredes: 0,3-0,8; planos de trabalho: 0,2-0,6; e piso: 0,1 – 0,5. A iluminância e sua distribuição nas áreas de trabalho e no entorno imediato têm um maior impacto em como uma pessoa percebe e realiza a tarefa visual de forma rápida, segura e confortável. Para lugares onde a área específica é desconhecida, a área onde a tarefa pode ocorrer é considerada a área de tarefa. Todos os valores de iluminância especificados nessa norma são iluminâncias mantidas e proporcionam a segurança visual no trabalho e as necessidades do desempenho visual.

Os valores dados na Seção 5 são as iluminâncias mantidas sobre a área da tarefa no plano de referência que pode ser horizontal, vertical ou inclinado. A iluminância média para cada tarefa não pode estar abaixo dos valores dados na Seção 5, independentemente da idade e condições da instalação. Os valores são válidos para uma condição visual normal e são levados em conta os seguintes fatores: requisitos para a tarefa visual, segurança, aspectos psicofisiológicos assim como conforto visual e bem estar, economia, experiência prática. Os valores de iluminância podem ser ajustados em pelo menos um nível na escala da iluminância, se as condições visuais forem diferentes das assumidas como normais.

Internet em excesso reduz produtividade do funcionário

Eventos gratuitos

Portal Target – Saiba como é fácil ter acesso às Informações Tecnológicas

Participe do Curso On-line gratuito, promovido pela Target, e conheça detalhes de como obter informações e conhecimentos técnicos, de uma forma moderna, rápida e segura, utilizando o maior Portal de Informação Tecnológica do Brasil.

dia 10/05/2013

Sistemas de Informações Tecnológicas Target Gedweb

Informação fácil e correta economiza tempo e permite que organizações fiquem à frente de situações que podem afetar seus negócios.

dia 24/05/2013

internetRicardo Trotta

A internet representa hoje uma importante ferramenta em nosso cotidiano. Não se imagina mais um mundo sem ela, mas é importante atentar para que o seu uso seja adequado, principalmente dentro do ambiente de trabalho. Não é raro um profissional interromper uma atividade no trabalho para atender o celular, mandar mensagens, checar e-mails ou atualizar redes sociais. Tantas distrações digitais acabam impactando negativamente na produtividade do funcionário. Pesquisas apontam que o tempo médio necessário, após distração com alguma ferramenta digital, para se retomar o foco na tarefa executada anteriormente é de 20 minutos. Além disso, o hábito frequentemente torna o trabalho mais difícil e prejudica o pensamento criativo.

A abundância de ferramentas digitais acabou produzindo um efeito inverso ao esperado. Ao invés de promover maior produtividade e tornar o trabalhador mais acessível, acabou por expô-lo a um constante bombardeio digital que também prejudica a sua capacidade de assumir suas responsabilidades com o foco e empenho necessários. O que nunca é satisfatório para empregado e empresa.

Estudo da Triad, empresa de consultoria especializada, constatou que 80% dos empregados gastam até três horas da jornada de trabalho com atividades estranhas à função. Diante desse cenário, as empresas se veem obrigadas a criar um modelo novo de gestão para promover o melhor uso de mídias sociais e outras ferramentas de comunicação que envolvem treinamentos e a integração de ferramentas no ambiente de trabalho, que proporcionem a comunicação e informação com outras pessoas dentro do seu contexto de trabalho.

Essa mudança de gestão pode promover maior clareza sobre o melhor uso das ferramentas digitais pelos funcionários, resgatar o foco do trabalhador nas suas obrigações mais importantes e consequentemente estimular maior produtividade. Evitar o mau uso da internet e das demais ferramentas digitais pode ainda reduzir a necessidade de advertir o funcionário pela conduta inadequada, além do número de demissões por justa causa e do volume de ações trabalhistas que são movidas em sua decorrência. O TST, por exemplo, reconheceu recentemente a demissão por justa causa de um funcionário que utilizava o equipamento de trabalho para acessar sites de relacionamento, trocando mensagens de correio eletrônico com piadas grotescas e imagens inadequadas, como fotos de mulheres nuas.

No Distrito Federal, uma funcionária tentou reverter demissão por justa causa alegando violação de sigilo de correspondência, pois a empresa em que trabalhava usou mensagens do e-mail coorporativo para provar que ela estava maltratando clientes. Mas a Justiça negou o pedido, entendendo que o e-mail corporativo é uma ferramenta de trabalho e, portanto, não se enquadra nas hipóteses previstas nos incisos 10 e 12 do artigo 5º da Constituição Federal, que tratam, respectivamente, da inviolabilidade da intimidade e do sigilo de correspondência. O controle do e-mail e a disciplina do funcionário ainda são as maneiras mais eficazes, tanto de proteção e fiscalização das informações que tramitam na empresa, inclusive sigilosas, quanto de evitar o mau uso da internet, que pode até mesmo atentar contra a moral e os bons costumes, causando prejuízos tanto para a empresa, quanto para o funcionário.

Ricardo Trotta é especialista em direito empresarial e sócio-fundador do escritório Ricardo Trotta Sociedade de Advogados.

Os conceitos de uma fábrica enxuta

EVENTOS GRATUITOS

Portal Target – Saiba como é fácil ter acesso às Informações Tecnológicas

Participe do Curso On-line gratuito, promovido pela Target, e conheça detalhes de como obter informações e conhecimentos técnicos, de uma forma moderna, rápida e segura, utilizando o maior Portal de Informação Tecnológica do Brasil.

 dia 05/04/2013

Sistemas de Informações Tecnológicas Target Gedweb

Informação fácil e correta economiza tempo e permite que organizações fiquem à frente de situações que podem afetar seus negócios.

dia 19/04/2013

enxuta

Historicamente, quando Taylor iniciou seu estudo referente às ciências da administração, no começo do século XX, tinha como objetivo acabar com o desperdício, a ociosidade e morosidade operária. Em 1903, desenvolveu a técnica de racionalização do movimento, ou seja, analisou e controlou a ação do operário e da máquina em funções específicas, para serem aperfeiçoadas. Taylor acreditava que o aperfeiçoamento se conquista com a especialização. Pensando assim, ele propõe a divisão do trabalho em tarefas específicas, com execução repetitiva e contínua, no ritmo da máquina – motivo que o levou a receber críticas de robotizar o operário, limitar drasticamente a sua expressão, impedi-lo de criar e participar do processo de produção. Contudo, os industriais não dispunham de mão de obra qualificada, pois os trabalhadores eram imigrantes analfabetos de países distintos e não falavam o mesmo idioma.

Para que as idéias fossem aceitas na classe operária, os industriais começaram a premiar os funcionários que aumentassem o número de peças produzidas para além da média. Taylor se encontrava com os responsáveis e chefes das indústrias para tentar convencê-los a deixar a produção tradicional e adotar a administração científica. Logo suas idéias foram aceitas pelas indústrias americanas e de todo o mundo. Depois disso, Henry Ford, na primeira metade do século XX, em Detroit, coloca em prática as teorias de Taylor, lançando a produção em série, depois seguida por Alfred Sloan da General Motors. Ao contrário da produção artesanal, nessa concepção o cliente não tem escolha. Os fabricantes elaboram produtos para suprirem o gosto do maior número de pessoas possíveis. O produto é empurrado para a população. Seu produto mais conhecido foi o Ford Modelo T, produzido com custo reduzido para a sociedade de massa, totalmente aos moldes fordistas-tayloristas. O inconveniente é que todos os carros eram exatamente iguais, até da mesma cor, o que levou Ford a lançar uma série de propagandas dizendo que qualquer americano poderia ter o seu Ford Modelo T, da cor que quisesse, contanto que fosse preto.

Nesse tipo de produção ocorrem muitos desperdícios de matéria prima e tempo de mão-de-obra na correção de defeitos do produto. Essa estrutura durou até o final da Segunda Guerra Mundial, quando também numa fábrica de automóveis no Japão, aparece um outro sistema de produção – o toyotismo, que se caracterizou pela concepção enxuta ou clean. Esse novo modo de pensar a produção sofreu forte influência do engenheiro americano W. Edwards Deming, que atuou como consultor das forças de ocupação dos EUA no Japão após a Segunda Guerra.

Deming argumentava com os industriais da nação quase em ruínas que melhorar a qualidade não diminuiria a produtividade. A proposta é de que o próprio consumidor escolha seu produto. O estabelecimento ou a fábrica deixa de empurrar a mercadoria para o cliente, para que este a puxe de acordo com as suas próprias necessidades. Ao contrário do sistema de massa, essa outra concepção de produção delega aos trabalhadores a ação de escolher qual a melhor maneira de exercerem seus trabalhos, assim eles têm a chance de inovar no processo de produção. Com isso, o trabalhador deve ser capacitado, para qualificar suas habilidades e competências, que antes não eram necessárias. Dessa forma, os industriais investem na melhoria dos funcionários, dentro e fora das indústrias.

Além disso, a Toyota, ao adotar a concepção enxuta, rompendo com a produção em série, possibilitou oferecer um produto personalizado ao consumidor. As ferramentas utilizadas eram de acordo com cada proposta demandada pelo cliente. Inclusive, passou a produzir automóveis com larga escala de cores, sem gerar custos adicionais. Introduziu ainda dois conceitos inovadores: a equipe de trabalho (team work) e a qualidade total. Em uma fábrica enxuta todo o trabalho é feito por equipes. Quando um problema aparece, toda a equipe é responsável. Quando ocorre um defeito na montagem de uma peça, a equipe de montagem se organiza na busca de maneiras de resolver o problema.

Há uma cobrança entre os pares para que cada membro atue de uma maneira que não prejudique os companheiros. Algumas fábricas delegam à equipe a função de demitir ou aceitar novos funcionários. Junto com a qualidade total também foram inseridas novas máquinas para o interior das indústrias, com maior precisão e produtividade. A substituição dos operários pelas máquinas fez com que aumentasse o desemprego em escala mundial, inclusive nos países desenvolvidos economicamente. Contudo, a concepção enxuta passou a exigir maior autonomia tanto do trabalhador para expor as suas habilidades, quanto do consumidor para dar vez à sua vontade. É nesse modelo que a pessoa tem a chance de escolher, tomar decisões, propor soluções e gerar novas idéias.

Antonio Freitas Rentes, diretor de soluções da Hominiss Consulting, pergunta: quando o sistema de produção da sua fábrica foi instalado, o galpão industrial para sustentá-lo já estava construído? Se você respondeu sim, esta pode não ser a melhor resposta. Mas, não se assuste, esta é a realidade da maioria das fábricas do país. Muitas das indústrias no mundo ainda são construídas de maneira convencional, ou seja, a partir de uma estimativa relativamente grosseira do fluxo de produção, e de como a planta deve crescer.

“Os projetistas que adotam o conceito de Lean Plant Design afirmam que o layout da fábrica precisa ser desenvolvido pensando-se nos fluxos otimizados de processos, já que é o sistema de produção que precisa projetar o galpão, e não o contrário”, explica ele. “Quando o galpão projeta o sistema, ele restringe a otimização do sistema de produção, consequentemente limitando, também, o nível de produtividade da operação. O Lean Plant Design, ou Projeto de Fábrica Enxuta, é uma variante do Lean Manufacturing, aplicado a situações do tipo “green field”, ou seja, plantas projetadas do “zero”, muitas vezes sem uma referência de um fluxo de processos atualmente em operação. Estes fluxos de processo, no entanto, podem ser projetados com base em estimativas bem elaboradas, prevendo-se todas as necessidades de abastecimento, movimentações, processos de apoio, etc.”

Segundo ele, a forma tradicional de projeto de fábrica, onde o galpão é definido sem um projeto do sistema, acontece muito devido ao crescimento desestruturado das empresas no país, já que muitas delas acabam projetando “a mais”, e adaptando posteriormente o layout industrial ao novo galpão. Isso é uma forma de “superprodução”, que é um dos principais desperdícios identificados pela Produção Enxuta. Isso acaba resultando em investimentos maiores do que o necessário, como a compra de dispositivos de movimentação, construção de ponte-rolante, aluguel de guindaste,  e outros custos devido às movimentações excessivas, decorrentes de adaptações do sistema de produção a um prédio mal especificado.

“Com a política de incentivos fiscais adotada por diversos estados e municípios brasileiros, e imposições de níveis de nacionalização de produtos, muitas empresas escolheram o Brasil para construção de suas fábricas. Outras empresas, já instaladas no país, preveem a construção de novas fábricas ou ampliação das atuais, fatores que podem ser explicados pelo crescimento natural ou impulsionados pelo momento econômico positivo de alguns segmentos no país, como o de óleo e gás e, também, com a chegada de grandes eventos mundiais, como a Copa do Mundo e Olimpíadas”, assegura.

Para Rentes, alguns fatores são essenciais e precisam ser levados em conta antes da construção de uma fábrica, tais como a estrutura e dimensões dos produtos (finais e componentes), formas de armazenagem, formas de transporte, frequência de demanda, volume, demanda futura, além de total conhecimento de todos os processos da fábrica. A falta de percepção e de conhecimento faz com que sejam realizadas compras de terrenos não adequados aos processos atuais e futuros da empresa. É importante que a estrutura industrial seja projetada para se encaixar em um sistema de produção já detalhado, atendendo a todos os requisitos de logística interna, definidos anteriormente pelos processos produtivos. A fábrica tem que “vestir” o sistema de produção. Só assim, este sistema de produção tem a chance de se tornar “classe mundial”.

“No interior de São Paulo, uma das maiores fabricantes de bebidas do país, passou por um processo de modificação de layout e conseguiu reduzir em 50% a movimentação dentro da empresa, utilizando os conceitos da filosofia lean (produção enxuta). Outro ganho foi refletido na redução de custo, já que a empresa deixou de comprar um terreno de $800 mil, já previsto para expansão da fábrica. Outra empresa, especializada em serviços de óleo e gás, desenvolveu o projeto de uma nova base de operações em Macaé, utilizando os conceitos de Lean Plant Design. Com o projeto enxuto, ela utilizou apenas 60% da área prevista anteriormente. Além disso, ela reduziu o nível de movimentação interna em 75%, em relação à base anterior, projetada de forma convencional. Para demonstrar, pode-se dizer que este ganho representou à empresa uma redução de movimentação equivalente a 113 viagens de empilhadeiras por ano de Macaé ao Rio de Janeiro, totalizando 21 mil quilômetros por ano”, conta.

O principal motivo para o planejamento do layout do setor produtivo é o interesse em reduzir os custos de movimentação e facilitar o gerenciamento do produto, ajudando a empresa a melhorar sua performance de negócio. Digamos que a fábrica já deve nascer lean, ou seja, ser projetada a partir do projeto dos sistemas de produção, podendo crescer posteriormente de forma modularizada, de acordo com o aumento de demanda ou a inclusão de novas linhas de produção, tornando as empresas mais flexíveis e adaptadas às exigências do mercado.

Seguir

Get every new post delivered to your Inbox.

Junte-se a 1.730 outros seguidores