Os conceitos de uma fábrica enxuta

EVENTOS GRATUITOS

Portal Target – Saiba como é fácil ter acesso às Informações Tecnológicas

Participe do Curso On-line gratuito, promovido pela Target, e conheça detalhes de como obter informações e conhecimentos técnicos, de uma forma moderna, rápida e segura, utilizando o maior Portal de Informação Tecnológica do Brasil.

 dia 05/04/2013

Sistemas de Informações Tecnológicas Target Gedweb

Informação fácil e correta economiza tempo e permite que organizações fiquem à frente de situações que podem afetar seus negócios.

dia 19/04/2013

enxuta

Historicamente, quando Taylor iniciou seu estudo referente às ciências da administração, no começo do século XX, tinha como objetivo acabar com o desperdício, a ociosidade e morosidade operária. Em 1903, desenvolveu a técnica de racionalização do movimento, ou seja, analisou e controlou a ação do operário e da máquina em funções específicas, para serem aperfeiçoadas. Taylor acreditava que o aperfeiçoamento se conquista com a especialização. Pensando assim, ele propõe a divisão do trabalho em tarefas específicas, com execução repetitiva e contínua, no ritmo da máquina – motivo que o levou a receber críticas de robotizar o operário, limitar drasticamente a sua expressão, impedi-lo de criar e participar do processo de produção. Contudo, os industriais não dispunham de mão de obra qualificada, pois os trabalhadores eram imigrantes analfabetos de países distintos e não falavam o mesmo idioma.

Para que as idéias fossem aceitas na classe operária, os industriais começaram a premiar os funcionários que aumentassem o número de peças produzidas para além da média. Taylor se encontrava com os responsáveis e chefes das indústrias para tentar convencê-los a deixar a produção tradicional e adotar a administração científica. Logo suas idéias foram aceitas pelas indústrias americanas e de todo o mundo. Depois disso, Henry Ford, na primeira metade do século XX, em Detroit, coloca em prática as teorias de Taylor, lançando a produção em série, depois seguida por Alfred Sloan da General Motors. Ao contrário da produção artesanal, nessa concepção o cliente não tem escolha. Os fabricantes elaboram produtos para suprirem o gosto do maior número de pessoas possíveis. O produto é empurrado para a população. Seu produto mais conhecido foi o Ford Modelo T, produzido com custo reduzido para a sociedade de massa, totalmente aos moldes fordistas-tayloristas. O inconveniente é que todos os carros eram exatamente iguais, até da mesma cor, o que levou Ford a lançar uma série de propagandas dizendo que qualquer americano poderia ter o seu Ford Modelo T, da cor que quisesse, contanto que fosse preto.

Nesse tipo de produção ocorrem muitos desperdícios de matéria prima e tempo de mão-de-obra na correção de defeitos do produto. Essa estrutura durou até o final da Segunda Guerra Mundial, quando também numa fábrica de automóveis no Japão, aparece um outro sistema de produção – o toyotismo, que se caracterizou pela concepção enxuta ou clean. Esse novo modo de pensar a produção sofreu forte influência do engenheiro americano W. Edwards Deming, que atuou como consultor das forças de ocupação dos EUA no Japão após a Segunda Guerra.

Deming argumentava com os industriais da nação quase em ruínas que melhorar a qualidade não diminuiria a produtividade. A proposta é de que o próprio consumidor escolha seu produto. O estabelecimento ou a fábrica deixa de empurrar a mercadoria para o cliente, para que este a puxe de acordo com as suas próprias necessidades. Ao contrário do sistema de massa, essa outra concepção de produção delega aos trabalhadores a ação de escolher qual a melhor maneira de exercerem seus trabalhos, assim eles têm a chance de inovar no processo de produção. Com isso, o trabalhador deve ser capacitado, para qualificar suas habilidades e competências, que antes não eram necessárias. Dessa forma, os industriais investem na melhoria dos funcionários, dentro e fora das indústrias.

Além disso, a Toyota, ao adotar a concepção enxuta, rompendo com a produção em série, possibilitou oferecer um produto personalizado ao consumidor. As ferramentas utilizadas eram de acordo com cada proposta demandada pelo cliente. Inclusive, passou a produzir automóveis com larga escala de cores, sem gerar custos adicionais. Introduziu ainda dois conceitos inovadores: a equipe de trabalho (team work) e a qualidade total. Em uma fábrica enxuta todo o trabalho é feito por equipes. Quando um problema aparece, toda a equipe é responsável. Quando ocorre um defeito na montagem de uma peça, a equipe de montagem se organiza na busca de maneiras de resolver o problema.

Há uma cobrança entre os pares para que cada membro atue de uma maneira que não prejudique os companheiros. Algumas fábricas delegam à equipe a função de demitir ou aceitar novos funcionários. Junto com a qualidade total também foram inseridas novas máquinas para o interior das indústrias, com maior precisão e produtividade. A substituição dos operários pelas máquinas fez com que aumentasse o desemprego em escala mundial, inclusive nos países desenvolvidos economicamente. Contudo, a concepção enxuta passou a exigir maior autonomia tanto do trabalhador para expor as suas habilidades, quanto do consumidor para dar vez à sua vontade. É nesse modelo que a pessoa tem a chance de escolher, tomar decisões, propor soluções e gerar novas idéias.

Antonio Freitas Rentes, diretor de soluções da Hominiss Consulting, pergunta: quando o sistema de produção da sua fábrica foi instalado, o galpão industrial para sustentá-lo já estava construído? Se você respondeu sim, esta pode não ser a melhor resposta. Mas, não se assuste, esta é a realidade da maioria das fábricas do país. Muitas das indústrias no mundo ainda são construídas de maneira convencional, ou seja, a partir de uma estimativa relativamente grosseira do fluxo de produção, e de como a planta deve crescer.

“Os projetistas que adotam o conceito de Lean Plant Design afirmam que o layout da fábrica precisa ser desenvolvido pensando-se nos fluxos otimizados de processos, já que é o sistema de produção que precisa projetar o galpão, e não o contrário”, explica ele. “Quando o galpão projeta o sistema, ele restringe a otimização do sistema de produção, consequentemente limitando, também, o nível de produtividade da operação. O Lean Plant Design, ou Projeto de Fábrica Enxuta, é uma variante do Lean Manufacturing, aplicado a situações do tipo “green field”, ou seja, plantas projetadas do “zero”, muitas vezes sem uma referência de um fluxo de processos atualmente em operação. Estes fluxos de processo, no entanto, podem ser projetados com base em estimativas bem elaboradas, prevendo-se todas as necessidades de abastecimento, movimentações, processos de apoio, etc.”

Segundo ele, a forma tradicional de projeto de fábrica, onde o galpão é definido sem um projeto do sistema, acontece muito devido ao crescimento desestruturado das empresas no país, já que muitas delas acabam projetando “a mais”, e adaptando posteriormente o layout industrial ao novo galpão. Isso é uma forma de “superprodução”, que é um dos principais desperdícios identificados pela Produção Enxuta. Isso acaba resultando em investimentos maiores do que o necessário, como a compra de dispositivos de movimentação, construção de ponte-rolante, aluguel de guindaste,  e outros custos devido às movimentações excessivas, decorrentes de adaptações do sistema de produção a um prédio mal especificado.

“Com a política de incentivos fiscais adotada por diversos estados e municípios brasileiros, e imposições de níveis de nacionalização de produtos, muitas empresas escolheram o Brasil para construção de suas fábricas. Outras empresas, já instaladas no país, preveem a construção de novas fábricas ou ampliação das atuais, fatores que podem ser explicados pelo crescimento natural ou impulsionados pelo momento econômico positivo de alguns segmentos no país, como o de óleo e gás e, também, com a chegada de grandes eventos mundiais, como a Copa do Mundo e Olimpíadas”, assegura.

Para Rentes, alguns fatores são essenciais e precisam ser levados em conta antes da construção de uma fábrica, tais como a estrutura e dimensões dos produtos (finais e componentes), formas de armazenagem, formas de transporte, frequência de demanda, volume, demanda futura, além de total conhecimento de todos os processos da fábrica. A falta de percepção e de conhecimento faz com que sejam realizadas compras de terrenos não adequados aos processos atuais e futuros da empresa. É importante que a estrutura industrial seja projetada para se encaixar em um sistema de produção já detalhado, atendendo a todos os requisitos de logística interna, definidos anteriormente pelos processos produtivos. A fábrica tem que “vestir” o sistema de produção. Só assim, este sistema de produção tem a chance de se tornar “classe mundial”.

“No interior de São Paulo, uma das maiores fabricantes de bebidas do país, passou por um processo de modificação de layout e conseguiu reduzir em 50% a movimentação dentro da empresa, utilizando os conceitos da filosofia lean (produção enxuta). Outro ganho foi refletido na redução de custo, já que a empresa deixou de comprar um terreno de $800 mil, já previsto para expansão da fábrica. Outra empresa, especializada em serviços de óleo e gás, desenvolveu o projeto de uma nova base de operações em Macaé, utilizando os conceitos de Lean Plant Design. Com o projeto enxuto, ela utilizou apenas 60% da área prevista anteriormente. Além disso, ela reduziu o nível de movimentação interna em 75%, em relação à base anterior, projetada de forma convencional. Para demonstrar, pode-se dizer que este ganho representou à empresa uma redução de movimentação equivalente a 113 viagens de empilhadeiras por ano de Macaé ao Rio de Janeiro, totalizando 21 mil quilômetros por ano”, conta.

O principal motivo para o planejamento do layout do setor produtivo é o interesse em reduzir os custos de movimentação e facilitar o gerenciamento do produto, ajudando a empresa a melhorar sua performance de negócio. Digamos que a fábrica já deve nascer lean, ou seja, ser projetada a partir do projeto dos sistemas de produção, podendo crescer posteriormente de forma modularizada, de acordo com o aumento de demanda ou a inclusão de novas linhas de produção, tornando as empresas mais flexíveis e adaptadas às exigências do mercado.

A substituição de animais em laboratórios (parte 2 – final)

Curtos-Circuitos e Seletividade em Instalações Elétricas Industriais – Conheça as Técnicas e Corretas Especificações – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Inspetor de Conformidade das Instalações Elétricas de Baixa Tensão de acordo com a NBR 5410 – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 320,57 (56% de desconto)

Interpretação e Aplicações da Norma Regulamentadora Nº 13 (NR-13) do MTE (Inspeção de Segurança de Caldeiras e Vasos de Pressão) – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

Gestão de Energia – Implantação da Nova Norma ISO 50001 – Presencial ou Ao Vivo pela Internet – A partir de 3 x R$ 257,81 (56% de desconto)

laboratory2HET-CAM (membrana corioalantóide) – O objetivo do ensaio é avaliar semi-quantitativamente o potencial irritante de um produto (produtos solúveis, emulsões, géis e óleos), sobre a Membrana Cório-Alantóide de ovo embrionado de galinha, no décimo dia de incubação. O ensaio é baseado na observação dos efeitos irritantes (hiperemia, hemorragia e coagulação), após 5 minutos da aplicação do produto, puro ou diluído, sobre a membrana cório-alantóide. Obtém-se uma escala que considera os fenômenos observados.

BCOP (Permeabilidade e opacidade de córnea bovina) – O objetivo do ensaio é avaliar quantitativamente o potencial irritante de um produto ou de uma substância química após aplicação sobre a córnea isolada de bezerro. O ensaio é baseado na medida da opacidade e da permeabilidade da córnea de bezerro após o contato com o produto teste.

Medida da opacificação córnea – realizada com o auxílio de um opacitômetro, aparelho que determina a diferença de transmissão do fluxo luminoso entre a córnea a ser avaliada, fixando um valor numérico de opacidade.

Medida da permeabilidade córnea – realizada conforme o tempo de contato, adicionando fluoresceína e a densidade óptica é medida em 490 nm. Obtém-se uma escala que considera os fenômenos observados.

Citotoxicidade pelo método MTT – A citotoxicidade é avaliada com a ajuda de um corante vital, MTT ou 3-(4,5 dimethyl thiazole-2yl)-2,5 diphenyl tetrazolium bromide. Os parâmetros de avaliação observados são a porcentagem de morte celular e a IC50 (concentração do produto que inibe 50% do crescimento celular). Não aplicável a produtos insolúveis em água.

Citotoxicidade pela difusão em gel de agarose – Indicado para emulsões e géis com fase contínua aquosa. Aplicação dos mesmos à superfície de um gel de agarose em contato com células de tecido conjuntivo de camundongo da linhagem NCTC – clone 929 (ATCC CCL1) onde, a citotoxicidade é avaliada com a ajuda de um corante vital, o MTT ou Vermelho Neutro, observando-se o diâmetro médio do halo de lise celular revelado pela coloração. O halo reflete a citotoxicidade de um produto testado e a sua capacidade em se difundir no gel de agarose.

Citotoxicidade pela método de vermelho neutro (NRU) – Utiliza-se uma cultura de células SIRC CCL 60 ou outras, adicionadas do corante vital vermelho neutro ou MTT. A captação do corante pelas células viáveis é quantificada por espectrofotometria, através de um leitor automático de microplacas. Método empregado para todo tipo de formulação, exceto aquelas que possuam propriedades fixadoras, como as formulações alcoólicas.

RBC – Red Blood Cell System – Este ensaio permite quantificar e avaliar os efeitos adversos dos tensoativos empregados em xampus, sabonetes líquidos e produtos de higiene sobre a membrana plasmática das hemácias e a conseqüente liberação da hemoglobina (hemólise) e ainda, o índice de desnaturação da hemoglobina, avaliado através de sua forma oxidada, ambos quantificados por espectrofotometria. A relação entre a hemólise e oxidação da hemoglobina fornece um parâmetro de caracterização dos efeitos dessas substâncias in vitro.

Teste de corrosividade – Consiste em aplicar o produto sobre uma unidade de epiderme humana reconstruída. A viabilidade celular é avaliada pela medida da atividade mitocondrial, através do corante MTT que forma um precipitado azul (formazan) sobre as células viáveis, quantificado por espectrofotometria.

Teste de fototoxicidade – A base deste teste é a comparação da citotoxicidade de um agente químico testado com ou sem exposição adicional a doses não tóxicas de luz UVA. A citotoxicidade é expressa na determinação da dose dependente que reduz o crescimento celular utilizando-se um corante vital, vermelho neutro. A concentração de um agente químico testado reflete a inibição da viabilidade celular em 50%, calculada usando-se um modelo adequado de curva que expressa a resposta da curva de concentração.

Enfim, a experimentação animal tem servido, ao longo de muitos anos, como um meio de se determinar a eficácia e a segurança de diversas substâncias e produtos, em diversas áreas. A princípio, qualquer animal pode servir à experimentação, entretanto, tem-se procurado utilizar um modelo que apresente melhor resposta a um determinado estímulo, seja por sua maior sensibilidade, facilidade de manejo e evidenciação do efeito ou por sua similaridade anatômica, fisiológica ou metabólica com o homem.

Na área cosmética, os animais podem ser utilizados para avaliar todos os riscos potenciais envolvidos, seja irritação, alergia ou efeitos sistêmicos a curto e longo prazo. Os animais de laboratório deverão ser utilizados sempre que não existam métodos alternativos validados que os substituam ou, em casos específicos, após “screening” com métodos in vitro e/ou matemáticos válidos, precedendo dessa forma, os estudos clínicos. Cabe ressaltar que a utilização de animais deve, obrigatoriamente, seguir os preceitos do rigor científico e da ética que norteiam os desenhos experimentais com modelos biológicos, bem como, as normas de bioterismo preconizadas internacionalmente.

Atualmente, apesar de todos os esforços para a redução e substituição de animais de laboratório na experimentação biológica, ainda não nos é possível abandonar a utilização desses animais na avaliação da segurança de produtos, nos seus mais diversos aspectos. Entretanto, desde que sejamos obrigados a utilizar animais nos ensaios, devemos zelar para que os mesmos não sofram dores ou vivenciem angústias durante o período experimental. A caracterização da dor ou desconforto nas diversas espécies animais nem sempre acompanha a realidade humana, dessa forma o experimentador deverá estar bem treinado e, conseqüentemente, familiarizado com os diversos sinais indicativos de sofrimento para a espécie com a qual está trabalhando.

Outro aspecto importante diz respeito às condições ambientais a que são submetidos os animais, variando desde o parâmetro macro (sala, temperatura, umidade, ausência de ruído, ciclo claro-escuro, etc) até o micro (dimensão das caixas/gaiolas, troca de cama, número de animais, etc). Todas as regras básicas de bioterismo e manipulação de animais devem, obrigatoriamente, ser observadas. Embora pareça paradoxal, o uso de anestésicos nem sempre é recomendado, pois pode interferir com a resposta animal. Porém, parâmetros para a finalização humanitária de experimentos, onde os animais demonstram sinais de angústia e desconforto, devem ser observados. Dessa forma, evita-se o sofrimento desnecessário e já torna possível uma avaliação do desfecho do teste, com base no conhecimento da evolução do quadro objeto de análise.

De uma forma geral, recomenda-se que os animais de laboratório utilizados em experimentação sejam manuseados dentro dos preceitos éticos preconizados pelos Guias Internacionais, de forma a contribuir para o refinamento dos ensaios e a diminuição do sofrimento a que possam ser submetidos durante a realização de ensaios biológicos. O teste de irritação dérmica primária e cumulativa consiste na aplicação única do produto a ser testado no dorso de coelhos. É aplicado um patch oclusivo por 4 horas e, após esse período o produto é retirado. Procede-se a graduação das lesões (eritema e edema), 24 e 72 horas após a aplicação, seguindo a escala de Draize. No caso do ensaio para irritação cumulativa, as aplicações são feitas por um período de 10 dias consecutivos e as graduações são feitas 24 e 72 horas após a última aplicação.

Irritação Ocular Primária – Consiste na aplicação única do produto no saco conjuntival de coelhos, com observações da evolução das lesões em 24, 48, 72 horas e 7 dias após a instilação. São graduadas as alterações de conjuntiva (secreção, hiperemia e quimose), íris (irite) e córnea (densidade e área de opacidade).

Sensibilização Dérmica – São realizadas aplicações tópicas da menor dose não irritante por um período de 3 semanas (fase de indução). Após um período de repouso, procede-se à aplicação tópica da maior dose não irritante (fase de desafio). As reações são graduadas segundo escala específica, com a finalidade de avaliar o potencial de sensibilização. Para ensaios de sensibilização dérmica maximizada, segue-se o mesmo procedimento, porém, com aplicações subcutâneas de adjuvante completo de Freund, para exacerbar a resposta imune.

Determinação da DL50 oral – Visa verificar a toxicidade produzida por uma substância quando administrada por via oral, geralmente forçada, por meio de entubação gástrica (gavage). De uma forma geral, os ensaios se baseiam na contabilidade do percentual de animais que são levados a óbito em determinadas faixas de doses. Recomenda-se, também, observar a ocorrência de sinais e sintomas indicativos de toxicidade (ambulação, piloereção, etc).
Os ensaios de toxicidade aguda estão sendo revistos pelo Comitê Técnico da OECD, no sentido de serem substituídos por avaliações também fidedignas, mas que reduzam o sacrifício ou mesmo o número de animais empregados.

Irritação da mucosa oral – Aplicação do produto na bolsa bucal de hamsters, com lavagem subseqüente, durante um determinado período. São feitas observações macroscópicas da mucosa da bolsa e, ao final do ensaio, os animais são sacrificados para exame histopatológico das alterações da mucosa.

Fotoalergenicidade – Os ensaios são feitos em cobaias albinas. Se iniciam com uma fase de indução onde o produto é aplicado de maneira repetida em duas áreas do mesmo flanco dos animais, expondo-se à radiação UVA e UVB, em seguida. Após um período de repouso, procede-se à nova aplicação, em outro flanco, em duas áreas, sendo uma delas o controle, sem exposição à radiação. Após 48 horas, são feitas as observações, comparando-se com a área controle, para confirmar que se trata de uma reação fotoalergênica.

Fototoxicidade – Os ensaios são realizados em cobaias albinas. O produto é aplicado na pele do animal, seguido por exposição à radiação UVA e UVB, sendo uma área, controle. Após 48 horas, são feitas observações macroscopicas e, quando necessário, microscopicas, comparando-se com o controle, sem exposição, para correlacionar uma resposta fototóxica.

Irritação da mucosa genital – São utilizados coelhos albinos machos (irritação de mucosa peniana) ou fêmeas (irritação de mucosa vaginal). O produto é aplicado sobre a mucosa com observações macroscópicas e microscópicas das alterações teciduais. São feitas graduações de forma a determinar o potencial de irritação.

Importante complementar que os produtos cosméticos necessitam de ensaios clínicos em humanos, para que as empresas possam oferecer aos consumidores, o máximo de segurança com o menor risco, garantindo as melhores condições de uso do produto. A partir das informações pré-clínicas coletadas, deve haver a comprovação de segurança de uso por humanos. Estas informações são importantes para determinação do modo e local de uso, advertências de rotulagem e orientações para o serviço de atendimento ao consumidor. Os ensaios de compatibilidade têm por objetivo comprovar a inocuidade dos produtos em pele humana. São realizados de modo geral com apósitos oclusivos ou semi-oclusivos (patch tests) ou em modelos abertos (open tests). Representam o primeiro contato do produto acabado com um ser humano, e por isso devem seguir premissas de ordem ética (levantamento prévio de dados pré-clínicos segundo Resolução 196/96 do MS) e de boas práticas clínicas. Há várias metodologias e critérios de avaliação na literatura.

Ensaios de Compatibilidade:

Irritação Cutânea Primária e Acumulada – Os ensaios devem contemplar um número mínimo de voluntários (50) com critérios de inclusão e exclusão previamente padronizados. O produto é aplicado de forma aberta, semi-oclusiva ou oclusiva, de acordo com o produto a ser avaliado. A duração do contato e periodicidade das leituras são padronizadas. A interpretação dos resultados deve ser feita considerando o ICDRG (international Contact Dermatitis Research Group). A avaliação deve ser feita por dermatologista.

Fotoirritação – Os ensaios devem ter um mínimo de 25 voluntárias com critérios de exclusão e inclusão previamente definidos. Deve haver uma irradiação no sítio de aplicação localizado no antebraço ou no dorso e a interpretação dos resultados também deverá seguir as normas do ICDRG.

Soap Chamber Test – Este ensaio se destina à avaliação de produtos enxaguáveis com duração de contato e periodicidade previamente padronizados, utilizando-se 15 voluntários com pele sensível. A escala para interpretação das leituras é a de Frosch & Kligman, 1979. A avaliação também deve ser feita por dermatologista.

Comedogenicidade – A avaliação de comedogenicidade deve ser realizada em voluntários negros (fototipos 5 e 6) com aplicação no dorso, de forma padronizada, por um tempo de 28 dias, em no mínimo 5 voluntários, para então se proceder com a biópsia com cola de cianoacrilato e a leitura dos achados em microscopia óptica.

Sensibilização Dérmica – Estes ensaios tem as mesmas premissas de compatibilidade, e deve constar de 3 etapas: Indução, Repouso e Desafio realizado com apósitos oclusivos ou semi-oclusivos, em antebraço ou dorso, em no mínimo 50 voluntários e deve ser realizado, por dermatologista, segundo a escala do ICDRG.

Fotossensibilização – A avaliação de fotossensibilização deve também seguir as 3 etapas para indução de sensibilização, mas deve haver irradiação de luz ultravioleta (faixa A) para avaliar seu papel na indução de alergia. O número mínimo de voluntários é de 25, e os ensaios são sempre oclusivos, podendo ser realizados em dorso ou antebraço. A escala de avaliação segue o ICDRG, e deve ser elaborada por dermatologista.

Ensaios de Aceitabilidade – Os protocolos de aceitabilidade devem obedecer às condições de uso determinadas pelo fabricante, com critérios de inclusão e exclusão padronizados, onde a única variável é o uso do produto. O número de voluntários deve ser de no mínimo 30, com avaliação dermatológica e conforme o caso, subjetiva. Pode haver acompanhamento de outro profissional médico de acordo com a categoria de produto (pediatra, ginecologista, oftalmologista, etc.). A duração do ensaio e o número de aplicações poderá variar de acordo com a categoria do produto.

Ensaios de Acnegenicidade e Comedogenicidade em uso – Esta avaliação deve ser realizada em indivíduos de pele oleosa e/ou com tendência a acne, com critérios de exclusão e inclusão padronizados. O uso do produto deve ser padronizado de acordo com as orientações do fabricante. A análise inicial e final das condições da pele deve constar da avaliação clínica, cujos critérios são delineados antecipadamente, assim como a contagem das lesões comedônicas e acneicas.

A substituição de animais em laboratórios (parte 1)

Matéria

Novos Target GEDWeb Setoriais

Os novos Target GEDWEB Setoriais permitem às empresas dos setores eletroeletrônico, construção, transportes, máquinas, petroquímica, saúde e vestuário o acesso às normas técnicas setoriais, à documentação empresarial, regulamentos, portarias, textos técnicos, publicações da American Society Quality (ASQ), publicações técnicas e científicas, revistas segmentadas, etc. Clique  no link para mais informações.

laboratoryO uso de animais em ciências remonta à Grécia antiga e aos primeiros experimentos médicos. Durante séculos, médicos e pesquisadores utilizaram animais para conhecer melhor o funcionamento de órgãos e sistemas do corpo humano e aprimorar suas habilidades cirúrgicas. A ascensão da ciência biomédica moderna no século XIX causou o aumento do número de animais utilizados em experiências, bem como da resistência à vivissecção. Embora a opinião sobre o grau de sofrimento experimentado por animais variasse entre os cientistas e o público, a maioria dos cientistas ficou unida na crença de que experiências em animais eram fundamentais para expansão do conhecimento.

Após o nascimento da indústria química sintética no final de 1800, o campo da toxicologia cresceu em resposta à necessidade de se compreender como dezenas de milhares de novas substâncias poderiam afetar a saúde dos trabalhadores e consumidores envolvidos na sua produção e utilização. O uso de animais vivos para estudar os efeitos adversos potenciais de novos medicamentos, aditivos alimentares, pesticidas e outras substâncias passou a ter maior consistência durante a década de 1920, quando o farmacologista J.W. Trevan propôs a “dose letal para 50 por cento” (DL50) para a determinação da dose única de uma substância química que mataria metade dos animais expostos a ele. A ideia de um índice de toxicidade comparativa oferecia apelo imediato às agências reguladoras dos governos – tanto que as variantes do ensaio DL50 continuam sendo os testes em animais mais prevalentes até hoje.

A publicação do livro “Principles of Human Experimental Technique” pelos pesquisadores William Russel e Rex Burch em 1959 iniciou o movimento de proteção aos animais usados em experimentação, e representou um marco na discussão sobre a utilização de animais para a avaliação de toxicidade. A partir deste, ficou estabelecido o princípio dos 3R´s que, nas décadas seguintes à sua publicação, possibilitou a união dos pesquisadores e defensores do bem-estar animal em torno de um objetivo comum: encontrar alternativas cientificamente válidas para os testes feitos em animais. No avanço da ciência nos anos posteriores, ficam mais claras as diferenças metabólicas e de respostas que controlam a homeostasia tecidual em animais e humanos e fica evidente a necessidade de modelos in vitro mais apropriados.

Devido à evolução técnico-científica, na década de 80 iniciou-se o desenvolvimento de modelos experimentais alternativos para a área cosmética, em substituição ao uso de animais de laboratório. Algumas metodologias foram desenvolvidas, inicialmente, para responder corretamente as necessidades de pesquisa em farmacologia, onde se sabe que o comportamento animal pode ser diferente do humano. Os métodos alternativos também foram contemplados para a avaliação de efeitos toxicológicos. Alguns destes métodos vêm sendo utilizados desde tempos remotos, em particular na área da mutagenicidade onde numerosos testes foram desenvolvidos, validados e integrados nas diretivas internacionais tais como a L’Organisation de Coopération et de Développement Economiques (OCDE).

Também foram utilizados com sucesso para a demonstração de mecanismo de ação específico, sugerindo serem úteis e preditivos no que se refere a sistemas biológicos simples, como por exemplo, nos estudos feitos em microorganismos, células, tecidos e/ou órgãos de animais ou humanos. A dificuldade no emprego de tais métodos alternativos, hoje, reside na avaliação da reatividade de sistemas mais complexos o que é, na prática, o caso da avaliação de risco toxicológico. É necessário o acesso a uma bateria de testes que sejam complementares, de maneira que o conjunto destes ofereça um resultado com os mesmos níveis científicos e de informação, em relação aos obtidos, anteriormente, com os modelos em animais. Tais modelos alternativos devem ser, portanto, validados, de acordo com os procedimentos internacionais na área de aplicação para que sejam reconhecidos pelo meio científico e pelos órgãos regulamentadores.

Vários esforços tem sido efetuados para a diminuição do uso e do sofrimento de animais. Em 1984, o governo britânico concedeu fundos para o desenvolvimento de métodos alternativos ao Fund for Replacement of Animal Medical Experiments (FRAME) que, desde 1983, edita uma revista internacional intitulada Alternatives to Laboratory Animals (ATLA). Em 1994, foi inaugurado o European Committee for Validation of Alternative Methods (ECVAM) – instituição da Comissão Européia encarregada de promover e validar técnicas e metodologias destinadas à substituição dos ensaios em animais. Algumas instituições, como Cosmetic, Toiletries and Frangrance Association (CTFA), Interagency Regulatory Alternatives Group (IRAG), Food and Drug Administration (FDA) e Alternatives to Animal Testing, John Hopkins University, Baltimore – USA, são referências para acelerar a padronização e a harmonização de metodologias in vitro.

A ideia de ensaios alternativos é muito mais abrangente do que a substituição do uso de animais, incluindo também a questão da redução e refinamento na utilização dos mesmos. Este princípio está baseado no conceito dos 3R’s (Three R’s), o qual foi definido por William Russell e Rex Burch, em 1959, no livro Principles of Human Experimental Technique. Os 3 R’s que representam o refinamento, redução e substituição (Refine, Reduction e Replacement) têm como estratégia, uma pesquisa racional minimizando o uso de animais e o seu sofrimento, sem comprometer a qualidade do trabalho científico que está sendo executado visualizando, futuramente, a total substituição de animais por modelos experimentais alternativos.

O termo refinamento significa a modificação de algum procedimento operacional com animais, objetivando minimizar a diminuição da dor e o estresse. A experiência da dor e do estresse tem, como resultado, mudanças psicológicas que aumentam a variabilidade experimental dos resultados. O interesse dos cientistas é assegurar que as condições ambientais para os animais sejam as melhores possíveis. Os testes considerados menos invasivos podem ser utilizados para diminuir a angústia causada durante o estudo. Além disto, é importante que toda a equipe envolvida seja bem treinada e competente no que se refere a correta atitude em relação aos animais.

A concepção de redução como alternativa estratégica, resulta em menor número de animais sendo utilizados para obter a mesma informação, ou maximização da informação obtida por animal. Existem várias possibilidades para redução do uso de animais. Alguns laboratórios alertam todos os pesquisadores quando as pesquisas levam o animal a morte. Assim, é dado preferência para pesquisas que utilizem os vários órgãos de um mesmo animal, associadas aos dados apropriados e princípios estatísticos. Em outros casos, pode-se executar um estudo piloto indicando se o procedimento será apropriado para um estudo maior. Para tanto é possível a utilização de estudos preliminares in vitro, os quais podem indicar novos caminhos, utilizando técnicas não invasivas.

Um sistema experimental que esteja vinculado à totalidade da condição de vida animal, pode ser considerado como substituto alternativo. Pode-se citar a proposta de obtenção de células, tecidos ou organismos para subseqüentes estudos in vitro ao invés da matança de animais. Portanto, verifica-se que alguns métodos alternativos, podem ser utilizados na total substituição em estudos animais e outros, podem complementar dados, auxiliando na redução de utilização de animais empregados em todo projeto. O maior ímpeto de desenvolvimento para testes alternativos tem sido determinado pela indústria farmacêutica. Este investimento tem conduzido para o desenvolvimento adequado da triagem dos componentes para avaliação de potencial toxicológico e eficácia. A utilização da informática, as informações sobre matérias-primas, técnicas físico-químicas, cultura de células, tecidos e órgãos, contribuem para um banco de informações, evitando a duplicação desnecessária de trabalho com animais.

Os riscos a serem avaliados para ingredientes e produtos cosméticos são do tipo irritativo, alergênico e sistêmico, este último, essencialmente por meio de sua absorção oral ou permeação. Vários testes desenvolvidos foram aceitos e utilizados na avaliação do risco irritativo. Entretanto, nem todos estão validados até o presente momento, uma vez que os resultados obtidos foram divergentes entre os laboratórios. Baseando-se num banco de dados consistente qualquer pesquisador treinado pode, no entanto, interpretar os resultados obtidos para a comparação entre produtos da mesma categoria. Esses modelos citados, a seguir, só podem ser contemplados como modelos experimentais de “triagem”, ou seja, de caráter preliminar.

Através de um conjunto de métodos in vitro (HET-CAM, BCOP, Citotoxicidade pela difusão em gel de agarose, Citotoxicidade pelo método do Vermelho Neutro, Citotoxicidade pelo método do MTT, RBC), agrupam-se informações que oferecem subsídios para garantir a segurança do produto a nível ocular. Como há mais de um mecanismo de irritação ocular apenas um ensaio in vitro não é suficiente para uma completa avaliação. O ideal é obtermos dados relacionados à vascularização (Het-Cam), opacidade / permeabilização (BCOP) e citotoxicidade (MTT, RBC).

A utilização do teste de corrosividade com modelo de pele reconstituída já é considerado uma metodologia validada. No entanto, este modelo é mais utilizado em ensaios com ingredientes mas, não atende às necessidades de avaliação de produtos acabados. O teste de fototoxicidade, através da metodologia (3T3 NRU), é definido como uma resposta tóxica clara depois da primeira exposição da célula com agentes químicos, e posterior exposição à irradiação. No que se refere à avaliação do risco alergênico e fotoalergênico ainda não existem testes in vitro, dispondo-se apenas de um teste, que embora não seja considerado como metodologia in vitro, contribui na redução do número de animais de laboratório. Na outra parte desse artigo seguem alguns testes.

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Linkedin: http://br.linkedin.com/pub/hayrton-prado/2/740/27a

Facebook: http://www.facebook.com/#!/hayrton.prado

Takt time

Topo da Página

05 de Novembro de 2012 – 209ª Edição – Ano 2012

Matéria

NBR ISO/IEC 17043: os requisitos para os ensaios de proficiência

Essa norma especifica os requisitos gerais para a competência de provedores de ensaio de proficiência e para o desenvolvimento e a operação de programas desses ensaios.

Confira

Matéria

Publicação Target/ASQ em destaque

The Certified Six Sigma Black Belt Handbook é uma das publicações da ASQ que a Target está disponibilizando para o mercado brasileiro. Conheça mais detalhes sobre ela.

Confira

Matéria

Como realizar corretamente a manutenção das edificações

A manutenção de edifícios é uma atividade complexa que vem ganhando cada vez mais importância nos dias atuais.

Confira

Matéria

BS 8587: um guia para facilitar a gestão da informação

Essa norma, editada pela BSI em 2012, fornece aos proprietários, operadores, lojistas, gerentes e administradores as orientações e recomendações no que diz respeito à gestão de informações e dados.

Confira

Matéria

NBR 15906: gestão empresarial para serviços notariais e de registro

Essa norma estabelece os requisitos de sistema de gestão empresarial, para demonstrar a capacidade dos serviços notariais e de registro de gerir seus processos com qualidade, de forma a satisfazer as partes interessadas.

Confira

Endereço Target

Uma leitora me escreve querendo saber o que é takt time. A palavra alemã takt serve para designar o compasso de uma composição musical, tendo sido introduzida no Japão nos anos 30 com o sentido de ritmo de produção, quando técnicos japoneses estavam a aprender técnicas de fabricação com engenheiros alemães. Pode ser definido a partir da demanda do mercado e do tempo disponível para produção; é o ritmo de produção necessário para atender a demanda. Matematicamente, resulta da razão entre o tempo disponível para a produção e o número de unidades a serem produzidas. Para alguns especialistas, é o tempo alocado para a produção de uma peça ou produto em uma célula ou linha. A ideia de alocar um tempo para produção pressupõe, naturalmente, que alguém aloca e assim o takt time não é dado absoluto, mas sim determinado. Pondere-se que a conceituação tem limites. É preciso esclarecer que a empresa pode realizar opções tanto quanto aos níveis de atendimento da demanda como aos de utilização da capacidade.

A compreensão desses limites leva à necessidade de ampliação do conceito. Uma definição mais adequada parece ser a seguinte: takt time é o ritmo de produção necessário para atender a um determinado nível considerado de demanda, dadas as restrições de capacidade da linha ou célula. Concretamente, o takt time é o ritmo de produção alocado para a produção de uma peça ou produto em uma linha ou célula. Uma diferença parece ser que se reconhece explicitamente nesta definição que o ritmo eventualmente necessário pode não ser suportado pelo sistema de produção. Depois disso, pode-se dizer que surgem outras questões conceituais, precisamente no que tange à compatibilização da demanda com a capacidade. Na seção seguinte, esclarece-se o conceito de tempo de ciclo, explicando-se como é exatamente esse que limita o takt time. A amarração entre processo e operação é visualizada nessa articulação e ilustrada quando debatidas as relações entre os mesmos. A vinculação dessa questão com o planejamento e Controle da Produção é importante de ser explorada, de forma a evitar que o sistema, mesmo tendo condições globais de atender à demanda, não seja sobrecarregado em momentos de pico e tenha seu funcionamento abalado. Feitas essas diferentes considerações, o takt time pode ser legitimamente entendido como o tempo que rege o fluxo dos materiais em uma linha ou célula.

Seu conceito está diretamente relacionado com o processo, na medida em que trata do fluxo dos materiais ao longo do tempo e espaço. Sob uma perspectiva operacional, o tempo disponível para produção não é necessariamente igual à duração do expediente. Em situações reais, deve-se descontar os tempos de paradas programadas, tais como manutenção preventiva dos equipamentos, paradas por razões ergonômicas, etc. Sendo assim, pode-se afirmar que: tempo disponível para produção = período de trabalho – paradas programadas. Em uma linha de produção, a cada intervalo definido pelo takt time, uma unidade deve ser terminada. Por exemplo, para uma linha de montagem de automóveis com demanda diária de 300 unidades e tempo disponível para produção de 10 horas (600 minutos), o takt time será de 2 minutos. Ou seja, a cada 2 minutos deve sair um carro pronto no final da linha.

Outros autores apresentam conceituações de takt time que não incluem explicitamente as considerações sobre a capacidade, embora alguns deles tratem desse aspecto na apresentação de sua lógica de balanceamento de linha. Alguns introduzem uma variante da definição de takt time, denominada taxa da planta – “plant rate (R)” – incorporando na definição do ritmo da fábrica aspectos como folgas e taxas de eficiência, eventualmente importantes em regimes de entrada de operação de planta ou no início de produção de novos modelos, mas questionáveis na medida em que podem encobrir perdas. A compreensão do importante conceito de takt time só é de fato possível quando contrastado com o de tempo de ciclo.

Quanto a isso, deve-se observar que a duração de um ciclo é dada pelo período transcorrido entre a repetição de um mesmo evento que caracteriza o início ou fim desse ciclo. Em um sistema de produção, o tempo de ciclo é determinado pelas condições de operação da célula ou linha. Considerando-se uma célula ou linha de produção com ‘n’ postos de trabalho, o tempo de ciclo é definido em função de dois elementos: tempos unitários de processamento em cada máquina/posto (tempo padrão); e número de trabalhadores na célula ou linha. Genericamente, para uma máquina ou equipamento, o tempo de ciclo é o tempo necessário para a execução do trabalho em uma peça; é o tempo transcorrido entre o início/término da produção de duas peças sucessivas de um mesmo modelo em condições de abastecimento constante.

Algumas operações, devido às suas características, como tratamento térmico, queima de cerâmica, tratamento químico, pintura, etc., requerem que esse seja definido como o tempo para o processamento de um lote ou batelada. Cada máquina e equipamento tem um tempo de ciclo característico para cada operação (processamento) executada. Em alguns casos, como em tornos automáticos e com CNCs, pode ser fisicamente identificado com relativa facilidade. Contudo, o retorno das ferramentas de corte a uma mesma posição e em outras, nem tanto, como no caso de operações manuais.

Quando se analisa uma operação isolada, o tempo de ciclo é igual ao tempo padrão; é o tempo que consta nos roteiros de produção dos sistemas de controle de produção. Por exemplo, para o caso de uma máquina dedicada com um tempo padrão de 2,5 minutos, o tempo de ciclo também será de 2,5 minutos; isto é, a cada 2,5 minutos pode ser produzida uma peça, repetindo-se um ciclo. Quando se analisa todo o sistema de produção (células, linhas ou mesmo a fábrica inteira), a discussão muda de perspectiva. Nesse caso, deixa-se de ter uma única máquina, a partir da qual se pode, com facilidade, definir o tempo de ciclo, sendo necessário contemplar as relações sistêmicas de dependência entre os equipamentos e as operações.

É possível, inclusive, questionar se existe um tempo de ciclo para uma célula ou linha de produção. A resposta é afirmativa, tendo-se, dependendo do caso, o tempo de ciclo da linha ou o tempo de ciclo da célula. Para os materiais a ideia de ciclo não tem sentido. Uma mesma peça não passa mais de uma vez pelo processamento, não havendo um ciclo, portanto. A noção de ciclo só tem sentido para os sujeitos do trabalho, e não para os objetos do trabalho (materiais), posto que é o trabalho realizado por homens e máquinas que se repete regularmente.

Assim, o ciclo não está vinculado ao início ou término do processamento de um produto ou componente na linha. Para uma situação em que a cada posto há um operador, as operações podem ser realizadas em paralelo; obviamente, em peças diferentes. Um exemplo disso: um determinado produto a ser produzido em um tempo disponível de produção (tempo disponível = tempo total – paradas programadas), ou seja, temos 480 minutos de tempo disponível para produzirmos 300 unidades diárias (conforme demanda programada); o takt time será o tempo obtido pela divisão de 480 minutos pelo número de 300 unidades, que corresponde a 1,6 minuto para cada unidade produzida (a cada 1,6 minuto deve-se ter um produto acabado ao final do processo). É importante, sempre que se pensar em takt time, considerar a capacidade de produção.

A importância da Gestão por Processos

SOLUÇÕES PARA A GESTÃO DE ACERVOS

Controlar e manter o seu acervo de normas técnicas e de documentos internos e externos sempre atualizados e disponíveis para compartilhamento entre todos os usuários é hoje um grande desafio em diversas organizações por envolver a dedicação e o esforço de vários profissionais. As Normas de Sistemas da Qualidade – série ISO 9000, são rigorosas quanto aos critérios de controle, atualização e disponibilização de documentos corporativos aos seus usuários. Tanto os documentos de origem interna como externa, devem ser controlados para evitar a utilização de informações não-válidas e/ou obsoletas, cujo uso pode trazer sérios problemas aos sistemas, produtos e negócios da empresa. É por isso que a Target Engenharia e Consultoria desenvolveu Sistemas que gerenciam e controlam estes documentos de forma rápida, ágil e segura, facilitando o acesso à informação e ajudando os seus clientes a garantirem suas certificações.

 Target GEDWeb
O Target GEDWeb – Gerenciador Eletrônico de Documentos via Web da Target – é o único Portal Corporativo no mercado que possibilita o gerenciamento de grandes acervos…

 Target CENWin 6.0
O Target CENWin 6.0 automatiza totalmente a gestão do acervo de Normas Técnicas e facilita o acesso às normas com rapidez e agilidade…

Laís V. Zanchin Massaia

A tão falada e pouco aplicada Gestão por Processos pode auxiliar o desempenho das organizações em diversas etapas de seu desenvolvimento. Embora tenha evoluído o número de empresas que aplicam este método, ainda falta o entendimento e a devida utilização de seus benefícios para a geração de vantagens competitivas. O objetivo deste texto é de forma simples explicar alguns conceitos da Gestão por Processos em suas determinadas fases. A Gestão por Processos nada mais é que uma forma de gerenciarmos as atividades da rotina. Os negócios acontecem, porque o mercado existe e nele temos várias empresas de diferentes segmentos e abrangências.

No desenho acima, percebe-se que o mercado vem acima de tudo e que as empresas recebem entradas que podem ser informações ou matérias – primas e estas são transformadas, após a transformação são entregues os serviços ou produtos para o cliente final que espera qualidade. Para que todo este macroprocesso ocorra de forma adequada é necessário um acompanhamento contínuo de todas as etapas e uma eficaz Gestão dos Processos de transformação. É necessário que a empresa tenha estabelecida a sua visão de futuro e que conheça os processos que realmente agregam valor, ou seja, aqueles que fazem o negócio da organização (core business), e então que estes principais processos estejam totalmente alinhados às estratégias organizacionais, pois é muito importante ressaltar que os processos são os responsáveis pela execução da estratégia. Na etapa de transformação seria ideal a aplicação da Gestão por Processos (figura abaixo)

Mapeamento: É a coleta de dados e informações sobre os processos. É importante fazer entrevistas com todos os envolvidos no processo.

Modelagem: É o desenho do fluxo dos processos, que podem ser feitos em diferentes notações e ferramentas.

Oportunidade de melhoria: É permitido através das etapas anteriores a análise e a verificação de gargalos para a aplicação de melhorias significantes.

Implantação / padronização: É a hora de colocar tudo no papel, descrever como o processo deve ser executado. A padronização é muito importante, pois qualquer colaborador com as competências exigidas para a atividade poderá exercer o processo. O POP (Procedimento Operacional Padrão) é um modelo muito utilizado pelas organizações para padronização.

Monitoramento: Após todas as aplicações, é necessário acompanhar e monitorar o desempenho do processo e isso pode ser feito através da identificação de indicadores de desempenho dos processos para mensurar o alcance dos resultados esperados.

Observa-se que são cinco etapas simples, porém que merecem um monitoramento e comprometimento de todos os envolvidos. Deve- se desdobrar essa gestão por toda a organização, pois são as pessoas que executam os processos, sendo os principais responsáveis pelos resultados atingidos. A Gestão por Processos não é apenas o mapeamento e a modelagem, as demais etapas citadas acima são fundamentais para a obtenção de vantagens competitivas. Pode-se concluir a real importância da Gestão por Processos: Tudo que se executa deve ser bem conhecido e entendido por todos, pois assim sempre será possível um melhor desempenho. Melhores desempenhos são a garantia de bons resultados. Entenda mais e aplique já a Gestão por Processos, pois ela oferece algumas vantagens: facilidade e agilidade na execução dos processos, implementação de melhorias, eficiência, alcance da visão corporativa, e produtos e serviços de qualidade.

Laís V. Zanchin Massaia é estudante de administração de empresas, profissional na área de planejamento estratégico e avaliadora do PGQP em 2010 – laiszanchin@hotmail.com; lais.gestaodaqualidade@hotmail.com

Neurobusiness: conceito que une lucratividade e qualidade de vida

Empresa de ônibus de Suzano (SP) é multada por não observar a norma técnica de emissão de fumaça

A Cetesb multou uma empresa de ônibus com o emprego do critério previsto para aferição da fumaça emitida constante a NBR 6016 de 08/1986 – Gás de escapamento de motor Diesel – Avaliação de teor de fuligem com a escala de Ringelmann . Essa norma prescreve o método de avaliação do teor de fuligem no gás de escapamento de motor alternativo de combustão interna ACI, ciclo Diesel, de injeção direta ou indireta, com ou sem superalimentação e em qualquer condição usual de trabalho, utilizando a escala de Ringelmann reduzida. Para ler mais clique no link http://www.target.com.br/portal_new/Home.aspx?pp=27&c=2830

Nunca se falou tanto sobre a importância do capital humano nas organizações. Incentivar esses talentos internos para que tenham “a boa ideia que vale ouro” – aquela que de fato fará a diferença dentro de um mercado competitivo – tornou-se estratégico. Por essa razão, o ser humano passou a ser o foco do processo. Essa relação entre negócio e mente é denominada neurobusiness, termo cunhado pela consultora, palestrante internacional e especialista em neurobusiness e processos de neuroaprendizagem, Inês Cozzo Olivares. “Trata-se de um marco que cunhei nos anos 90 para definir a abrangência do que faço em todas e quaisquer áreas, desde que a questão seja comportamento humano e resultado para o negócio”, explica.

Nas corporações, potencializar e estimular o capital humano passou a ser fundamental. É desta forma que a equipe se tornará segura para romper com velhos paradigmas, para usar todo o potencial criativo em busca de novas soluções, para antigos problemas. “Tudo o que envolve esse comportamento é chamado de competência. Característica que as organizações necessitam para aumentar a produtividade que vai resultar, no final, em rentabilidade e a lucratividade”, destaca a palestrante. Inês explica que o neurobusiness permite uma relação de ganha-ganha porque além de ajudar a aumentar o marketing share e a lucratividade de uma empresa, permite que seus funcionários ganhem em autoconhecimento, confiança, autoestima. “A pessoa ganha desenvolvimento, a empresa ganha lucratividade. Porque o método que uso não se limita a produtividade. Principalmente porque a lucratividade não tem só a produtividade como implemento interventor, ela tem outras coisas. Por exemplo: se a empresa tem uma cultura que não favorece a lucratividade, não adianta aumentar a produtividade, porque ela não vai vender mais e melhor”, ressalta.

A palestrante internacional explica que é comum as pessoas, em uma corporação, confundirem competição com competitividade. Esse engano pode ser fatal. Muitos acreditam que é a mesma coisa só que de dita de forma diferente. “Competitividade é consequência de um conjunto de comportamentos dentro de uma organização que faz com que ela seja melhor vista, aceita e, portanto, consumida pelo seu mercado. Para que essa competitividade exista, internamente, precisa que exista cooperação, porém o que se potencializa é a competição interna. As pessoas começam a se ver como adversários – para que eu ganhe, você precisa perder. Afinal, só um pode ganhar. Esse, é o principio da competição. Para ganhar, eu preciso dar o meu melhor, ou deixar a perna na frente para que o outro caia e quebre a cara”.

Parte do processo de neurobusiness é mostrar que essas empresas possuem um modelo mental estabelecido, mas que é possível mudar essa realidade. “Se o automatismo for competir, tenho que transformar em cooperar. Porque senão, a empresa não terá lucratividade”. Após o término da palestra, ou de um curso, Inês realiza um pós-venda único no mercado. “Toda a experiência vivenciada no treinamento somada ao material apresentado é transformada em conteúdo e enviado via newsletter ao gestor ou ao RH, como o cliente prefira. Para que ele saiba como utilizar aquela nova informação e possa dar manutenção no resultado gerado com a palestra, faço um mini-curso com ele”, explica Inês. Através desse método, a empresa consegue gerar mais seis meses de resultado motivacional. O objetivo da especialista Inês é fomentar para que essas pessoas possam ampliar a sua consciência; que elas pensem em coisas que nunca pensaram antes e que de fato façam a diferença. “Quero contar que existem atalhos que ajudam as pessoas a conquistarem o que elas sonham, sem levar tanto tempo e de forma muito mais prazerosa. Com as descobertas que foram feitas até o momento, e que ainda vêm sendo feitas pelas Neurociências, é possível somar o que existe hoje, com o que se tinha antes e conseguir algo muito melhor”, conclui.

O novo e-commerce

José Patriota

Temos observado um aumento significativo no uso da internet como ferramenta de consumo. Não só para efetuar a compra propriamente dita, mas como ferramenta de suporte à decisão da compra. Os consumidores têm usado a internet para pesquisar preços, conhecer produtos, buscar informações da reputação das empresas, reclamações, etc. Sabemos que o uso da internet aumentou a competitividade entre as empresas, pois as concorrentes estão sempre a apenas um clique do consumidor. Nosso comportamento de consumo ficou mais refinado, mais exigente, mais informado. Fatores como reputação, responsabilidade social e ambiental, satisfação dos clientes foram incorporados no processo de decisão. Além dessas características, observamos também a interação impulsionada pelas redes sociais onde clientes expõem suas preferências, satisfações e insatisfações. Dessa forma, um caso pode virar campeão de audiência com uma velocidade assustadora, acelerada ainda mais considerando os múltiplos dispositivos conectados à internet como tablets, smartphones e notebooks.

Com o poder na mão dos consumidores, a competitividade fica cada vez mais acirrada e, a solução encontrada atualmente é partir para a personalização. É com a ajuda do marketing one to one que as empresas estão conseguindo conquistar e manter clientes, além de aumentar suas vendas on-line. O cenário mais conhecido é aquele que oferta produtos similares dizendo: ”Pessoas que compraram esse produto também compraram esse …”, colocando em prática o conceito de venda combinada ou até mesmo ajudando a concretizar a venda com um produto que atenda melhor às necessidades deste cliente. Outra possibilidade interessante é o mapeamento das visualizações dos consumidores em produtos mesmo sem a conclusão da compra. Isso pode revelar uma intenção de compra, possibilitando a oferta posterior do produto desejado com um desconto personalizado, por exemplo.

Alguns sites de compra como os das marcas de roupas Hollister e Abercrombie buscam a personalização desde o primeiro clique. Eles alteram a disposição das peças de roupa, o layout do site e a forma de apresentação das ofertas como se fossem vitrines especializadas para cada perfil de consumidor. Existe também uma preocupação com a manutenção da identidade visual e com a unificação da experiência de compra do usuário em diversos dispositivos. Um consumidor pode iniciar uma pesquisa de compra em casa, utilizando um notebook ou um PC e, de repente, ser interrompidos por um dos filhos que precisa terminar seu trabalho da escola. Assim, ele procura seu iPad e continua a compra na loja, do exato momento onde foi interrompido. Se esse mesmo cliente precisa sair de casa, ele pode concluir a sua compra através do smartphone. Toda essa personalização é possível se, em vez de utilizar o desenvolvimento tradicional na sua loja virtual, a empresa optar por uma plataforma da e-commerce especializada que não apenas implementa essas e outras tantas formas de personalização. Com todo esse suporte tecnológico o futuro do comércio eletrônico é muito promissor, não só de empresas para pessoas (B2C), como também de empresa para empresa (B2B). Elas ficarão cada vez mais presentes atuando cada vez mais em mercados ainda não explorados, e em dispositivos inusitados como a sua televisão, seu guarda-roupa ou até sua geladeira. Isso acontecerá porque não existe melhor maneira de obter assertividade na oferta do que com as lojas virtuais.

José Patriota é especialista em gerência de projetos e gestão da qualidade e atua como gerente de vendas na eWave do Brasil.

Siga o blog no TWITTER

Mais notícias, artigos e informações sobre qualidade, meio ambiente, normalização e metrologia.

Linkedin: http://br.linkedin.com/pub/hayrton-prado/2/740/27a

Facebook: http://www.facebook.com/#!/hayrton.prado

Como obter sucesso nos projetos Seis Sigma

dmaicA metodologia Seis Sigma tem como foco a melhoria dos processos, isto é, fazer a identificação e a eliminação das causas que levam o processo a variar ao longo do tempo, gerando defeitos. Esta relação é demonstrada muitas vezes através da equação: “Y” : f (X1, X2, …Xn). Em outras palavras, deixa-se de controlar a saída do processo para monitorar suas entradas. Assim, é uma metodologia analítica e envolve conhecimentos básicos de estatística e ferramentas de qualidade. E o que é um proejto Seis Sigma? É o formato adotado para dizer que foi identificado um processo que tem impacto sobre a satisfação do cliente e para o qual será formada uma equipe Seis Sigma, que adotará uma metodologia sistemática para melhorá-lo até atingir 3,4 defeitos por milhão. Espera-se que o projeto seja concluído num período de quatro a seis meses. A aplicação da metodologia Seis Sigma pode ser dividida em cinco fases (D-M-A-I-C).

Definição (D): deve ser identificado qual o processo (Y) do negócio será melhorado para atender a uma característica crítica para o cliente (CTQ), aumentando a sua satisfação. Uma vez sendo identificado o processo a ser melhorado, diz-se que está identificado um Projeto Seis Sigma. Deve ser verificada a viabilidade econômica do projeto e será feita uma previsão dos benefícios (financeiros inclusive) que podem ser alcançados. Esta fase costuma ser simples de aplicar na manufatura, onde há inúmeros processos que geram produtos defeituosos e que, portanto, devem ser melhorados. Por exemplo: diminuir erros de montagem de uma peça, diminuir reparos e retrabalhos, diminuir o ciclo de tempo para executar uma tarefa, etc. Já no caso das áreas comerciais, muitas vezes, não é fácil identificar quais processos têm impacto sobre a satisfação do cliente. Além disso, as pessoas não têm o costume de enxergar suas atividades como um processo. Exemplos que do que gera impacto sobre a satisfação do cliente nas áreas comerciais são: diminuir número de erros na emissão de ordens de compras ou na emissão de notas fiscais, diminuir o tempo para importar um produto, diminuir o tempo para atender a uma chamada de um cliente, diminuir o tempo para entregar um item solicitado por um cliente, etc. Algumas ferramentas utilizadas nesta fase incluem: Técnicas de pesquisa com clientes, Benchmarking, Análise custo-benefício, QFD, Mapa do Processo (Macro), Pareto.

Medição (M): deve-se fazer um levantamento geral de todas as entradas do processo (X´s) e como se relacionam com os CTQ´s (características críticas para a qualidade) do cliente. O processo deve ser mapeado. Deve-se medir a habilidade do processo em produzir itens não defeituosos. Em outras palavras, mede-se a capabilidade do processo, expressa por seu valor ou o Sigma. Algumas ferramentas usadas: Mapa do processo (detalhado), Espinha de peixe, Matriz de causa & efeito, Análise do sistema de medição e Cálculo da capabilidade e a estatística básica.

Análise (A): deve-se procurar pelas fontes de variação (X´s) que aumentam a variabilidade do processo e que são responsáveis pela geração de defeitos. As ferramentas utilizadas: Estatística básica, Análise gráfica dos dados, Teste de hipótese, Teste chi – quadrado, Análise de Regressão e FMEA.

Melhoria (I): toma-se a ação sobre o processo para melhorá-lo com base nas fontes de variação (X´s) identificadas na fase de Análise (A). No final desta fase deve-se calcular a nova capabilidade sigma do processo, para comprovar que houve uma melhoria significativa. Ferramentas: Planos de ação, FMEA, Delineamento de experimentos e Análise de Regressão.

Controle (C): Nesse ponto deve-se empregar métodos para monitorar as fontes de variação (X´s) identificadas para manter a nova capabilidade adquirida. Deve-se passar a responsabilidade pelo monitoramento do processo para os donos do processo. Uma confirmação dos benefícios econômicos alcançados deve ser feita. Ferramentas: cartas de controle, Dispositivos à prova de erros (Poka-yoke), Planos de controle, Procedimentos, etc.

Um exemplo sobre o uso da metodologia foi na empresa SKF do Brasil, em que os funcionários tornaram-se referência mundial em boas práticas de gestão de negócios. Desde que a subsidiária brasileira decidiu adotar o programa Six Sigma, em 2004, conseguiu gerar R$ 28,5 milhões de lucro operacional aos acionistas. O resultado reflete parte do sucesso do programa de gestão de negócios na companhia. A unidade brasileira também lidera índices globais na SKF de projetos concluídos, participação de funcionários e tempo médio de conclusão de trabalhos. “A equipe da SKF do Brasil entendeu rapidamente que esse modelo de gestão poderia trazer uma série de benefícios às operações locais e ao Grupo. Hoje temos um dos maiores índices de participação de funcionários e de entrega de projetos. O engajamento deste time e os resultados que conquistamos até o momento mostram que o programa está no caminho certo”, explica Márcio Amorim, líder do programa na SKF do Brasil.

Quando o conceito começou a ser disseminado pela subsidiária brasileira, em 2004, ainda não era possível imaginar que haveria grande adesão por parte dos funcionários. Naquela época, a equipe de Six Sigma contava com poucos representantes. “Foi um período bastante desafiador. Tínhamos de difundir e introduzir os conceitos na companhia por meio de treinamentos e projetos”, lembra o executivo. A equipe capacitada e ativa com projeto Six Sigma na SKF do Brasil saltou de 24 em 2004 para 162 em 2011, um aumento de 675%. A expectativa é encerrar 2012 com cerca de 200 funcionários treinados em Six Sigma. “A grande aderência à metodologia é um dos fatores que mais ajudam no sucesso do programa. Agora é o momento de reavaliar o programa e planejá-lo para os próximos anos. Depois de anos de sucesso, temos o maior dos desafios, que é o de sustentar e consolidá-lo à cultura da organização”, explica Márcio.

Com o exército treinado, fica mais fácil sugerir e elaborar projetos de melhoria contínua e de eliminação de desperdícios. Prova disto é que quanto mais gente passava a atuar com a metodologia na SKF do Brasil, mais projetos eram criados. Em 2004 foram concluídos apenas dois projetos. No ano passado foram encerrados 108 projetos. “As melhorias que conseguimos nesse período foram de extrema valia. Foram 372 projetos concluídos pela equipe da SKF em oito anos do programa. Além do excelente retorno financeiro que repassamos aos acionistas do Grupo, conseguimos construir uma cultura de melhoria contínua na SKF do Brasil. Hoje grande parte dos nossos funcionários sabe que a metodologia Six Sigma pode e deve ser usada naturalmente em seu dia a dia em forma de projeto ou eventualmente como uma melhoria. É uma questão cultural”, conta Amorim.

A rapidez com que os trabalhos são concluídos é outro fator que ajuda no sucesso do programa. Se os projetos são finalizados mais rápidos, é possível concluir que existe a possibilidade de novos trabalhos serem desenvolvidos. “Aqui há muitas pessoas que desenvolvem mais de um projeto em paralelo no ano. Com esta quantidade, conseguimos mais projetos e resultados expressivos”, relata Márcio. No inicio do programa, o tempo de execução de um projeto durava em torno de 17 meses. No ano passado, a média foi de 4,5 meses. “Pretendemos chegar à meta do Grupo SKF ainda neste ano, que é de quatro meses”, planeja Márcio. Nesta lista constam trabalhos que trouxeram muitos benefícios à companhia e, em alguns casos, reconhecimento do mercado. Foi o caso do projeto criado por Douglas Marquezin Felippe, coordenador de Engenharia de Processos da SKF. Elaborado em 2008, o projeto consistia em reduzir as despesas com tratamento térmico de rolamentos. Bem à época da crise econômica mundial, a execução deste trabalho foi fundamental para diminuir as despesas da companhia. “Era um desafio enorme que tínhamos pela frente. Conseguimos produzir mais e melhor sem onerar o processo”, recorda o executivo. As ideias apresentadas por Douglas renderam reconhecimento interno e externo, como o 1º lugar no Prêmio de Excelência em Lean Seis Sigma, concedido pelo IQPC, uma espécie de “Oscar” de boas práticas em Six Sigma na América Latina. O trabalho de Douglas gerou R$ 500 mil de retorno aos acionistas da companhia.

No chão de fábrica também há participação dos funcionários. O trabalho de Marcos Felipe Lourenço, operador de máquinas da SKF do Brasil, foi premiado neste ano. O metalúrgico conseguiu eliminar o acúmulo dos anéis externos do rolamento em caixas. “Antes ficavam empilhadas caixas e mais caixas com um monte de anéis. Agora não há mais esse cenário. Os anéis são distribuídos ordenadamente e sem acúmulo de material”, detalha o funcionário. O operador conseguir reduzir o tempo de execução das tarefas, aproveitar melhor a distribuição das tarefas dos colegas da área e organizar o ambiente de trabalho. “Um projeto como este ajuda a melhorar o nosso dia a dia e o processo produtivo. Todos acabam ganhando”, resume. O projeto de Marcos foi reconhecido e premiado neste ano pela SKF do Brasil e se tornou um bom exemplo de redução de desperdício na companhia. “Os funcionários que participam com projetos Six Sigma ficam em evidência. Isto ajuda em uma eventual promoção”, revela Márcio.

Hoje a SKF do Brasil é referência em boas práticas de Six Sigma graças ao empenho e comprometimento dos funcionários e liderança. Do total de projetos apresentados, 82% dos trabalhos são administrativos e o restante (18%) vêm da linha de produção. “O conceito está bem difundido em todas as áreas da companhia. Há participação da presidência ao chão de fábrica e em áreas como Recursos Humanos, Finanças, Vendas, Logística, Suprimentos, Engenharia, Marketing, Industrial e Serviços”, ressalta Márcio, lembrando que 92% da liderança brasileira já está capacitada em Six Sigma. “Por este motivo, a SKF do Brasil atingiu indicadores de desempenho superiores aos de algumas operações na América Latina, Ásia e Europa. Os lucros operacionais gerados pelas regionais Sales and Service e Automotiva na unidade brasileira foram mais lucrativos que os apresentados em operações na França, China e Argentina. “Temos projetos que são benchmarking para o grupo. Frequentemente recebemos visitas de representantes do Grupo SKF, de universidades, clientes e outras companhias para conhecer um pouco mais do que estamos fazendo”.

Os especialistas acreditam que a definição dos projetos a serem desenvolvidos é uma das atividades mais importantes do processo de implementação do Seis Sigma. Projetos bem selecionados conduzirão a resultados rápidos e significativos e contribuirão para o sucesso e a consolidação da cultura Seis Sigma na empresa. Por outro lado, os projetos inadequados implicarão ausência ou atraso de resultados e frustração de todos os envolvidos, o que poderá determinar o fracasso do programa na organização. Acredita-se que as características de um bom projeto Seis Sigma inclua: uma forte contribuição para o alcance das metas estratégicas da empresa; grande colaboração para o aumento da satisfação dos clientes/consumidores; chance elevada de conclusão dentro do prazo estabelecido; grande impacto para a melhoria da performance da organização (ganho mínimo de 50% em qualidade, ganho financeiro mínimo relevante para o porte e tipo de negócio da empresa, desenvolvimento de novos produtos ou novos processos, por exemplo); quantificação precisa, por meio do emprego de métricas apropriadas, dos resultados que devem ser alcançados no projeto; e elevado patrocínio. Os potenciais projetos podem estar relacionados a indicadores referentes a desperdícios, como índices de refugo e retrabalho, e índices de produtividade; os problemas referentes à qualidade dos produtos; os custos que exercem um alto impacto no orçamento da empresa; as reclamações, sugestões e resultados de pesquisas realizadas junto a clientes/consumidores. As reclamações, sugestões e resultados de pesquisas realizadas junto aos empregados da empresa. Os resultados de estudos de benchmarking. As extensões de projetos em andamento;os resultados de pesquisas sobre tendências de mercado e estratégias ou habilidades dos concorrentes; e as oportunidades para melhoria de produtos ou processos com elevado volume de produção, para os quais pequenas melhorias implicam expressivos ganhos financeiros.

Seguir

Get every new post delivered to your Inbox.

Junte-se a 1.949 outros seguidores