Confira o twitter do site

Siga o twitter do site

Mais notícias, artigos e comentários sobre qualidade, metrologia, normalização, meio ambiente, etc. Confira lá!

Por que divulgar a empresa?

O objetivo de qualquer empresa é vender seus produtos e serviços. Dificilmente este objetivo é alcançado sem o trabalho profissional de uma boa divulgação dos produtos/ serviços e principalmente da marca

Dessa forma, divulgar a empresa é muito importante, e tão importante quanto a divulgação é estar no lugar certo, comunicar de acordo com o seu público alvo e passar o conceito do produto/ serviço conforme o esperado. O objetivo de um bom trabalho de divulgação é estar na mente dos consumidores quando precisarem de um produto ou serviço com o qual trabalhe.

Em resumo, divulgar sua empresa não é simplesmente fazer anúncios em jornais, rádio, tv ou mala direta. Ao contrário, é um processo que requer alguns conhecimentos básicos sobre o cliente, para que seja o mais eficiente possível sobre a escolha correta do veículo de comunicação para a empresa , de forma a atingir seu público-alvo com maior precisão. E por isto que o auxílio de um profissional da área é essencial, principalmente para verificar as vantagens e desvantagens dos principais veículos, orçar e pesquisar custos x benefícios, criar impressos criativos, arte finalizar profissionalmente os impressos, etc.

Investir em publicidade e em marketing é mais do que obrigatório para a saúde de sua empresa e negócios. Mas, existem muitas dúvidas perante a real função da propaganda.

Deve-se saber que o marketing é a área responsável em analisar o mercado que seu produto e serviço está inserido. Oferecer e planejar estratégias para que a sua empresa se destaque e que conquiste seus objetivos. Propaganda é uma área da publicidade, pois dentro dela há a assessoria de imprensa, eventos, promoções e endomarketing . A propaganda é uma ferramenta de marketing que trabalhará a divulgação e imagem de seus produtos ou serviço. Atingindo e objetivando os reais objetivos de marketing da sua empresa. Já o design , outra área também importante, serve para valorizar o produto. Esteticamente e visualmente.

Enfim, as funções da propaganda incluem:

– Estabelecer o conceito da empresa;

– Manter ou aumentar a freqüência da loja, escola ou estabelecimento;

– Efetuar vendas sem auxílio de vendedores;

– Criar novos mercados;

– Fixar hábitos e quebrar preconceitos;

– Aproveitar as ocorrências sazonais;

– Ativar a rotação dos estoques;

– Garantir apronta aceitação de novos produtos;

– Manter e/ou aumentar as vendas;

– Ensinar novos usos e aumentar o consumo per capitã;

– Descobrir os consumidores;

– Reter os clientes quando o vendedor muda para o concorrente;

– Criar prestígio e boa vontade;

– Estimular a compra por impulso

– Conseguir que peçam o produto pelo nome;

– Informar onde o produto/serviço é vendido.

Para ler um manual do Sebrae sobre como divulgar a sua empresa clique no link http://www.asesonline.org.br/cartilhas/mkt/boa_divulgacao_empresa.pdf

A qualidade dos softwares

Desde o início quando o computador foi formalmente reconhecido como útil para o processamento de dados nas organizações, até meados da década de 70, o fator mais crítico era a sua baixa capacidade tanto na armazenagem quanto no processamento desses dados. A palavra que reinava entre os desenvolvedores de software era eficiência dos programas para que os resultados pudessem ser obtidos em tempo hábil.

Havia na época uma dependência muito forte das organizações aos indivíduos que desenvolviam o software, uma vez que, por causa das artimanhas de programação (muitas vezes necessárias por causa da pouca disponibilidade de memória dos computadores), somente o próprio autor de um programa seria capaz de fazer a sua manutenção e muitas vezes nem ele próprio. O período compreendido entre 1950 e meados de 1960 pode ser chamado de a primeira era dos sistemas computadorizados. Caracterizou-se por mudanças freqüentes no hardware, sendo que o desenvolvimento do software era considerado por muitos, como uma atividade secundária.

Os desenvolvimentos eram feitos sem uma administração mais profissional, como planejamento de prazos e custos. Os softwares eram projetados sob medida, específicos para cada aplicação, com distribuição relativamente limitada. Geralmente eram desenvolvidos para uso próprio (próprio programador ou própria organização) e, na maioria dos casos, os sistemas eram executados em ambiente batch (lote), com talvez raras exceções, como o desenvolvimento do primeiro sistema de reservas da American Airlines e os sistemas de defesa americana, que eram on-line. Devido à limitação, os hardwares eram dedicados à execução de apenas uma aplicação em cada momento. Não tinham recursos para executar multitarefa.

A segunda etapa da evolução dos sistemas computadorizados ocorre entre meados da década de 1960 e final da década de 1970. A multiprogramação e os sistemas multiusuários introduziram novos conceitos relacionados com a interação homem-máquina. Os softwares caracteristicamente eram utilizados para gerenciar em tempo real, com coleta, análise e transformação de dados, de várias fontes, simultaneamente. A evolução do armazenamento on-line levou ao surgimento dos sistemas de gerenciamento de banco de dados. O software passou a ser visto como um produto, não mais considerado como um simples apêndice do hardware. Este cenário possibilitou o aparecimento das software houses. Os programas passaram a ser desenvolvidos visando à distribuição mais ampla, contando-se centenas a milhares de cópias.

A terceira era inicia-se em meados da década de 1970 e continua até fins da década de 1980, e é caracterizada pelos sistemas distribuídos (múltiplos computadores, cada um executando funções concomitantemente e comunicando-se um com outro), e foram os responsáveis pelo aumento da complexidade dos sistemas computacionais. Esta era é caracterizada pelas redes globais e locais, comunicações digitais de banda larga, crescente aumento de demanda por acessos on-line de dados, uso generalizado de microprocessadores, computadores pessoais e estações de trabalho de mesa.

O computador pessoal foi o fator que estimulou o aparecimento e crescimento de muitas empresas de software. O hardware se torna num produto comum, com características e capacidades muito semelhantes entre eles, enquanto que o software se torna fator que os diferencia um do outro. Enquanto a taxa de crescimento das vendas dos computadores pessoais começou a se estabilizar a partir de meados de 1980, as vendas de software continuaram a crescer. As pessoas gastaram mais dinheiro com software do que com hardware.

A quarta etapa compreende o período de meados de 1980 até hoje. É caracterizada pelos poderosos sistemas de mesa, sistemas especialistas, rede neurais artificiais, processamento paralelo e tecnologias orientadas a objeto substituindo as abordagens convencionais de desenvolvimento. Talvez há 20 anos menos de 1% do público fosse capaz de definir o que era um “programa de computador”. Mas mesmo hoje, talvez muitas pessoas, incluindo muitos profissionais, ainda não entendem realmente o que é um software:

  • Um software é um elemento lógico, e não físico, o que lhe confere características bem diferentes do hardware.
  • Um software é projetado ou desenvolvido por processo de engenharia, mas não é manufaturado no sentido convencional.
  • Os aspectos determinantes de qualidade durante a manufatura de um hardware é diferente dos aspectos da produção de um software. Problemas que não existem ou que seriam facilmente corrigidos na manufatura de um software podem causar consequências graves na produção de um hardware.
  • Um exemplo de problema que não existe na produção de software e que pode afetar na produção de hardware é a sala limpa na produção dos discos rígidos. Outro exemplo é uma peça de uma linha de montagem, cujo equivalente em um software são os vários módulos e rotinas que, ao apresentar algum problema, pode causar menos distúrbio para ser substituída do que no caso de um hardware.
  • Os custos do software estão principalmente concentrados na fase da engenharia.
  • Software não se desgasta, pois não é sensível aos problemas ambientais que desgastam os equipamentos, mas ele pode deteriorar.
  • Quando um componente de hardware se desgasta, ele pode ser substituído por outro de reposição. No software não existe peça de reposição. Toda falha indica erro de projeto ou de codificação. Assim, o processo de manutenção de um software é consideravelmente mais complexo.
  • Os projetos de hardware podem contar com uma grande quantidade de componentes digitais disponíveis para a construção do hardware, já os de software não dispõem destas facilidades, pois, salvo raras exceções, não existe disponibilidade de componentes de software que possam ser utilizados para montagem de novos softwares.

A norma ISO/IEC 9126-1. Quais são realmente os elementos que constituem esta norma? A norma descreve um modelo de qualidade do produto de software, composto de duas partes: Qualidade interna e qualidade externa.

  • Qualidade em uso. A primeira parte do modelo especifica seis características para qualidade interna e externa, as quais são por sua vez subdivididas em subcaracterísticas que são manifestadas externamente quando o software é utilizado como parte de um sistema computacional, e são resultantes de atributos internos do software.

Além da ISO/IEC 9126-1, existem outras normas da série 9126:

– ISO/IEC 9126-2 ==> Métricas Externas.

– ISO/IEC 9126-3 ==> Métricas Internas.

– ISO/IEC 9126-4 ==> Métricas da Qualidade em Uso.

A ISO/IEC 9126: possui um conjunto de documentos técnicos, que definem as características de qualidade de software e seus indicadores, orientando o planejamento e a execução da avaliação. Fornece características e subcaracterísticas de qualidade, sendo uma norma essencialmente de definições.

A ISO/IEC 9126-2: define métricas externas para a medição das características e subcaracterísticas de qualidade da ISO/IEC 9126-1. Essas métricas referem-se a medições indiretas de um produto de software, a partir da medição do comportamento do sistema computacional, do qual o produto faz parte.

A ISO/IEC 9126-3: estabelece métricas internas para a avaliação de um produto de software. Essas métricas referem-se a medições diretas de um produto, a partir de sua características internas, sem que seja necessária a execução do programa.

A ISO/IEC 9126-4: avalia qualidade do software em uso.

Resumo da ISO/IEC 9126-1

FUNCIONALIDADE:

As funções e propriedades específicas do produto, satisfazem as necessidades do usuário.

• Adequação: existência de um conjunto de funções apropriadas para as tarefas requeridas.

 O software apresenta um conjunto de funções para realizar o trabalho para o qual foi proposto?

 O software apresenta login para cada usuário?

 O software realiza todas as tarefas para o qual foi criado, corretamente?

• Acurácia: produção de resultados ou efeitos corretos. Faz o que foi proposto de forma correta?

 O software impede de abortar?

 Os resultados do software são corretos?

 A saída dos dados está correta?

 A saída dos dados é clara?

• Interoperabilidade: habilidade de interação do produto de software com outros produtos.

• Interage com os sistemas especificados?

• O software ao trabalhar com outros programas apresenta quanto de desempenho?

• Ao se comunicar, o software impede de ocorrer falhas?

• Conformidade: o produto está de acordo com as convenções, as normas ou os regulamentos estabelecidos.

• O software está de acordo com as leis em vigor?

• Segurança: aptidão para evitar acessos não autorizados a programas e dados.

• O software apresenta a opção de fazer backup?

• O backup é realizado corretamente?

• O backup do software é guardado em lugar seguro?

• Os backups do software estão guardados em lugares distantes da empresa?

• O software possui capacidade de evitar o acesso de pessoas não autorizadas?

• O software possui um registro de login?

CONFIABILIDADE: o produto de software é capaz de manter seu nível de desempenho, ao longo do tempo, nas condições estabelecidas

 Maturidade: estado de maturação do software, detectada por sua baixa freqüência de falhas.

• Qual é o grau de não ocorrer falhas?

• Caso ocorram falhas, os dados e informações são perdidos?

 Tolerância a falhas: o nível de desempenho é mantido, quando ocorrem falhas.

• Caso, o software seja multiusuário, o mesmo mantém um nível de desempenho em caso de falhas?

• Caso ocorra uma falha, o software continua trabalhando?

• Mesmo ocorrendo falhas no software, seu desempenho não é prejudicado?

 Recuperabilidade: existem mecanismos que restabelecem e restauram os dados após a ocorrência de falhas.

• Caso ocorra uma falha, o software apresente capacidade de restabelecer?

• É possível armazenar todos dados após a recuperação, em caso de falhas?

USABILIDADE: esforço necessário para a utilização do sistema, baseado em um conjunto de implicações e de condições do usuário

 Inteligibilidade: facilidade de entendimento dos conceitos utilizados no produto de software.

• O software apresenta interface de fácil entendimento?

• O software possui facilidade no entendimento dos seus conceitos?

 Apreensibilidade: facilidade de aprendizado do software.

• É fácil treinar um usuário para utilizar o software?

• O software apresenta manual do usuário?

• Qual é o grau de compreensão do manual do usuário?

• As informações são encontradas com facilidade no manual do usuário?

• O software apresenta informações sobre seu fabricante?

• O software apresenta informações na tela, que ajuda na sua navegação?

 Operacionalidade: faculdade de operar e controlar operações pertinentes ao software.

• O software mostra informações (menus) no vídeo, que facilitam a sua operação?

• O software é de fácil operação?

• O software apresenta help?

• O grau de esclarecimento do help é satisfatório?

• Qual é o grau de facilidade para se trabalhar com o software?

EFICIÊNCIA: os recursos e os tempos envolvidos são compatíveis com o nível de desempenho requerido pelo software

 Comportamento no tempo: refere-se ao tempo de resposta de processamento.

• Quando o software realiza algum tipo de operação, o tempo de resposta (velocidade) é satisfatória?

• O processamento das informações do software é eficiente?

 Comportamento dos recursos: relaciona-se com a quantidade dos recursos empregados

• O software é munido de outro recurso, como por exemplo: word, excel, internet, entre outros?

• Caso exista outro recurso utilizado no software, é fácil de operá-lo?

MANUTENIBILIDADE: refere-se ao esforço necessário para a realização de alterações específicas, no produto de software.

 Analisabilidade: característica de ser possível diagnosticar.deficiências e causas de falhas.

• Caso ocorra uma falha, é fácil recuperar esses dados?

 Modificabilidade: característica que o produto deve ter de forma a facilitar modificações e remoções de defeitos.

• É fácil de modificar o software?

 Estabilidade: ausência de riscos ou ocorrências de defeitos inesperados no software.

• Quando o software passa por alterações, as informações são mantidas corretamente?

• Estas alterações não prejudicam o desempenho do software?

 Testabilidade: facilidade de o produto ser testado.

• É fácil testar o software quando se faz alterações?

PORTATILIDADE: facilidade de o software poder ser transferido de um ambiente para outro.

 Adaptabilidade: faculdade de o produto poder ser adaptado a novos ambientes.

• É fácil adaptar o software a outros ambientes?

 Instalabilidade: facilidade de instalação do produto de software.

• O software apresenta manual de instalação?

• O software faz sua própria instalação automática?

• É fácil instalar o software em outros ambientes?

 Conformidade com padrões de portatilidade: o produto está segundo os padrões ou convenções de portatilidade.

• O software está de acordo com padrões ou convenções de portabilidade?

 Substituibilidade: o produto de software pode ser substituído por outro, sem grandes esforços.

• É possível substituir o software, por uma nova versão?

• Caso seja possível substituir o software, qual é o menor grau de facilidade?

Como popularizar o valor de p

O valor de p, ou “p-value” como é conhecido estatisticamente, é um indicador que serve de base para a validação técnica de melhorias no processo para uma correta tomada de decisão em um teste de hipótese. Nesse artigo, Marcelo Rivas Fernandes (marcelorivas@uol.com.br) comenta que, ao se utilizar um  teste de hipótese para uma correta tomada de decisão, se torna de extrema importância a interpretação adequada  da formulação das hipóteses nula e alternativa, sob pena de se comprometer o objetivo do projeto.

Quando ingressei no Seis Sigma, há cerca de oito anos, comecei a compreender o mundo através de uma nova visão. Passei a entender que tudo que existe ao redor de nós mesmos é dotado de uma ação construtiva, seja ela materializada pela finalização de um produto ou abstracionista através da elaboração de um serviço.

Observei que tudo que é natural segue a lógica da espontaneidade administrada pela lei maior, a Lei de Deus. Neste âmbito, observo o ciclo natural do tempo tal como, as estações do ano, a rotação e translação da Terra, a aurora e a alvorada de cada dia, as fases da lua, o movimento das marés e outras surpreendentes ações da natureza, cujo objetivo maior é satisfazer e servir ao homem invariavelmente. Por outro lado, o homem estudou todas essas ações e chegou a conclusão de que elas são divididas em etapas que se repetem ao longo do tempo. Em seguida ele analisou essas etapas para ter a noção da formação dos ciclos descobrindo a medição do tempo em segundos, minutos, horas, dias, semanas, meses, anos, etc…e do movimento em metros, quilômetros, milhas, etc.

Com base nessa argumentação, o homem passou a desenvolver um raciocínio dedutível e probabilístico dos acontecimentos instituído pelo poder da “predição”. A lógica de um fluxo passou a fazer parte do que é natural, normal e previsível tornando perceptível para a sensibilidade humana qualquer alteração ou anomalia de um resultado inesperado. Neste contexto, a metodologia Lean Seis Sigma atua fortemente através da Estatística ensinando com os números a melhor forma de evitar os desperdícios e reduzir a variação dos processos empresariais.

Vamos utilizar um exemplo de envasamento de garrafas de cervejas de 600ml para analisar a variabilidade dos fatores (operadores, máquinas e turnos) que estavam desestabilizando o processo e tornando os clientes insatisfeitos pelo fato do produto não conter os 600ml citados no rótulo da garrafa para demonstrar a importância da utilização de um indicador chamado valor de p (p-value) nas tomadas de decisões. Considerando que uma das necessidades do cliente (CTS) é adquirir a cerveja contendo 600ml (Y) torna-se perfeitamente natural que os fatores (Xs) influenciadores no envasamento estejam ajustados para atingir este objetivo. Com isso, a maioria das garrafas conterão volumes muito próximos da média (alvo = 600ml) exigido pelo cliente. Qualquer envasamento que possua um volume distante para mais ou para menos da média de 600ml será considerado uma variação de causa especial ou inesperada ocorrida pela desestabilização de um ou mais fatores na entrada do processo. Mas o quanto representa este volume distante da média de 600ml? Para responder esta pergunta utilizaremos uma representação gráfica chamada de curva gaussiana (Figura 1).

Figura 1

O eixo de y representa a quantidade de eventos ocorridos em cada nível de envasamento e o eixo de x representa os níveis de envasamentos das garrafas cujo pico da curva será a maioria dos envasamentos próximos ao nível alvo de 600ml (uma variação esperada). As extremidades da esquerda e da direita da curva representam a minoria dos envasamentos mais distantes do alvo ocasionada por uma variação inesperada no processo (defeito) . Logo, quanto mais distante estivermos do alvo, mais desajustado estará o processo a ponto de ultrapassar o nível de satisfação do cliente.

Por outro lado, suponha que você “acredite” que seu processo  possa envasar 90% das garrafas com nível próximo ao alvo de 600ml. O que irá representar os 10% restantes? Obviamente, um risco de atribuirmos uma anomalia quando ela poderá não existir (também conhecido como risco do produtor). Estatisticamente, chamamos o crédito dado ao que imaginamos que seja esperado no processo de Intervalo de Confiança (IC), assim como chamamos de risco alfa a parcela restante que acreditamos corresponder a um erro sem termos esta certeza. A figura 2 nos mostra uma distribuição bilateral, onde cada metade da curva divide 45% de IC e 5% de risco alfa.

Figura 2

Ao medirmos o nível de cada garrafa formado por uma amostra representativa e aleatória contendo 100 observações, por exemplo, poderemos comparar a média ou desvio padrão do processo com o que acreditamos no que ele possa ser através do intervalo de confiança e risco alfa citado acima. Este estudo comparativo é base para uma tomada de decisão para a melhoria do processo e utiliza ferramentas estatísticas chamadas de testes de hipótese.

O resultado de um teste de hipótese executado no minitab exibe um indicador chamado de p-value. Este indicador nos revela o quanto a média e/ou o desvio padrão das observações poderão estar distante em relação ao alvo (600ml). Se o valor de p for maior do que o risco alfa (no nosso exemplo: 5% = 0,05) iremos dizer que esta média e/ou desvio padrão NÃO estarão tão distantes do alvo e que NÃO existem evidências suficientes para constatar uma anomalia, pois o processo “roda” conforme o esperado dentro do intervalo de confiança (IC 90%). A este resultado chamamos estatisticamente de Validação da Hipótese Nula (H0). (Figura 3)

Figura 3

Entretanto, se o valor de p for menor do que o risco alfa diremos que a média e/ou o desvio padrão deste processo estarão tão distantes do alvo a ponto de ultrapassar além de toda a área do intervalo de confiança (IC90%), toda a área de incerteza do risco alfa para cair na área de certeza do defeito, ou seja, existem envasamentos tão distantes do alvo de 600ml que comprovam a desestabilização do processo. Neste caso iremos inferir que EXISTEM evidências suficientes para constatar uma anomalia fazendo com que o processo não corresponda ao comportamento esperado. A este resultado chamamos estatisticamente de Validação da Hipótese Alternativa (Ha). Observem na figura 4.

Figura 4

 

Resumindo:

  • Quando utilizamos teste de hipótese para uma correta tomada de decisão torna-se de extrema importância a interpretação adequada  da formulação das hipóteses nula e alternativa, sob pena de comprometermos o objetivo do projeto.
  • Necessitamos ter sempre em mente que o comportamento esperado do processo corresponde a um resultado de confiabilidade cujas observações estarão contidas dentro de um intervalo de confiança definido previamente.
  • Conseqüentemente iremos optar pela hipótese nula (H0) cujo valor de p será maior do que alfa para inferirmos que não existem evidências de anomalias no processo (H0 ; p>alfa ; dentro do IC ; o processo roda normal).
  • Por outro lado, iremos optar pela hipótese alternativa (Ha) quando a média e/ou desvio padrão de um processo ultrapassar a área de confiabilidade e do risco alfa caracterizando fortes evidências de anomalias no processo. (Ha ; p<alfa, alfa fora do IC; o processo não está rodando normal).