Blog


DOE e Taguchi: uma comparação

Posted by on 19:02 in Blog | 0 comments

DOE e Taguchi: uma comparação


Eduardo-Moura

Anos atrás (por volta de 1995!) preparei uma tabela comparando o DOE (Design of Experiments) clássico e o Método Taguchi de Engenharia Robusta, a qual compartilho com o leitor nesta edição. Após 3 décadas de experiência com inúmeras técnicas para melhoria de produtos e processos (desde as primeiras etapas de desenvolvimento até a produção em alta escala), constatei que há duas que ocupam, de longe, o primeiro lugar no pódio: TRIZ e Engenharia Robusta. Opino que estes métodos deveriam ser parte do curriculum de Engenharia, tamanha é a eficácia dos mesmos, especialmente se forem usados de maneira sinérgica (mas isso é assunto para outro artigo).

No ambiente industrial, não tenho nenhuma dúvida de que a Engenharia Robusta é muito superior ao DOE, no que diz respeito à obtenção de resultados em tempo hábil, de maneira econômica. Essa deveria ser a conclusão após um exame (e reflexão) sobre as diferenças apontadas na tabela. Tenho comprovado tal superioridade em inúmeros casos reais de aplicação. Escolas de engenharia e empresas de consultoria que ensinam Seis Sigma e/ou Delineamento de Experimentos mas que passam por alto os Métodos Taguchi estão fazendo um desserviço a seus clientes, sonegando-lhes informação extremamente valiosa (é claro que na maioria dos casos o fazem por absoluta ignorância, ou informação incompleta, distorcida ou antiquada sobre Taguchi). Empresas que não se preocupam em assegurar que seus engenheiros dominem o uso da Engenharia Robusta (deixando-os utilizar o “TIRO” para enfrentar problemas complexos de otimização) estão desperdiçando tremendas oportunidades de aplicar eficazmente e desenvolver o know-how de sua gente.

dOE_taGUCHI

Bem, reconheço que a tabela a seguir é relativamente técnica. O entendimento completo da mesma pressupõe algum conhecimento sobre conceitos para realização de experimentos de engenharia. Por isso ofereço antes um pequeno glossário de alguns termos técnicos utilizados na tabela, visando facilitar o entendimento:

Mini-glossário (minha definição, sem maiores pretensões…)

Fator experimental: fator cujo efeito sobre a variável-resposta queremos quantificar, através dos dados experimentais.

Variável-resposta: variável aleatória associada ao produto ou processo sob estudo, cujo desempenho queremos melhorar.

Efeito principal: variação da resposta média causada pela mudança de nível de um fator experimental.

Nível de um fator: condição ou ajuste dado a um fator experimental.

Interação entre fatores: ocorre quando o efeito de um fator depende do nível em que está o outro.

ANOVA (Analysis of Variance): técnica estatística que permite identificar quais variáveis têm efeito significativo sobre a resposta média.

Teste F: teste estatístico de hipótese, utilizado para avaliar se duas amostras têm variância significativamente diferentes. Usado na ANOVA para avaliar (qualitativamente) o efeito que os fatores experimentais têm sobre a resposta média, em comparação com o erro experimental.

Fator de controle: fator experimental cujo ajuste (mudança de nível) não afeta ou tem mínimo impacto no custo unitário de manufatura (custo unitário totalmente variável).

Fator de ruído: fator normalmente associado ao ambiente de manufatura ou de uso, cujo ajuste pelo fabricante é impossível ou que implica aumento considerável do custo unitário de manufatura.

Fator aninhado: fator de controle que só existe ou se define dentro de um determinado nível de outro fator de controle.

Relação sinal/ruído: medida em escala logarítmica (decibéis) que expressa matematicamente a relação entre a energia transformada em resposta útil para o cliente (efeito dos fatores de controle e demais fatores de projeto) e a energia perdida em sintomas indesejáveis (efeito dos fatores de ruído). É um indicador relativo do nível de robustez do produto/processo sob estudo.

Tratamento: uma dada combinação de níveis dos fatores de controle e ruído, correspondente a uma “rodada” do experimento.

Erro experimental: incerteza associada ao valor da resposta e atribuída a fatores externos, distintos aos fatores de controle.

Aleatorização: técnica do DOE clássico cujo objetivo é “espalhar” o erro experimental ao acaso entre as várias rodadas ou “tratamentos” do experimento (isto é, diferentes combinações dos fatores e eventuais repetições das mesmas).

Blocagem: variação controlada de um fator externo (distinto dos fatores de controle), cujo nível é mantido constante dentro de cada “bloco” (determinado número de rodadas ou tratamentos).

Experimento fatorial completo: os tratamentos cobrem todas as possíveis combinações dos níveis dos fatores.

Experimento fatorial fracionado: os tratamentos cobrem apenas uma fração (matematicamente selecionada) dentre as possíveis combinações de níveis dos fatores experimentais.

E você? O que pensa sobre este tema? Qualquer comentário será muito bem-vindo.

Até a próxima edição!

Eduardo C. Moura

qualiplus

 

Gestão por Processos: algumas diferenças que fazem toda a diferença

Posted by on 17:13 in Blog | 1 comment

Gestão por Processos: algumas diferenças que fazem toda a diferença


Eduardo-Moura

Tenho tido a oportunidade de verificar em várias empresas como são padronizados e administrados os processos de negócio, e o cenário típico é decepcionante, apesar das muito boas intenções. Gostaria portanto de deixar aqui alguns critérios para que o leitor possa discernir entre a “verdadeira Gestão por Processos” (a que tem o poder de romper um paradigma administrativo centenário – a Gestão por Departamentos) e a “falsa Gestão por Processos” (que nada mais faz que perpetuar aquele paradigma, com deficiências agravadas). Antes porém devo deixar claro que  a “Gestão por Processos” a qual me refiro aqui (e em vários outros artigos) não é o mesmo que BPM (Business Process Management), a qual consiste em automatizar processos utilizando a informática.

A tabela seguinte resume as diferenças que considero cruciais entre o joio (coluna da direita) e o trigo (coluna da esquerda), no que diz respeito à Gestão por Processos (GPP).

VERDADEIRA GESTÃO POR PROCESSOS FALSA GESTÃO POR PROCESSOS
A implementação (e manutenção) é liderada pela alta direção, que entende que GPP é uma novo paradigma de administração da empresa. A implementação e manutenção é delegada a um departamento da empresa (normalmente Qualidade).
A empresa é gerenciada através dos processos. Os poucos e vitais indicadores globais de desempenho e indicadores de processos críticos são periódica e sistematicamente analisados pela alta direção, dando origem à identificação de projetos de melhoria. A empresa continua sendo gerenciada através dos departamentos. Os “Key Process Indicators” são apenas um outro nome para as velhas metas departamentais, e não o resultado de um processo inter-funcional. O mecanismo principal de obtenção de “melhorias” é a imposição e cobrança de metas numéricas departamentais.
A GPP envolve virtualmente todos os processos da empresa: processos primários, processos de apoio e processos de gestão. A GPP envolve essencialmente os processos relacionados ao “Sistema” “Integrado” de “Gestão” (qualidade, meio ambiente, segurança e saúde ocupacional).
Os departamentos se subordinam aos processos: as áreas funcionais apóiam o fluxo horizontal entre processos. Os processos se subordinam à estrutura departamental. As idiossincrasias departamentais usualmente “travam” o fluxo horizontal dos processos.
A empresa é descrita principalmente pelo macrofluxo do sistema de negócios (o conjunto sistêmico dos macroprocessos primários, de apoio e de gestão). A empresa é descrita principalmente pelo organograma das áreas funcionais.
É estabelecido um fluxo ininterrupto de criação de valor que envolve toda a empresa de ponta a ponta. É possível seguir de maneira fluída uma dada entrada (material ou informação) do mercado através de toda a empresa, até a entrega do produto final para o cliente. Não é possível seguir facilmente o fluxo de trabalho pelo qual passa uma dada entrada do mercado.
As interfaces entre processos são claras e inequívocas. Em todos os processos não existe nenhuma entrada (informação ou material utilizado em qualquer ponto do processo) sem um fornecedor responsável pela mesma, e não existe nenhuma saída sem o respectivo cliente. Embora os processos tenham sido padronizados individualmente, continuam sendo “ilhas de processos”, isto é, as interfaces entre processos (entradas e saídas) continuam sendo “zonas cinzas”, sem clara definição de responsabilidades.
As próprias equipes de cada processo são os principais responsáveis por estabelecer a padronização e sustentar a melhoria contínua, sob liderança do “dono” do processo. A melhoria contínua é principalmente (ou exclusivamente) obtida através de auditorias internas feitas pelo departamento ao qual foi delegada a responsabilidade de manter a GPP.
O sistema informático é flexível e está subordinado às decisões que as equipes de processo fazem quanto ao melhor fluxo de trabalho. As pessoas e atividades de trabalho se subordinam às possibilidades e definições do sistema informático.
Para cada processo da empresa é possível visualizar numa única página (em detalhe) todos os fornecedores e entradas, saídas e clientes, bem como  atividades e respectivos responsáveis. A visualização do processo ou é complexa, ou incompleta, ou difícil de obter.
A documentação é enxuta e concisa – usualmente 3 a 4 páginas, mesmo para processos complexos – já que o fluxograma fornece ~80% da informação. A documentação é extensa e pesada, de difícil manutenção.

Como podemos constatar, essas “pequenas” diferenças fazem toda a diferença entre ter uma estrutura dinâmica e ágil de processos integrados e fluindo em direção ao mercado, ou continuar operando com os velhos problemas de falta de comunicação entre áreas, com muitos retrabalhos e “incêndios” diários.

E você? O que pensa sobre este assunto? Qualquer comentário será muito bem-vindo.

Até a próxima edição!

Eduardo C. Moura

A Gestão por Processos fornece a estrutura ideal para TOC, Lean e Seis Sigma

Posted by on 14:45 in Blog | 1 comment

A Gestão por Processos fornece a estrutura ideal para TOC, Lean e Seis Sigma


Eduardo-Moura

Em meus cursos sobre otimização de produtos e processos, costumo dizer: É possível otimizar um conceito “capenga”. No final ele vai estar melhorzinho mas, mesmo assim, vai ser um “capenga otimizado…”. Quer dizer: podemos melhorar o desempenho atuando dentro das limitações do conceito original, mas um caminho muito melhor é partir de um conceito superior (onde aquelas limitações não existem) e então buscar a otimização final.

Essa mesma idéia pode ser aplicada ao contexto mais amplo de otimizar o desempenho de um sistema de negócios. Podemos obter resultados excelentes implementando TOC (Teoria das Restrições) Lean ou Seis Sigma (ou, melhor ainda, combinando todas essas metodologias) mas, passados os primeiros anos de colheita fácil, estaremos relativamente presos às limitações inerentes ao conceito ou paradigma administrativo que rege o sistema de negócios como um todo.

Em um artigo anterior (“O Dilema da Atenção”) discorri sobre o conflito gerencial entre concentrar-se nas urgências e incêndios do dia-a-dia ou dedicar-se às ações de maior alcance estratégico. De fato, em mais de 50 (cinquenta) Árvores da Realidade Atual cuja construção tive a oportunidade facilitar ao longo de 10 anos em diferentes empresas, de diferentes países, de diferentes portes e atuando em diferentes setores, aquele conflito administrativo aparece como uma das principais causas-raízes para os problemas crônicos do negócio. Confirma este fato uma declaração que ouvi de Eli Goldratt na Conferência Internacional da TOCICO em Las Vegas (Junho/2010): “A restrição de qualquer organização é a atenção da gerência.”. Naquele mesmo artigo, ofereço como solução para o dilema da atenção gerencial a implementação da Gestão por Processos, já que a mesma pode eliminar o conflito aplicando um princípio inventivo denominado “separação no espaço”, isto é: um grupo de pessoas nos processos operativos (devidamente padronizados e integrados em fluxo contínuo)  dedicam-se às questões rotineiras do dia-a-dia, enquanto outro grupo de pessoas (os gerentes) dedicam-se aos projetos estratégicos e ao monitoramento do desempenho global da empresa.

A Gestão por Processos corresponde ao conceito superior de administração acenado no início, enquanto a “Gestão por Departamentos” é o “conceito capenga” que em um dado momento acaba tornando-se uma camisa de força que restringe significativamente os esforços e resultados de melhoria contínua de TOC, Lean e Seis Sigma. A Gestão por Departamentos é um exemplo clássico de busca de eficiências locais que inevitavelmente leva à subotimização do sistema (pior ainda se for exacerbada pelo BSC – Balanced Scorecard). Mas, por incrível que pareça, até o presente momento, tanto a Teoria das Restrições como Lean e Seis Sigma não questionam esse paradigma administrativo; antes, o tomam como se fosse um fato da realidade ou a maneira “natural” de gerenciar um negócio. É verdade que tanto TOC como Lean (e, nesse ponto, não tanto o Seis Sigma) em seus específicos projetos de implementação acabam promovendo o fluxo e a integração entre áreas e departamentos, subordinando-os ao objetivo global. Mas isso continua sendo uma melhoria dentro das limitações do paradigma vigente de gestão departamentalizada, e o resultado final (embora melhor) acaba sendo um “capenga otimizado”.

otimizacaodeproduto

Muito melhor seria que os projetos de TOC, Lean e Seis Sigma contassem com uma estrutura dinâmica de processos, padronizados de maneira integrada, sem interfaces nebulosas entre áreas funcionais e com responsabilidades claramente definidas. E essa estrutura dinâmica é exatamente o que a Gestão por Processos produz (quando bem implementada, bem entendido – mas isso é assunto para um próximo artigo).

Implementar Gestão por Processos é um passo estrutural que requer que todas as atividades de negocio em todas as áreas da empresa sejam mapeadas, questionadas, melhoradas ou inovadas, e integradas com lógica e precisão cristalinas. E por isso alguém poderia perguntar: mas esse esforço generalizado em todos os elos da cadeia de negócios não é desperdício? Fazendo isso não estaríamos desviando a devida atenção sobre o elo mais fraco, a restrição do sistema? Respondo com uma parábola: era uma vez um barco velho, com um furo no casco (a restrição). Para atravessar um rio (objetivo de curto prazo), o dono do barco colocou apenas um tampão no furo (tratamento localizado da restrição) e chegou ao outro lado sem problema. Mas para realizar uma expedição em alto mar (objetivo de longo prazo), o dono não partiu sem antes fazer um reforma completa do barco (Gestão por Processos). É claro que, no caso de uma empresa, o barco já está em pleno mar, e aí a questão é saber até quando podemos seguir com o tampão no casco, antes de afundar… Ainda sobre este ponto, cito novamente o próprio Eli Goldratt, que afirmou na mesma conferência em Las Vegas: “É verdade que as não-restrições não controlam o throughput de uma empresa, mas elas podem determinar o lead-time” (e eu acrescentaria: a despesa operacional, também). Concluindo: a implementação eficaz da Gestão por Processos tem a capacidade de “reformar o barco” e criar uma estrutura organizacional onde planos de exploração da restrição (com a requerida subordinação dos demais processos), ou planos kaizen, ou qualquer outro esforço de melhoria do desempenho organizacional possam fluir com muito maior eficiência.

E você? O que pensa sobre isso? Qualquer comentário será muito bem-vindo.

Até a próxima edição!

Eduardo C. Moura

O Paradigma da Inovação Desconexa

Posted by on 18:02 in Blog | 0 comments

O Paradigma da Inovação Desconexa

Eduardo-Moura


No afã de nos livrarmos da incômoda situação trazida por um problema, temos a tendência (quase que instintiva) de imediatamente oferecermos uma solução. É o que tenho chamado de TIRO (a “Técnica Intuitiva para Remoção de Obstáculos”). Aplicada ao contexto da inovação e desenvolvimento de novos produtos, tal prática traz consequências particularmente funestas. Isso porque no ambiente de desenvolvimento de produtos grassa a popular crença na meia-verdade (ou meia-mentira) de que a inovação é algo que ocorre na cabeça das pessoas criativas, como produto de sua inteligência, e de maneira essencialmente desconectada da realidade. É o que poderíamos chamar de PID, o “Paradigma da Inovação Desconexa”. Esse sinistro casamento do “TIRO+PID” via de regra gera um filho prematuro, a saber: um produto que chega ao mercado de forma relativamente rápida, mas que acaba se tornando um fracasso de vendas. Seria também o principal motivo pelo qual é extremamente alto o risco de fracasso daqueles empreendedores que buscam introduzir algo realmente novo no mercado. Tais situações pintam um quadro irrisório:

Abrem-se as cortinas do espetáculo mercadológico e o produtor entra em cena, anunciando com empolgação: “Vejam só que maravilhoso produto desenvolvemos!”; e a platéia se entreolha curiosa, perguntando: “OK. Eles nos apresentam uma linda solução, mas… para qual problema?”. E, desanimados, saem todos de cena.

innovacion

Por que será que isso acontece com preocupante frequência? Ofereço como resposta básica a seguinte afirmação:  a inovação não tem sentido se não resolver um problema relevante vivenciado pelo cliente da mesma. Em outras palavras, toda inovação deveria ser um solução atrativa para uma necessidade não satisfeita (ou incompletamente satisfeita) do usuário final. Ou seja: nenhum cliente vai meter a mão no bolso para pagar por algo que não resolva um problema ou necessidade já existente em sua realidade (seja em forma explícita ou latente). Porque na verdade o cliente é um poço de necessidades. Nesse sentido, ao contrário do que muito acreditam, ninguém “cria” necessidades para os clientes; elas simplesmente já estão lá na realidade que eles vivem (o “gemba” do cliente). Por isso, cabe à empresa identificar e responder às necessidades já existentes no mundo do cliente. De fato, os produtos de maior sucesso não nascem a partir de uma boa ideia, mas sim a partir da identificação de uma necessidade do cliente. Por exemplo: o legendário Walkman da Sony não teria tido o tremendo sucesso que teve ao ser lançado há mais de 30 anos atrás, se já naquela época não houvesse pessoas com a necessidade latente de ouvir música enquanto praticavam esportes ou faziam atividades que as afastassem dos aparelhos fixos  convencionais. É importante reconhecer que essa necessidade não foi criada; ela já existia no “gemba” dos clientes (de fato, foi um diretor da Sony que pediu a um amigo engenheiro da empresa que encontrasse uma forma de ouvir ópera durante suas muitas horas de vôo, e daí saiu o Walkman!). 

A compreensão daquela simples afirmação pode redirecionar o estilo predominante na inovação e desenvolvimento de novos produtos, do simplório “ter uma boa idéia” (foco no produtor e suas possibilidades técnicas) para o desafiante “identificar necessidades insatisfeitas” (foco no cliente e suas necessidades). Então, como consequência, as seguintes perguntas ganhariam total relevância:

  • Quais são os “gaps” entre as funções que os atuais produtos executam e o nível ideal de execução das mesmas?
  • Quais necessidades não estão sendo atendidas pelos produtos existentes? Que novas funções deveriam ser executadas para o cliente?

E o próximo passo seria entender quais são os fatores limitantes pelos quais tais funções ainda não foram implementadas, de maneira total ou parcial. Eis aqui onde entra em cena o “princípio do conflito subjacente”, que até onde eu sei foi proposto e aplicado pela primeira vez no campo tecnológico por Genrikh Altshuller, o pai o TRIZ (embora as raízes desse princípio estejam na dialética): “por trás de todo problema técnico existe uma contradição ou conflito entre requisitos contraditórios necessários para o bom funcionamento do sistema”. À luz desse princípio, o problema é apenas um sintoma do conflito subjacente, e a única forma de resolver o problema pela raiz é entender e eliminar o conflito, encontrando uma maneira inovadora de atender plenamente a ambos os requisitos, sem a tradicional solução de compromisso (“trade-off”). De passagem: a essa mesma conclusão chegou Eli Goldratt décadas depois, no campo da administração, com a Teoria das Restrições (de fato, a “nuvem de conflito” da TOC resulta da aplicação daquele princípio, e é uma poderosa ferramenta para mapear e eliminar conflitos, inclusive no campo tecnológico).

Desse modo, chegamos à questão central da inovação, pelo menos no domínio empresarial: “que conflitos técnicos têm que ser eliminados para poder implementar as funções requeridas para satisfazer a necessidade do cliente?”. Este enfoque confere objetividade e muito maior eficácia à questão de desenvolver produtos inovadores e atrativos para os clientes. Praticá-lo ou não pode fazer  a diferença entre abrir novas fronteiras para atuação da empresa, ou continuar pelejando no oceano vermelho da feroz concorrência.

Até a próxima edição!

Eduardo C. Moura

VOC: Voz do Cliente. Voz de quem?

Posted by on 15:19 in Blog | 0 comments

VOC: Voz do Cliente. Voz de quem?


“Se o processo de negócio não começa a partir do cliente, pode subitamente encerrar-se a partir do cliente.” (W. Scherkenbach)

Eduardo-Moura

Apesar de vivermos em plena era da informação é espantosamente comum vermos pessoas e organizações naufragando em um oceano de informação irrelevante, quando não equivocada. E de tal cenário típico não escapa a atividade de desenvolvimento de novos produtos, com um agravante: na maioria dos casos, os especialistas em seus respectivos produtos, serviços e tecnologias parecem crer que conhecem profundamente a realidade que vivem seus clientes, e que portanto já sabem tudo o que os clientes necessitam, até mais do que os próprios clientes. Esse fato passa relativamente desapercebido em empresas que já estão há algum tempo no mercado, por um fenômeno que poderíamos chamar de “inércia mercadológica”: algum dia no passado a empresa criou (ou copiou) um produto de sucesso, criando uma massa de clientes fiéis que por um bom tempo continuam comprando os próximos produtos lançados pela mesma empresa. O que reforça o comportamento do tipo “já sei o que o cliente quer”.

Mas eventualmente ocorrem um ou mais fracassos de venda, e vem a vexatória constatação: “estamos distantes dos clientes; tratemos de escutá-los”. E então o que é que se faz, tipicamente? “Contratemos um estudo de mercado”. O que equivale a dizer: “Não sabemos como entender nossos clientes; deixemos que alguém de fora faça esse trabalho por nós”. E a coisa sucede mais ou menos assim:

  • Desenvolve-se um questionário com aquilo que pensamos ser relevante para os clientes, ou os pontos sobre os quais queremos ouvir sua opinião (e nesse momento assume-se a tácita premissa de que já sabemos o que queremos e devemos ouvir…).
  • A empresa contratada para fazer o estudo por sua vez contrata alguns estagiários para compor ou completar a equipe que vai entrevistar os clientes.
  • Ao serem entrevistados, os clientes frequentemente dizem coisas muito importantes, muitas das quais passam desapercebidas pelos que conduzem a pesquisa, já que estes não têm experiência suficiente com as particularidades do negócio em questão, e portanto são incapazes de associar o texto (o que o cliente opina) com o contexto (a realidade específica do cliente, em sua interação com o produto).
  • Em seguida, os especialistas da empresa contratada para realizar o estudo interpretam a tabulação dos dados e oferecem suas conclusões em um volumoso relatório, perfumado por uma apresentação pirotécnica (perdoe-me o sarcasmo…).

cliente00

Portanto, não deveria ser motivo de espanto o fato de que muito pouca coisa nova surja dessa prática de investigação já que, via de regra, o relatório final é apenas uma sofisticada forma de apresentar a interpretação que especialistas de marketing fizeram da interpretação que pessoas que não conhecem o negócio fizeram daquilo que o cliente disse sobre aqueles pontos que pessoas distantes da realidade dos clientes  especificaram de antemão! Definitivamente, a chance de que desse processo forneça a verdadeira Voz do Cliente é simplesmente nula. Daí normalmente sai a Voz do Executivo, a Voz do Gerente Comercial, A Voz do Engenheiro, A Voz do Pesquisador de Mercado, deixando lá no fundo um remoto eco da verdadeira voz que deveríamos deixar que ressoe com clareza: a Voz do Cliente, mesmo.

Como consequência, aprofunda-se o abismo entre as pessoas que tomam decisões críticas para os novos produtos e serviços, e a realidade dos clientes que elas procuram servir. Vale então a sábia advertência feita por John Le Carré: “A escrivaninha é um lugar perigoso para se adquirir uma perspectiva do mundo…”

Haverá uma saída? Bem, um antídoto básico contra esse problema é o princípio do “genchi genbutsu” preconizado pela Toyota: vá ao “gemba” do cliente e observe atentamente a situação com os seus próprios olhos. Como exemplo dessa prática, usualmente o engenheiro chefe e a equipe de desenvolvimento de um novo produto Toyota passam meses em convívio com os clientes em seu dia-a-dia. E isso permite que o conceito fundamental e as características diferenciadoras do novo produto sejam definidas com muito maior clareza e precisão. Simples, sem questionário, sem tabulação, sem o espesso relatório. Apenas um par de olhos atentos.

Mas nem todas as empresas podem dar-se a tal luxo (embora devessem, já que não existe atividade mais vital para o negócio do que a inovação). Nesse caso, uma energizante alternativa é que a investigação no “gemba” do cliente seja feita por uma equipe de pessoas da própria empresa, incluindo os responsáveis pelo desenvolvimento ou melhoria do produto. Para isso, deveriam seguir um método que permita que:

  • os clientes falem livremente, sem prender-se a perguntas pré-concebidas;
  • as necessidades explícitas reveladas pelos clientes sejam sintetizadas com exatidão;
  • as necessidades latentes (coisas que o cliente necessita, mas não sabe dizer) sejam detectadas pela observação atenta “in situ”;
  • todos os requisitos mandatórios, esperados e atrativos/inovadores para o cliente sejam estruturados e priorizados, lançando preciosa luz sobre as etapas posteriores de desenvolvimento do produto e melhoria dos processos de realização, sem mencionar o desenvolvimento de novas estratégias de mercado.

Permitam-me uma nota comercial: há mais de dez anos desenvolvemos um método VOC (Voice of the Customer) que cumpre com os requisitos acima. E temos comprovado a eficácia do mesmo em vários de nossos clientes. 

Até a próxima edição!

Eduardo C. Moura


 

O Dilema da Atenção

Posted by on 15:57 in Blog | 0 comments

O Dilema da Atenção


Eduardo-Moura

Após ter conduzido uma boa quantidade de sessões de planejamento estratégico em diferentes empresas, cheguei a uma constatação interessante e importante, que gostaria de compartilhar com o leitor. Trata-se do quedenominei “O Dilema da Atenção”. Mas antes deixe-me explicar o contexto no qual se insere o tal dilema. Um dinâmico grupo de executivos e gerentes, responsáveis pela direção de uma empresa, inicia uma sessão de planejamento estratégico, não pela via tradicional, mas usando uma metodologia mais moderna e eficaz (parte da Teoria das Restrições) chamada “Thinking Process”. Tomando como referência a missão e a visão de longo prazo, iniciamos uma discussão sobre aquelas coisas angustiantes do dia-a-dia que nos desviam de cumprir a missão e que nos distanciam da visão. Chegamos então a uma lista de “efeitos indesejáveis da realidade atual”, os quais tipicamente são:

  • Temos clientes insatisfeitos
  • Nem sempre cumprimos as entregas aos clientes
  • Alguns produtos apresentam problemas crônicos de qualidade
  • O custo operacional é alto
  • A lucratividade diminuiu
  • Temos perdido oportunidades de venda
  • Não temos sido consistentes na inovação dos nossos produtos
  • Dedicamos muito tempo a “apagar incêndios”
  • A comunicação entre áreas é deficiente

OBJETIVOS-600x464

Normalmente as pessoas reagem de maneira isolada a cada efeito indesejável, disparando uma “melhoria” pontual que via de regra é insuficiente para mudar radicalmente a situação, e os problemas continuam. Mas em vez fazer isso, a esta altura do planejamento estratégico usando o “Thinking Process”, a próxima etapa é realizar uma análise sistêmica para identificar o “Conflito Central”, que está por trás de todos aqueles sintomas negativos, e que se oculta sob uma complexa rede de causa e efeito. Não cabe aqui entrar nos detalhes da análise, mas é aí que quase sempre, sem forçar nada, emerge naturalmente o Dilema da Atenção, que podemos descrever da seguinte maneira:

“Nosso objetivo final é crescer de modo sustentável. Para tal fim, é necessário cumprir os objetivos de longo prazo, e para isso devemos dedicar nossa atenção ao planejamento e execução dos projetos estratégicos do negócio. Mas para crescer de modo sustentável também é necessário cumprir os objetivos de curto prazo,  e para isso devemos dedicar nossa atenção às necessidades e urgências do dia-a-dia.”

Eis aí o grande conflito: temos que dar toda a devida atenção gerencial para o longo prazo, mas também temos que fazer o mesmo para o curto prazo. E uma vez que, no frigir dos ovos, é o curto prazo que garante o leite das crianças (como dizia Keynes: “no longo prazo todos estaremos mortos”), a atenção ao curto prazo acaba prevalecendo, e assim sacrificamos a atenção ao longo prazo. Como consequência, entramos de cabeça no redemoinho do dia-a-dia, e vemos angustiados o tempo passar, sem que possamos executar o que sabemos ser vital para o futuro dos negócios. Este tremendo conflito nos aflige até que decidamos fazer algo a respeito: todos ao planejamento estratégico! Realizamos uma sessão apaixonada de planejamento, traçamos objetivos, definimos metas, identificamos projetos, mas… não cumprimos quase nada, porque ao sair planejamento, a dura realidade nos ordena: todos ao combate de incêndios! E a coisa vai continuar assim ano após ano, enquanto não houver uma solução eficaz para o Dilema da Atenção.

 “Solução eficaz” aqui significa implementar alguma “coisa” que nos permita, como empresa, assobiar e chupar cana ao mesmo tempo, isto é: implementar com fervor e disciplina férrea os projetos estratégicos e responder dinamicamente às necessidades e pressões do dia-a-dia. Sinuca de bico. Porque dentro do paradigma vigente de gestão, ainda que haja pessoas que façam o planejamento, a execução de boa parte (se não a totalidade) das ações de longo prazo recaem sobre o mesmo grupo de pessoas responsáveis pelas tarefas de curto prazo.

Na verdade, este conflito só pode ser resolvido se tivermos gente e recursos dedicados para cada tipo de atividade, isto é: processos dedicados à rotina operacional e processos dedicados à inovação. Porém, dentro do paradigma vigente, tal solução encontra sérios obstáculos, e normalmente não decola. E por que? Essencialmente por dois motivos. Em primeiro lugar, porque num ambiente regido por indicadores e metas financeiras de curto prazo, não seria “eficiente em custo” ter um grupo dedicado a projetos cujos resultados, se vierem, só acontecerão num futuro nebuloso. E em segundo lugar, porque dentro de um modelo administrativo no qual as pessoas e demais recursos produtivos são agrupados por área de especialidade com enfoque no curto prazo (o que chamamos de departamentos), onde encaixaríamos um “bando de lunáticos” que têm de conhecer não apenas o mercado e os clientes, mas também a dinâmica operacional interna, e cujo principal produto são sonhos para o futuro?

Uma reflexão sobre os pontos anteriores aponta para o seguinte fato: a solução definitiva para o Dilema da Atenção requer o holocausto completo de duas vacas sagradas da administração: a Gestão por Departamentos e a Contabilidade de Custos. A espada afiada que consuma tal sacrifício tem dois gumes: de um lado a Gestão por Processos, do outro a Contabilidade de Throughput. E o sacerdote que comanda o ritual do holocausto deve ser, necessariamente, o CEO da empresa.

Até a próxima edição!

Eduardo C. Moura

As debilidades da análise SWOT e do planejamento estratégico tradicional

Posted by on 18:24 in Blog | 1 comment

As debilidades da análise SWOT e do planejamento estratégico tradicional


Eduardo-Moura

 A análise SWOT (Strengths, Weaknesses, Opportunities, Threats, ou: Fortalezas, Debilidades, Oportunidades e Ameaças) começou a ser usada na Harvard Business School há uns 50 anos atrás. E talvez por essa respeitosa origem, hoje é praticamente sagrado que todo exercício de planejamento estratégico seja feito a partir de uma análise SWOT. Alguém poderia concluir da expressão “a partir de”, usada na frase anterior, que depois da análise SWOT segue-se um cuidadoso e exaustivo trabalho analítico do qual finalmente é derivado e brilhantemente executado o foco estratégico vital da organização. Mentira. Deixe-me descrever, com um toque de incontida ironia, as típicas etapas de um ciclo de planejamento e desdobramento estratégico, conforme praticado na maioria das empresas ainda hoje:

1) É feita uma breve revisão da declaração de valores, missão e visão, sem atentar para a complexidade das frases e redundância dos conceitos, razão pela qual a maioria dos componentes do seleto grupo presente seria incapaz de recitá-las de cor – e muito menos seus subordinados (portanto, não deveria ser motivo de espanto que não se consolide a tão sonhada cultura de excelência, pois aqueles importantes elementos da ideologia empresarial não estão definidos de modo simples, conciso e cristalino, para que possam ser trabalhados e inculcados nas mentes e corações dos colaboradores).

planeacion-estrategica2

2) Um brainstorming é realizado (normalmente sem muita disciplina metodológica) sobre os quatro aspectos da SWOT, o qual depois se resume numa lista de fatos e idéias, usualmente expressas de uma forma que não é exatamente um primor de clareza e precisão.

3) Em seguida, sobre tal lista, realiza-se uma sessão de “tiros instintivos” quanto ao que fazer para eliminar as debilidades, evitar as ameaças, explorar as oportunidades e consolidar as fortalezas. O resultado é uma segunda lista, agora composta por um desconexo conjunto de intenções estratégicas.

4) Para dar um toque de tangibilidade àquelas intenções, imediatamente passa-se à especificação de  metas numéricas e prazos para cada uma delas, preferivelmente na forma de “stretch goals” atados a um sistema de bônus, a fim de estimular o pessoal à ação (evidentemente assumindo-se a tácita premissa de que as pessoas só se motivarão dessa maneira, e sem questionar o fato de que se um profissional precisa de uma isca financeira para se motivar, talvez não seja esse o tipo de pessoa com a qual podemos contar em tempos difíceis). Um chamativo (porém inócuo) slogan ao estilo “Be Best” dá o toque final. E aqui termina o exaustivo trabalho da alta direção, a qual publica as diretrizes e metas estratégicas do negócio para o próximo período.

5) A partir deste ponto, no embalo do BSC (Balanced Scorecard), efetua-se o desdobramento de metas para cada divisão, departamento, área e, em alguns casos (pasmem) são desdobradas metas numéricas até para indivíduos. Obviamente, pela distância no tempo e no espaço, passa desapercebido o fato de que muitos desses objetivos departamentais (ainda que venham travestidos sob a forma de “KPIs” – Key Process Indicators) são conflitantes entre si, e fatalmente vão levar a crônicos dilemas organizacionais. Tudo isso finalmente é transformado num detalhado orçamento e plano de metas, e passam-se os três primeiros meses do ciclo.

6) Nos seis meses seguintes são realizadas sinceras (e desesperadas) tentativas de alcançar as metas, 80% das quais tipicamente não se cumprem.

7) E os três meses restantes do ano, tendo em vista a proximidade do próximo ciclo estratégico, são dedicados a elaborar refinadas justificativas de porque a maioria dos objetivos não foi conquistado…

Já é mais do que tempo de questionar essas práticas amadoras e superficiais. No processo descrito acima ninguém vai a fundo na reflexão, a ponto de identificar, questionar e romper com práticas obsoletas de gestão, paradigmas ultrapassados sobre a forma de realizar o negócio e até o próprio conceito do negócio. Não existe pensamento sistêmico, não existe análise profunda de causa e efeito, e por conseguinte falta aí o elemento vital para um verdadeiro salto de qualidade no desempenho de um negócio: foco.

Isso ficou magistralmente demonstrado no brilhante livro de Jim Collins intitulado “Good to Great”: todas as empresas investigadas faziam planejamento estratégico, mas as que conseguiram sair da mediocridade e passaram a navegar majestosas no oceano do crescimento sustentável foram aquelas que adotaram um único conceito de negócio inovador, claro e incrivelmente simples, implementado com um foco de “laser” e disciplina espartana.

Corroborando com isso e contribuindo com metodologias eficazes para conceber e desenvolver tal foco inovador em torno das poucas restrições e pontos de alavancagem do negócio está a Teoria das Restrições (TOC – Theory of Constraints), particularmente com a aplicação do “Thinking Process” para desenvolver o planejamento estratégico, e de várias outras soluções inovadoras, incluindo o enfoque de “Mafia Offer” e Visão Viável. Portanto, recomendo ao leitor que aposente de vez o planejamento estratégico tradicional e passe a desfrutar da simplicidade e poder de métodos mais modernos. Se precisar de ajuda para isso, conte conosco…

Até a próxima edição!

Eduardo C. Moura

Paradigmas 4: o Paradigma da Indolência Humana

Posted by on 12:06 in Blog | 0 comments

Paradigmas 4: o Paradigma da Indolência Humana
_________________________________________________________________________________________________

Concluindo nossa série sobre paradigmas, abordamos neste último artigo o que podemos chamar de “Paradigma da Indolência Humana”. Como introdução, recomendo a leitura dos artigos “Motivação de Colaboradores” eEduardo-Moura“Questionando o Sistema de Metas e Bônus de Vendas” publicados neste blog algum tempo atrás.

O Paradigma da Indolência Humana consiste em crer que “as pessoas são naturalmente apáticas com relação ao trabalho”. Segundo essa forma tão comum de pensar, o estado ideal do ser humano seria o de ócio total: estar completamente desocupado, desfrutando folgadamente de atividades de lazer. Desse modo, o trabalho passa a ser visto como um “mal” ou pelo menos um “inconveniente necessário” o qual devemos suportar por algum tempo, para depois poder desfrutar do verdadeiro prazer de não ter que trabalhar. Em outras palavras, os administradores que compartem a ótica do Paradigma da Indolência Humana pensam que, para a desprivilegiada casta de trabalhadores do “chão de fábrica”, a vida começa depois que deixam seu local de trabalho.

Como consequência de crer (conscientemente ou não) em tal paradigma, os executivos tratam de implementar meios para “estimular” a “mão-de-obra” ao trabalho, impondo-lhes regras, controles, ameaças e punições, além de uma série de motivadores extrínsecos tais como remuneração variável, bônus por cumprimento de metas et cetera. O que por sua vez estabelece nas pessoas um comportamento de dependência que as condiciona, por um lado, a atuar sob coerção, e por outro, a receber recompensa financeira toda vez que realizam bom trabalho (mais ou menos como o comportamento condicionado dos cães de Pavlov).

E então reforça-se o ciclo de uma profecia auto-realizável, pois ao verem as pessoas reagirem “positivamente” àqueles estímulos externos, os administradores concluem: “Aha! Não falei que essa gente só se mobiliza mesmo pelo dinheiro ou pelo medo?”. E assim vamos criando um exército de gente passiva, temerosa e defensiva, entre os quais eventualmente se destaca um bando de mercenários movidos apenas pelo vil metal. O que vai requerer da empresa sistemas de controle e de “motivação” cada vez mais abrangentes, complexos e onerosos, com toda uma série de consequências negativas já discutidas nos artigos mencionados no início.

siete-estimulos-para-la-motivacion-en-el-trabajo

Diante da aparente falta de alternativa, alguém poderia pensar que as coisas são assim mesmo, ou seja: a apatia, indiferença, negligência e até aversão pelo trabalho seria uma característica da natureza humana. Mas há várias evidências contrárias a este ponto de vista, suficientes para refutar o paradigma em questão. Por exemplo: mesmo crianças em idade escolar, às quais lhes encantam as brincadeiras e jogos, sentem saudades das aulas após um período prolongado de férias. Já no outro extremo da vida, não é raro ver idosos caírem em depressão ao se aposentarem compulsoriamente, pois a vida sem trabalho parece ter perdido o sentido para eles. E vez ou outra lemos com consternação notícias sobre milionários que, mesmo tendo todos os recursos financeiros para viver em absoluta ociosidade (ou quem sabe por causa disso) se desencantam de tal modo com sua vida vazia e sem propósito, que decidem dar cabo dela, de maneira trágica.

Por outro lado, não é difícil observar casos de pessoas que se dedicam apaixonadamente a seu trabalho, não por causa de quanto vão ganhar por isso mas, muito pelo contrário, o fazem apesar dos baixos salários e das condições precárias que lhes dão certas empresas. E quantos outros exemplos de pessoas que se entregam voluntariamente a projetos comunitários, sem recompensa mais que um sorriso ou palavra de gratidão!

Tais evidências podem lançar luz sobre um enfoque diametralmente oposto, que elimina e substitui com inúmeras vantagens o ultrapassado paradigma da indolência: o Paradigma da Vivacidade Humana, o qual consiste em partir da premissa fundamental de que “as pessoas são intrinsecamente boas e anseiam naturalmente por expressar sua capacidade criativa”.

Sob tal enfoque, o estado ideal do ser humano seria aquele no qual seu potencial é continuamente desenvolvido e colocado em prática, de modo a gerar algo de valor para as demais pessoas. Assim, muito longe de sermos produto de uma trombada aleatória de partículas de matéria que de maneira misteriosa decidiram evoluir, seríamos resultado de um projeto inteligente, específica e intencionalmente criados para expressar a grandeza divina. E privar as pessoas disso (ou, pior ainda, reduzi-las a máquinas de trabalhar) seria um grande “pecado”, por negar a dignidade humana e vilipendiar sua integridade.

Uma das principais consequências práticas desse “novo” enfoque é a oportunidade de simplificar enormemente as políticas e práticas de motivação (e até reduzir o custo das mesmas), pois a questão fundamental da motivação humana passa a ser vista não como inventar e implementar novos recursos extrínsecos, mas sim como remover as barreiras contra a motivação intrínseca que já está nas pessoas (barreiras essas cuja maioria são decorrentes do paradigma da indolência). E então seremos prazenteiramente surpreendidos com as conquistas e resultados trazidos por um novo tipo de comportamento, no qual os colaboradores se envolvem e se integram naturalmente com os demais colegas e sentem orgulho do seu trabalho. O que, a médio e longo prazo, acaba por consolidar-se como uma nova cultura organizacional, muito mais participativa e orientada à excelência. É claro que chegar até isso requer muita reflexão, coragem, criatividade, liderança visionária e esforço. Mas essa vida seria muito chata se tudo nos fosse dado de mão beijada…

E você? O que pensa sobre este tema?
Qualquer comentário será muito bem-vindo.
Até a próxima edição!

Paradigmas 3: o Paradigma do Mundo do Custo

Posted by on 12:10 in Blog | 0 comments

Paradigmas 3: o Paradigma do Mundo do Custo

_________________________________________________________________________________________________

Continuando nossa série sobre paradigmas, abordamos agora uma verdadeira “vaca sagrada” da administração: O Paradigma do Mundo do Custo. Como introdução, recomendo ao leitor dois artigos anteriormente publicados em nosso blog: 1) “Para reduzir custos, não priorize a redução de custos” e 2)  “Custo do Produto: já é tempo de exorcizar este fantasma contábil”.

A essência do Paradigma do Mundo do Custo consiste em crer que “cada dólar economizado é um dólar no bolso”. Logo, partindo da equação Lucro = Preço – Custo e reconhecendo que a questão do preço é algo bastante complexo que se define lá no mercado (mercado esse que constitui uma realidade bem distante da operação da maioria das empresas), dispara-se a ênfase em reduzir custos como a principal, a mais fácil e frequentemente a única opção para ter mais lucro. Bem, antes de iniciar esta breve discussão, vale ressaltar que custo é realmente muito importante e não devemos desperdiçar oportunidades de sermos mais eficientes em custo.

O que na verdade urge uma revisão da mentalidade empresarial dominante é o que diz respeito à prioridade dada à redução de custos (em detrimento de outras coisas mais importantes para a lucratividade final) e também às práticas tradicionalmente utilizadas para “reduzir” custos artificialmente, através da Contabilidade de Custos. Para evidenciar isto, vamos tratar aqui apenas algumas das aplicações mais corriqueiras do paradigma em questão, visando questionar sua validade nos dias de hoje.

Paradigma_do_Mundo_do Custo

Como primeiro exemplo, é comum vermos metas estabelecidas para que a Produção maximize o indicador “taxa de utilização de ativos”, o que por sua vez requer que os recursos produtivos sejam continuamente utilizados para processar grandes lotes, sem interrupção. E para que? Para “diluir” o custo do produto… Por outro lado, isso traz um conflito com o alto nível de inventário resultante (pois via de regra a produção é antecipada com base em “forecasts”, que não se confirmam em grande parte) e o custo global, paradoxalmente, aumenta (embora o falso indicador “custo unitário do produto” diminua). Toda essa contradição é consequência de  inocentemente assumir como verdadeira a premissa de que “o custo diminui com o aumento do volume de produção”. Repito: na verdade, a única coisa que diminui é o cálculo que é feito depois: (Custo Fixo + Custo Variável) / (Quantidade Produzida). As demais coisas, bastante mais relevantes que o tal cálculo, e que acabam determinando o custo global, tendem a aumentar consideravelmente: complexidade de planejamento e  operação, inventários de matéria-prima, inventários em processo, inventário de produto acabado, perdas por obsolescência, danos de manuseio e armazenagem, custo de armazenagem, custo de movimentação e transporte de materiais, custo de controle de estoques etc. etc. etc.Aqui não há espaço para desenvolver muito mais o tema, mas a solução desse conflito passa por romper completamente com o uso do falacioso  indicador “custo unitário do produto” e adotar outro indicador muito mais eficaz: (Throughput) / (Tempo de Uso do Gargalo), onde Throughput = (Preço de Venda) – (Custo Totalmente Variável, sem qualquer alocação de custo fixo) e “Gargalo” é o recurso produtivo com menor capacidade de processamento em toda a cadeia de criação de valor.Funciona muito melhor. Já tive oportunidade de facilitar essa mudança em algumas empresas, e a lucratividade final aumenta consideravelmente, com frequência apontando como prioridade de mercado alguns produtos antes vistos como “patinhos feios” e desbancando outros considerados como “estrelas”.

Um segundo exemplo das moléstias causadas pelo Paradigma do Mundo do Custo são as tremendas peripécias contábeis para chegar ao cálculo do “custo unitário do produto”, com as inevitáveis definições de critérios arbitrários para alocação de custos fixos (por “tempo de mão de obra direta”, por “área ocupada”, por “volume de venda” etc.) e as correspondentes complicações (e custo) no sistema informático, na operação e nos respectivos controles. Como dizia Eli Goldratt, o sistema de custeio ABC (Activity Based Costing) e outros refinamentos do Mundo do Custo são apenas tentativas desesperadas para preservar um paradigma obsoleto em suas raízes, já que as premissas da Contabilidade de Custos tornaram-se inválidas pelo impacto da tecnologia sobre a produtividade. Explico: no início do século passado o custo fixo (“overhead”) era uma pequena parcela do custo total, de modo que a distribuição de parte desse custo fixo a cada unidade produzida era uma aproximação válida e útil para tomar decisões. Entretanto, atualmente o “overhead” é a maior parcela do custo total, o que faz com que o cálculo tradicional do custo unitário do produto gere seríssimas distorções, levando-nos invariavelmente às piores decisões! Diante disso, uma solução (vergonhosamente simples) é definitivamente deixar de lado as complicações de cálculo do “custo unitário do produto” e substituí-lo pelo “throughput unitário do produto”. Isso, conforme ensina a Contabilidade de Throughput, permitirá prever o impacto das decisões e medir a lucratividade final com muito maior rapidez, precisão e facilidade.

Finalmente um terceiro exemplo é o dilema “Parar x Não Parar a Produção” diante de um problema no processo (tais como defeitos, pequenas interrupções de máquina, perda de velocidade). A decisão que normalmente se toma é continuar produzindo, custe o que custar, porque “a linha de produção não pode parar”. E porque não? Porque “maior volume de produção reduz o custo”. E chegamos à mesma falsa premissa anterior. O que faz com que as deficiências crônicas de produção sejam ocultadas, e a partir daí formalmente planejadas, já que os constantes custos resultantes passam a ser incorporados aos cálculos. E pior ainda: as pessoas da operação, diante de cujos olhos tamanha ineficiência se descortina diariamente, recebem uma clara mensagem de passividade, descaso e impotência diante dos problemas que minam sua produtividade. O que, de um modo não desprezível, os degrada como seres humanos.

É por tudo isso que Goldratt ousadamente afirmou: “A Contabilidade de Custos é o inimigo número 1 da Produtividade.” Portanto, já passou da hora de romper com o Paradigma do Mundo dos Custos e adotar seu substituto, o Paradigma do Mundo do Throughput.

No próximo (e último) artigo desta série, abordaremos o Paradigma da Indolência Humana.

 E você? O que pensa sobre este tema?

Qualquer comentário será muito bem-vindo. 

Até a próxima edição!

Eduardo C. Moura

Paradigmas 2: o Paradigma da Complexidade Inerente

Posted by on 17:41 in Blog | 0 comments

Paradigmas 2: o Paradigma da Complexidade Inerente


Eduardo-MouraContinuando nossa série sobre paradigmas, abordamos agora um dos mais praticados no meio empresarial: o Paradigma da Complexidade Inerente, que consiste em crer que “a realidade é altamente complexa em sua essência”. Partindo dessa definição fundamental, nossa reação “natural” para enfrentar a complexidade passa a ser: “dividamos o sistema complexo em pequenas partes mais manejáveis e administremos tais partes individualmente.” (por isso poderíamos também chamar esse paradigma de “Paradigma da Fragmentação”). E isso, aplicado a inúmeras situações (algumas das quais discutimos a seguir) , ocasiona toda uma série de conflitos organizacionais, com os respectivos sintomas negativos que nos afligem no dia-a-dia.
Por exemplo: na grande maioria das empresas, um mal crônico é a comunicação deficiente entre os diferentes departamentos, resultante de “interfaces nebulosas” no que diz respeito à clara definição de papéis e responsabilidades pelo fluxo de trabalho. Uma vez que estamos dedicados às atividades e objetivos departamentais, a integração e o fluxo de informações e materiais entre áreas (que é o que realmente determina o tempo e a qualidade da resposta ao cliente) ficam relegados a segundo ou terceiro plano. Como consequência, vários problemas pipocam mais tarde e fazem com que cerca de 70% (!) do tempo das pessoas seja desperdiçado no combate a “incêndios”. O que evidentemente se propaga no tempo e no espaço, e no final acaba impactando negativamente os clientes, com respostas lentas e ineficazes. E tais sintomas negativos são consequência de um conflito de fundo que podemos chamar de “o dilema da atenção gerencial” (já discutido em um artigo anterior, “O Dilema da Atenção”): “A. Focar-se nas metas departamentais de curto prazo” versus “B. Focar-se nos objetivos organizacionais de longo prazo”.

Paradigma-da- Complexidade-Inerente

A “solução” ganha-perde (que dá origem aos problemas mencionados) é a centenária “Gestão por Departamentos”, a qual prioriza o lado (A) do conflito, sacrificando o lado (B). Tal decisão (tomada por inércia, sem muita reflexão) fundamenta-se na premissa de que “a empresa irá bem, se cada departamento empenhar-se em cumprir suas metas individuais”. A realidade, entretanto, oferece inúmeras evidências de que essa premissa é falsa: é comum ver organizações nas quais as pessoas dão o melhor de si em suas atividades departamentais, mas o desempenho global da empresa é sofrível. Mas é aí que o paradigma revela seus poderes ocultos: interpretando tais problemas sob a ótica da “Gestão Departamental” (sem jamais questionar o próprio paradigma), os gestores chegam à conclusão que é necessário “aperfeiçoar” o sistema vigente através da imposição de metas mais agressivas, mais controles, um amplo desdobramento de metas numéricas via BSC (Balanced Scorecard) até chegar à metas individuais de cada colaborador, complementado por um sofisticado sistema de incentivos etc., o que apenas aumenta a complexidade e aprofunda ainda mais os efeitos negativos.
Outro exemplo prático do pleno funcionamento do Paradigma da Complexidade Inerente é a questão das prioridades na produção. Com frequência vemos o pessoal saltitando entre priorizar a qualidade, ou o lead-time, ou volume de produção, ou os pedidos urgentes, ou o custo, inventários etc. E fazem isto porque assumem a falsa premissa de que aqueles são temas relativamente independentes, que podem ser tratados separadamente. Mas apesar das evidências mostrarem que ao priorizar qualquer um daqueles temas os demais ficam prejudicados, sua atitude (dentro do paradigma vigente) é simplesmente resignar-se a conviver com os problemas, como se eles fossem moléstias inevitáveis. Ou então, seus atormentados ouvidos cedem ao canto místico da sereia informática e buscam desesperadamente a solução num software mais sofisticado, o que no frigir dos ovos acaba apenas aumentando a complexidade do sistema produtivo e produz um molho mais caro do que o peixe.
Um outro exemplo do paradigma em questão é o Gerenciamento de Projetos. Diante da complexidade de gerenciar centenas de tarefas e dezenas de recursos envolvidos num projeto complexo, dividimos o mesmo em pequenos conjuntos de tarefas e programamos para cada tarefa uma data de início e fim, ingenuamente adotando a (falsa) premissa de que “se todas as tarefas se concluírem a tempo, o projeto será entregue no prazo, com o conteúdo prometido e dentro do orçamento planejado.” Ledo engano. Mas apesar das contundentes evidências de que, quase que invariavelmente, todo projeto é entregue com atraso, com várias modificações em relação ao conteúdo prometido e com muitos gastos imprevistos, as pessoas (presas ao paradigma da gestão individualizada de tarefas) concluem que a solução está em negociar mais prazo com os clientes, sofisticar a análise de riscos antes de iniciar o projeto, fragmentar ainda mais as tarefas, aumentar a frequência e abrangência dos “gate reviews”, desenvolver a inteligência emocional da equipe, escrever um novo procedimento sobre como gerenciar projetos etc. E assim o PMBOK já se aproxima das 500 páginas…
Bem, uma breve reflexão sobre os exemplos acima são suficientes para revelar um padrão comum por trás dos mesmos: a contraditória tendência de que os intentos para resolver a complexidade do sistema, uma vez decididos sob a ótica do Paradigma da Complexidade Inerente, acabam invariavelmente aumentando a complexidade! O que reforça ainda mais a crença de que a realidade é naturalmente complexa, completando assim o ciclo de uma profecia auto-realizável.
A solução definitiva, portanto, não se encontra dentro das fronteiras do próprio paradigma, mas requer sua substituição por um mais adequado: o Paradigma da Simplicidade Inerente, preconizado por Eli Goldratt em seu livro “The Choice”, o qual consiste em descobrir que “a realidade é sumamente simples e intrinsecamente harmoniosa.” A prática desse revolucionário paradigma consiste em engajar-se corajosamente (com a “humildade arrogante” de um cientista, como dizia Goldratt) em um processo de raciocínio fundamentado em relações lógicas de causa e efeito, até que seja identificado o único ou poucos fatores de fundo responsáveis pela multiplicidade de efeitos indesejáveis da realidade atual. O método para isso é o “Thinking Process”, já discutido em artigos anteriores. Revela-se desse modo a simplicidade inerente que sempre esteve escondida atrás da complexidade aparente. Então (e só então) fica evidente o caminho para uma solução poderosa e, com frequência, vergonhosamente simples.
Aplicado como antídoto eficaz para as problemáticas situações mencionadas anteriormente, a Simplicidade Inerente aponta para: romper com a Gestão por Departamentos e adotar a Gestão por Processos, subordinando a estrutura vertical das diversas áreas funcionais ao fluxo horizontal e integrado dos processos empresariais; focar e priorizar apenas o fluxo ininterrupto de trabalho através dos diferentes processos e recursos para que os demais objetivos de qualidade, produtividade e mínimo custo sejam “automaticamente” alcançados (o que constitui a essência do Sistema Lean de Produção); substituir o manejo individual das tarefas do projeto pela orquestração global da “corrida de bastão” através da cadeia de atividades e recursos dependentes que determinam a data de entrega final do projeto (o método da Corrente Crítica, de Goldratt). Mas faltaria espaço nesse meio para entrar em detalhes sobre tais soluções…
No próximo artigo da série, abordaremos o Paradigma do Mundo do Custo e suas desastrosas consequências.

E você? O que pensa sobre este tema?
Qualquer comentário será muito bem-vindo.
Até a próxima edição!
Eduardo C. Moura


Tag:Paradigmas 2: o Paradigma da Complexidade Inerente

Spain