Entre distorções, vieses e estratégias [parte #2]

Mesmo quando conseguimos lidar com o excesso de informação vindo de fora, ainda enfrentamos barreiras internas poderosas. Pensar estrategicamente não é apenas um desafio de acessar os dados certos, mas de ter tempo e clareza para processá-los. Nosso raciocínio depende de atenção prolongada, comparação entre alternativas e memória confiável. Mas o ambiente em que decisões estratégicas acontecem costuma impor pressa, pressão e sobrecarga mental.

A urgência encurta o tempo para análise. O cansaço reduz a capacidade de questionar hipóteses e sustentar pensamento deliberado. E a memória — longe de ser um arquivo estático — distorce o que lembramos e como lembramos. Assim, mesmo com boas intenções e informação abundante, podemos tomar decisões baseadas em simplificações, lembranças imprecisas ou padrões passados que não se aplicam mais.

Esses limites internos não são exceções, mas parte do funcionamento normal da mente. Entender como atuam — e como afetam o julgamento estratégico — é essencial para construir decisões mais sólidas, mesmo sob restrições de tempo e energia.

O tempo pressiona – e a gente cede

A urgência de decidir rápido é um dos desafios mais persistentes para quem precisa pensar estrategicamente. No artigo anterior vimos como o excesso de informação cria ruído e exige filtragem. Mas mesmo quando conseguimos reduzir esse ruído externo, nos deparamos com outro obstáculo: o tempo limitado para deliberar. É nesse contexto que o Sistema 1, descrito por Kahneman e Tversky, domina o processo decisório — não por distração, mas por necessidade prática.

O Sistema 1 existe para lidar com situações que pedem respostas imediatas. Ele não pesa alternativas, não estima probabilidades de forma cuidadosa, não questiona pressupostos. Ele reconhece padrões familiares e devolve julgamentos prontos. Essa eficiência é valiosa em contextos operacionais, mas se torna perigosa quando o problema exige reflexão. Em estratégia, decisões raramente são binárias ou evidentes. Elas envolvem variáveis ambíguas, consequências de longo prazo e incerteza sobre o ambiente competitivo.

Na vida real dos negócios, porém, o tempo para pensar costuma ser curto. Reuniões são marcadas para “bater o martelo” em poucas horas. Times enfrentam prazos agressivos para apresentar planos ou ajustes. A expectativa é de respostas rápidas, mesmo para problemas complexos. Isso cria um ambiente em que o Sistema 1 prospera: a pressão por decisões imediatas empurra o raciocínio para atalhos.

Esses atalhos podem assumir formas diferentes. Um exemplo frequente é o uso de analogias superficiais: “funcionou com aquele concorrente, então deve funcionar aqui”. Em vez de uma análise profunda das diferenças de contexto, a decisão se ancora em semelhanças aparentes. Outro caso comum é o chamado satisficing — conceito de Herbert Simon — em que o grupo para de procurar alternativas assim que encontra uma solução “boa o suficiente”, sem explorar se há opções melhores.

Há também o risco de framing, já explorado na primeira parte desse artigo, mas que aqui reaparece com outra nuance: quando há pouco tempo para discutir um problema, a forma como ele é apresentado tende a determinar o resultado. Uma proposta descrita como “redução de custos” pode encontrar mais apoio do que a mesma ação descrita como “corte de pessoal”, ainda que o efeito final seja idêntico.

O planejamento estratégico, idealizado como um processo deliberado, sofre quando se torna uma sequência de decisões apressadas. Times pulam etapas de diagnóstico, ajustam objetivos para caber em prazos curtos e validam hipóteses sem testar. O resultado são planos frágeis, vulneráveis a mudanças no ambiente.

Kahneman chama atenção para outro aspecto crítico: a fadiga mental. Mesmo quando o Sistema 2 é acionado, ele consome energia. Em ciclos longos de decisão ou sob pressão constante, o cansaço reduz a disposição para questionar pressupostos ou revisar julgamentos. Decisores cansados retornam a heurísticas familiares. É uma armadilha sutil: mesmo equipes experientes podem tomar decisões preguiçosas quando pressionadas por prazos.

Entender esse mecanismo não significa condenar a pressa como um vício moral. Significa reconhecer uma limitação estrutural do raciocínio humano. Estratégia feita com pressa não é só mais rápida — é menos crítica. Por isso, proteger tempo para análise, abrir espaço para discordâncias e reconhecer os custos cognitivos da urgência são tarefas centrais de quem lidera processos estratégicos.

Confiança demais, cuidado de menos

Para entender como a urgência e a falta de tempo afetam o pensamento estratégico, vale começar por um viés central: o efeito de excesso de confiança (overconfidence effect). Diferente de erros aleatórios ou distrações pontuais, esse viés é sistemático e previsível. Kahneman, em Thinking, Fast and Slow, dedica um capítulo inteiro a ele, mostrando como é um produto direto do funcionamento do Sistema 1 — e como se agrava em contextos de pressão por decisões rápidas.

O excesso de confiança não é só uma questão de arrogância pessoal. É um mecanismo adaptativo. Em ambientes de incerteza, agir requer convicção. Como indivíduos e grupos, precisamos acreditar que nossa interpretação está correta para tomar decisões e implementá-las com energia. Mas essa confiança subjetiva raramente corresponde à qualidade objetiva do julgamento. Em estudos clássicos, Kahneman e Tversky mostraram que mesmo especialistas estimam intervalos de confiança muito estreitos para previsões, consistentemente subestimando a incerteza real.

Um exemplo famoso é o chamado hard-easy effect: quando as pessoas são questionadas sobre problemas fáceis, sua confiança e acurácia tendem a coincidir. Mas, conforme o problema fica mais difícil ou mais ambíguo — como quase tudo em estratégia — a confiança cai menos do que a acurácia. Em outras palavras: quanto mais difícil o problema, mais superestimamos nossa capacidade de resolvê-lo.

Esse viés se manifesta nitidamente em planejamento estratégico. Empresas projetam crescimento com base em cenários otimistas, subestimando riscos e dificuldades. É o pano de fundo do planning fallacy que já discutimos antes, mas aqui a nuance é diferente: não se trata apenas de subestimar o tempo ou os custos, mas de superestimar a própria capacidade de execução e adaptação.

Um experimento ilustrativo vem de estudos sobre previsão geopolítica conduzidos por Philip Tetlock. Ele pediu que especialistas previssem eventos futuros com base em cenários complexos e acompanhou os resultados por décadas. O resultado foi chocante: especialistas com mais confiança em suas previsões não só não eram mais precisos — eram, em média, menos precisos que algoritmos estatísticos simples. O excesso de confiança prejudicava a capacidade de rever hipóteses diante de dados novos.

Em estratégia, esse fenômeno se manifesta em iniciativas ousadas que não consideram contrafatos ou planos de contingência. Um board aprova a entrada em um novo mercado presumindo sua própria superioridade de execução, sem analisar se suas competências realmente transferem. Times de produto apostam em recursos que “o cliente vai amar” sem testar se ele realmente quer ou precisa deles. É o Sistema 1 contando uma história coerente, mas sem verificar sua solidez.

Ao redor desse efeito central, orbitam outros vieses que alimentam o mesmo problema. O egocentric bias faz com que sobrestimemos nosso papel em sucessos e subestimemos nossa responsabilidade em fracassos. O self-serving bias nos leva a atribuir vitórias a nossa competência e derrotas a fatores externos. A illusion of control nos faz acreditar que podemos controlar variáveis que são, na verdade, aleatórias. E o Dunning-Kruger effect mostra como pessoas menos experientes em um tema podem superestimar brutalmente sua compreensão dele — um risco real em reuniões estratégicas com muitas disciplinas diferentes.

Em última análise, todos esses vieses têm um mesmo motor: a urgência de decidir e a necessidade de agir com confiança. Mas essa confiança não garante qualidade. Estratégia pede apostas, é verdade. Mas são apostas melhores quando reconhecem suas próprias incertezas e limites.

Mais próximo, melhor

Outro atalho mental particularmente relevante em contextos de urgência é a tendência a privilegiar o imediato em detrimento do futuro — um viés conhecido como hyperbolic discounting. Essa inclinação foi mapeada de forma sistemática por psicólogos como George Ainslie e mais tarde formalizada em modelos econômicos que mostraram que as pessoas não descontam o valor futuro de maneira linear ou racional, mas de forma abrupta e desproporcional quanto mais próximo o benefício imediato estiver.

Em termos simples, preferimos recompensas menores e imediatas a recompensas maiores e distantes. Esse viés é um exemplo perfeito da operação do Sistema 1: ele busca resolver problemas no presente, reduzindo a complexidade temporal com uma simplificação prática, ainda que míope. Em Thinking, Fast and Slow, Kahneman descreve como a mente automática é feita para o agora — para respostas rápidas que assegurem ação imediata.

Na prática da estratégia, isso cria distorções profundas. Orçamentos de marketing favorecem campanhas táticas que prometem conversão imediata em vez de investir em construção de marca de longo prazo. Times comerciais pressionam por descontos agressivos para fechar o trimestre, mesmo sabendo que isso erode preço e margem no médio prazo. Líderes priorizam projetos com resultados visíveis em um mandato ou ciclo orçamentário, deixando de lado investimentos estruturais cuja maturação virá para outro gestor.

O viés não nasce de má-fé. Ele é, em parte, uma resposta adaptativa: no dia a dia, lidar com o urgente é necessário. Mas o problema aparece quando as escolhas imediatistas são tomadas como regra, não como exceção. E a estratégia, por definição, deveria ser o espaço em que esse horizonte é ampliado.

Além do hiperbolic discounting, outro viés que surge dessa mesma preferência pelo concreto e imediato é o identifiable victim effect. Estudos clássicos de Paul Slovic mostram como as pessoas se sensibilizam muito mais com a história de uma única vítima identificável do que com estatísticas de sofrimento em massa. Em decisões estratégicas, isso se traduz na tendência de priorizar casos individuais, anedóticos e vívidos — como o depoimento de um cliente insatisfeito — mesmo quando dados agregados contam uma história diferente.

Esse efeito tem implicações práticas em como se constroem narrativas internas. Em vez de discutir tendências com base em dados representativos, times se fixam em “histórias fortes” que, por serem emocionais e imediatas, parecem mais convincentes. Em discussões de planejamento, anedotas chamam mais atenção do que análises. Um caso extremo de churn ou uma reclamação barulhenta pode pautar mudanças de produto que não são, de fato, prioritárias.

Há ainda o appeal to novelty — a tendência de valorizar o novo só porque é novo. Em ambientes corporativos que cobram inovação constante, esse viés se disfarça de ousadia estratégica. Mas na essência, ele é apenas outro atalho do Sistema 1: buscar o estímulo imediato de algo que parece diferente, mesmo sem analisar se é realmente melhor. Isso gera ciclos de apostas em soluções que prometem resolver tudo de forma rápida — novas plataformas, novos processos, novos slogans — sem consolidar aprendizados anteriores.

A dor de voltar atrás

Outro terreno fértil para vieses cognitivos surge quando pensamos em como reagimos ao risco de mudar de direção ou admitir erro. Em estratégia, onde decisões exigem apostas muitas vezes irreversíveis, a pressão por coerência e continuidade pode gerar distorções previsíveis — atalhos mentais que favorecem persistir mesmo quando o caminho já se mostrou problemático.

Um dos vieses mais conhecidos nesse contexto é o sunk cost fallacy. Ele descreve a tendência de continuar investindo em algo apenas porque já se investiu muito. A lógica econômica diria que custos passados são irrecuperáveis e deveriam ser ignorados em decisões futuras. Mas a psicologia mostra o contrário: temos aversão a admitir perda. Kahneman e Tversky, ao estudarem a aversão à perda (loss aversion), demonstraram que as pessoas sentem mais a dor de perder algo do que o prazer de ganhar o equivalente. Essa assimetria faz com que projetos ruins continuem recebendo recursos só para evitar o desconforto psicológico de admitir o erro.

Em negócios, isso se traduz em iniciativas que ficam “grandes demais para falhar”. Um projeto de transformação digital que já custou milhões não pode ser cancelado sem que a liderança admita o fracasso. Uma expansão internacional mal planejada persiste, mesmo dando prejuízo, para salvar reputações internas. Em cada uma dessas situações, o que deveria ser uma decisão racional sobre o futuro vira um exercício de proteger o passado — ou o ego.

Relacionado a isso está o escalation of commitment, bem documentado por Barry Staw e colegas. Em experimentos, participantes continuavam investindo em projetos ruins mesmo após receberem dados objetivos de que não havia retorno esperado. No ambiente corporativo, esse efeito aparece quando equipes “dobram a aposta” em estratégias falhas, tentando recuperar o investimento anterior. É como se a lógica fosse: já que começamos, precisamos terminar — mesmo que terminar seja perder mais.

Outro viés que reforça essa tendência é o endowment effect, estudado por Richard Thaler. Ele mostrou que pessoas atribuem mais valor a algo apenas porque o possuem. Em estratégia, isso se traduz em superestimar o valor de ativos, marcas ou produtos só porque são “nossos”. Isso pode atrasar decisões de desinvestimento, descontinuar linhas obsoletas ou mudar modelos de negócio que já não funcionam.

Há ainda o status quo bias. Ele descreve nossa preferência por manter as coisas como estão. Em parte, isso decorre da aversão ao risco e do medo do arrependimento: mudar significa abrir a possibilidade de errar. Kahneman e Tversky, com o pseudocertainty effect, mostraram como enquadramentos que sugerem segurança imediata podem nos levar a escolhas conservadoras, mesmo quando arriscar seria racional no longo prazo.

Na prática, esse conjunto de vieses faz com que empresas se apeguem a estratégias conhecidas, mesmo quando o contexto mudou. Produtos envelhecem sem evolução, modelos de distribuição ficam defasados, culturas internas se cristalizam. Mudar parece mais arriscado do que manter — mesmo que o risco real esteja em não se adaptar.

Por fim, vale notar que esses atalhos não surgem só de fraqueza individual. Muitas vezes são reforçados por dinâmicas de grupo. Preservar o consenso interno, evitar conflitos ou proteger o status de quem tomou a decisão original cria barreiras para reavaliação crítica. Em ambientes assim, reconhecer erro não é visto como sinal de inteligência, mas de fraqueza.

Complexidade? Não, obrigado.

Outro conjunto de atalhos mentais emerge da forma como lidamos com complexidade, ambiguidade e esforço cognitivo. Em teoria, decisões estratégicas deveriam justamente encarar o que é complexo — mas, na prática, nosso cérebro prefere o caminho mais simples, mesmo quando ele engana.

Um dos vieses mais centrais aqui é o ambiguity bias. Ele descreve a tendência de evitar opções ou decisões que envolvem informações ambíguas ou incertas, favorecendo aquelas que parecem mais claras ou conhecidas. Kahneman e Tversky ilustraram esse fenômeno em experimentos sobre aversão à ambiguidade: quando confrontadas com apostas de resultado claro versus apostas com mais incerteza, as pessoas preferiam a opção com probabilidade explícita, mesmo que a expectativa de ganho fosse igual ou maior na outra.

Em negócios, isso se traduz em decisões que favorecem cenários mais previsíveis, mesmo quando o mercado está mudando. Empresas mantêm portfólios seguros em vez de explorar inovações incertas. Planos de ação ficam presos ao que é mensurável, mesmo que o valor real esteja em enfrentar questões mal definidas. Em reuniões estratégicas, isso aparece quando se evita discutir hipóteses difíceis de quantificar e se foca no que pode ser tabelado, modelado, ou exibido em gráficos já conhecidos.

Um viés próximo é o information bias, que nos faz superestimar o valor de coletar mais informações fáceis e disponíveis, mesmo quando essas não ajudam a melhorar a decisão. Esse fenômeno foi estudado em experimentos que mostravam como as pessoas preferem obter dados adicionais — ainda que irrelevantes — antes de decidir. Em empresas, isso vira o vício em relatórios: equipes geram páginas e dashboards para reduzir a sensação de ambiguidade, sem necessariamente ganhar entendimento real. Como resultado, o processo se alonga, mas não aprofunda.

Um outro atalho famoso é o bike-shedding effect (ou Law of Triviality), cunhado a partir de uma observação de C. Northcote Parkinson: grupos gastam mais tempo discutindo detalhes triviais e fáceis de entender do que grandes decisões complexas. Por exemplo, em uma reunião sobre construir uma usina nuclear, o comitê se concentra por horas no abrigo das bicicletas. No mundo corporativo, isso surge em debates extensos sobre logotipos, slogans ou cores de apresentações, enquanto questões críticas de alocação de recursos ou reorientação estratégica ficam superficiais.

Também relevante é o less-is-better effect, identificado em estudos que mostram que as pessoas preferem opções que parecem mais completas ou “melhores” em contextos limitados de comparação, mesmo quando são objetivamente inferiores. Por exemplo, preferir um serviço mais simples, mas bem apresentado, a uma solução mais abrangente, porém complexa. Em estratégia, isso leva à priorização de projetos que “ficam bonitos no slide” em detrimento de transformações profundas e menos fotogênicas.

Esses vieses são reforçados por uma preferência natural por narrativas claras e soluções elegantes. O cérebro gosta do que encaixa, do que soa certo. Esse é o rhyme as reason effect, demonstrado em estudos que mostram como frases rimadas são percebidas como mais verdadeiras. Em estratégia, isso se reflete na valorização de slogans e conceitos fáceis de comunicar, mesmo quando simplificam demais ou distorcem a realidade.

Na prática, todos esses atalhos mentais convergem para o mesmo risco: trocar profundidade por conveniência. Em vez de encarar o desconforto do difícil, do ambíguo e do complexo — exatamente o que diferencia decisões estratégicas das operacionais — escolhemos o simples e o claro, mesmo que enganoso.

Falta espaço no HD

Se a urgência nos empurra para decidir rápido, a memória nos define pelos limites do que conseguimos carregar ao longo do tempo. Em estratégia, não basta perceber bem o presente — é preciso lembrar com clareza do passado e projetar com cuidado o futuro. Mas a mente humana não foi feita para ser um arquivo perfeito. Ela opera com restrições claras: não armazena tudo, não guarda tudo com igual peso e, principalmente, reconstrói o que guarda cada vez que precisa acessar.

Daniel Kahneman e Amos Tversky nos mostraram que o julgamento não acontece no vazio. Ele se ancora em padrões, narrativas e experiências anteriores — todos dependentes da memória. O Sistema 1, tão eficiente para gerar respostas rápidas, funciona porque acessa continuamente esse estoque de lembranças, conexões e generalizações. Mas aquilo que está armazenado não é neutro nem completo. É o resultado de uma série de filtros.

Esses filtros não são defeitos do cérebro — são soluções adaptativas. Diante de um mundo saturado de informação e de experiências passadas quase infinitas, precisamos decidir o que vale guardar. E essa necessidade cria escolhas implícitas. Preferimos o que parece mais relevante, mais recente ou mais vívido. Generalizamos para economizar espaço e aplicabilidade. Criamos atalhos para reduzir esforço cognitivo no futuro. Sem isso, a memória seria inútil no dia a dia.

O problema surge quando essas economias de memória passam a distorcer o pensamento estratégico. Porque o ato de decidir se apoia em lembranças — não apenas no sentido mais óbvio de recuperar dados ou fatos, mas na forma de reconhecer padrões, fazer analogias, lembrar o que funcionou (ou não) antes, projetar cenários plausíveis. Quando a memória simplifica demais ou organiza as informações de forma enganosa, ela sabota a análise.

Essa limitação se manifesta de maneiras que veremos em mais detalhe adiante: nossa tendência de lembrar histórias mais do que dados brutos, de reter o que nos marcou emocionalmente, de confundir fontes, de favorecer generalizações sobre nuances. Esses são os mecanismos que ajudam a memória a funcionar, mas que também geram vieses sistemáticos. Em vez de um repositório exato do que aconteceu, temos uma narrativa coerente — mas frequentemente parcial ou mesmo falsa.

Isso se agrava em ambientes de decisão complexos como o da estratégia empresarial. Aqui, não basta lembrar o que ocorreu. É preciso separar o relevante do irrelevante, distinguir causalidade de coincidência, manter consciência do contexto. Porém, nossas memórias não guardam os detalhes com esse rigor. Elas são moldadas pela forma como vivemos as experiências, pelo tempo que passa, pelas histórias que contamos (aos outros e a nós mesmos) sobre o que ocorreu.

É por isso que a memória não deve ser tratada apenas como um reservatório passivo de dados, mas como um componente ativo e enviesado do pensamento estratégico. Reconhecer suas limitações não é um exercício acadêmico — é uma necessidade prática. Sem essa consciência, as melhores análises podem se apoiar em lembranças distorcidas. E decisões de longo prazo podem acabar sustentadas em interpretações frágeis do passado.

Vamos detalhar como esses mecanismos de memória operam e quais vieses específicos eles geram. Porque compreender essa estrutura — e aprender a questioná-la — é um passo essencial para quem quer tomar decisões melhores.

Reconstruindo memórias

Quando falamos de memória como base para o pensamento estratégico, é fácil supor que estamos lidando com algo relativamente estável: um arquivo de fatos e experiências que podemos consultar para guiar nossas decisões. Mas uma das descobertas mais importantes da psicologia cognitiva mostra que não é nada disso. A memória humana não é um repositório fixo — é um processo ativo, construtivo e muitas vezes falho.

Um dos primeiros a demonstrar isso de forma sistemática foi Frederic Bartlett, psicólogo britânico que, nos anos 1930, conduziu experimentos hoje clássicos. Em um deles, ele pedia a participantes para lerem uma história folclórica de outra cultura (como a narrativa indígena “The War of the Ghosts”) e depois recontá-la em diferentes intervalos de tempo. O que ele observou foi marcante: à medida que as pessoas recontavam a história, elas iam progressivamente ajustando detalhes para que ficassem mais coerentes com seus próprios esquemas culturais e expectativas. Elementos estranhos eram esquecidos ou transformados, incongruências eram suavizadas, e a história acabava domesticada para algo mais familiar. Bartlett chamou esse processo de “esquema” — a estrutura mental que guia como percebemos, lembramos e reconstruímos experiências.

Esse fenômeno é a base de vieses como o misattribution of memory e o source confusion. Não apenas esquecemos detalhes — os trocamos sem perceber. Podemos lembrar de uma informação corretamente, mas atribuí-la à fonte errada, como quando alguém afirma ter tido uma ideia original que, na verdade, leu ou ouviu de outro lugar (um fenômeno chamado cryptomnesia). Ou ainda, podemos injetar detalhes que nunca estiveram presentes, criando falsas memórias com total convicção.

Elizabeth Loftus, uma das mais renomadas pesquisadoras nesse campo, mostrou experimentalmente como as memórias podem ser contaminadas depois dos fatos. Em um de seus estudos mais famosos, participantes assistiam a vídeos de acidentes de carro e depois eram questionados sobre o que haviam visto. Mudando apenas o verbo da pergunta — por exemplo, “a que velocidade os carros colidiram?” versus “a que velocidade os carros bateram levemente?” — Loftus demonstrou que os participantes ajustavam suas memórias do evento conforme a linguagem utilizada. Em versões mais agressivas da pergunta, as pessoas não só estimavam velocidades maiores como lembravam de estilhaços de vidro que não existiam no vídeo original.

Essa maleabilidade da memória tem implicações diretas em decisões estratégicas. Reuniões de análise pós-mortem, revisões de campanha ou diagnósticos de falhas são altamente vulneráveis a esses efeitos. Um time pode, meses depois de um lançamento mal-sucedido, lembrar ter identificado sinais de risco que na época não pareciam relevantes, convencendo-se de que “já sabiam” do problema. Ou ao contrário: esquecer completamente alertas e ressalvas que foram levantados. O resultado são narrativas simplificadas e autoconsistentes — mas muitas vezes falsas.

Além desses vieses centrais, há outros mecanismos que reforçam esse problema. A suggestibility mostra como podemos adotar detalhes falsos sugeridos por outros — um risco clássico em grupos homogêneos, onde versões dominantes dos fatos se cristalizam. O spacing effect nos lembra que memórias consolidadas ao longo do tempo (com revisitas espaçadas) tendem a se fixar mais, o que é bom para aprendizagem deliberada — mas também para a consolidação de versões distorcidas se não forem questionadas.

Em estratégia, reconhecer essa fragilidade não é apenas uma questão de rigor intelectual. É uma necessidade prática para evitar decisões baseadas em diagnósticos viciados. Significa deliberadamente criar processos que confrontem lembranças dominantes, trazer evidências documentais, e fomentar a pluralidade de perspectivas para reduzir o risco de narrativas enganosas.

Generalizar é com a gente mesmo

Quando se trata de memória, nosso cérebro não se limita a armazenar fatos isolados — ele organiza, sintetiza e generaliza. Esse processo não é defeito: é uma necessidade. Diante de um volume quase infinito de experiências, precisamos comprimir a realidade em esquemas mais manejáveis. Guardar cada detalhe seria impraticável; criamos padrões para agir mais rápido. Mas essa simplificação, que tanto nos ajuda a navegar o mundo, tem custos altos — especialmente quando se transforma em distorção sistemática.

Um dos aspectos mais estudados dessa tendência é o fenômeno das associações implícitas. Psicólogos como Mahzarin Banaji e Anthony Greenwald desenvolveram, nos anos 1990, o Implicit Association Test (IAT) para medir o grau em que certas ideias, grupos ou características estão associadas em nossa mente de forma automática e não consciente. O resultado foi contundente: mesmo pessoas que se consideram justas ou imparciais exibem associações automáticas entre grupos sociais e traços específicos — como competência ou periculosidade. Essas conexões não surgem de reflexão cuidadosa, mas de exposição constante a padrões culturais, linguagem, imagens e narrativas repetidas.

Em estratégia, esse viés se manifesta de forma sorrateira e potente. Tomadores de decisão podem, sem perceber, associar determinados perfis de público a maior lucratividade ou menor risco — não com base em dados, mas em estereótipos. Um produto voltado para mulheres pode receber menos investimento em tecnologia ou design sofisticado porque “não precisa impressionar tanto”. Uma marca premium pode resistir a entrar em mercados populares por achar que “não combina” com o público. Essas são decisões que parecem racionais — e muitas vezes até são defendidas com números — mas que nascem de inferências simplificadas e não questionadas.

Outro viés relacionado é o negativity bias. Como mostrou Paul Rozin em seus estudos, eventos negativos tendem a ter um peso maior na formação de impressões e memórias do que eventos positivos de mesma intensidade. Isso fazia sentido evolutivo: prestar mais atenção a perigos reais podia salvar vidas. Mas no mundo dos negócios, esse viés pode levar à aversão exagerada a riscos ou à perpetuação de estigmas. Mercados inteiros podem ser descartados como “problemáticos” por causa de episódios isolados. Estratégias promissoras podem ser abandonadas ao menor sinal de dificuldade, enquanto sucessos consistentes são vistos como “normais” e pouco analisados.

Um efeito curioso, mas relacionado, é o fading affect bias — a tendência de as emoções associadas a memórias negativas enfraquecerem mais rápido do que as positivas. Isso ajuda a explicar por que equipes, meses depois de um fracasso, podem minimizá-lo emocionalmente, abrindo espaço para repetir erros. Em apresentações de resultados, o lado bom costuma receber destaque, enquanto o lado ruim se dilui na memória coletiva, criando uma narrativa otimista mas frágil.

Esses mecanismos não operam isolados. Eles se alimentam e se reforçam em ambientes organizacionais onde há pressão por consenso, falta de diversidade cognitiva ou pouca disposição para expor visões desconfortáveis. Sem processos que confrontem essas generalizações, a empresa acaba tomando decisões que não refletem o mercado real, mas sim uma versão simplificada, enviesada e muitas vezes excludente dele.

Para quem trabalha com estratégia, o desafio não é abolir as generalizações — algo impossível — mas torná-las explícitas e questionáveis. Significa olhar para pesquisas de público e perguntar: “Que suposições estamos fazendo sobre essas pessoas?” Significa revisar posicionamentos e campanhas com o olhar crítico: “Estamos reforçando estereótipos ou rompendo com eles?” E sobretudo, significa cultivar uma cultura em que os esquemas mentais possam ser testados, discutidos e — quando necessário — abandonados.

A máquina de resumir

Quando tentamos lembrar de algo complexo — uma reunião longa, uma viagem, uma pesquisa de mercado cheia de dados — não armazenamos cada detalhe de forma completa. Em vez disso, nosso cérebro resume. Reduz eventos e listas a alguns elementos-chave, escolhendo o que parece mais representativo ou emocionalmente marcante. Essa simplificação é essencial para lidar com a limitação de nossa memória operacional, mas também cria atalhos que distorcem a forma como analisamos o passado e planejamos o futuro.

Um dos vieses mais famosos desse processo é o peak–end rule, descrito por Daniel Kahneman e Barbara Fredrickson nos anos 1990. Eles mostraram que as pessoas tendem a avaliar experiências passadas não pela média de todos os momentos, mas por dois pontos específicos: o pico emocional (bom ou ruim) e o final. Em um experimento clássico com dor, participantes avaliavam uma experiência menos negativamente quando ela terminava com um nível de dor mais leve, mesmo que a duração total fosse maior. Para o cérebro, o “fim” e o “ápice” moldavam a lembrança — não a soma objetiva de tudo.

Em estratégia, isso tem implicações claras. Ao avaliar um projeto ou uma campanha, equipes podem dar peso excessivo ao momento de maior sucesso ou fracasso, ignorando o desempenho médio ao longo do tempo. Um pico de vendas durante uma promoção agressiva pode levar a conclusões otimistas sobre o produto, mesmo se o resto do ciclo foi medíocre. Da mesma forma, um problema pontual no final de um projeto pode manchar a percepção geral, mesmo que a execução tenha sido sólida.

Outro fenômeno relacionado é o serial position effect — nossa tendência de lembrar melhor os itens do início (primacy effect) e do fim (recency effect) de uma lista ou sequência. Esse viés foi observado já em experimentos de Ebbinghaus no século XIX e tem sido replicado inúmeras vezes desde então. Em apresentações estratégicas, por exemplo, argumentos colocados no começo ou no fim costumam ser mais lembrados e influentes. Decisões podem acabar se baseando não no argumento mais robusto, mas no mais bem posicionado.

O leveling and sharpening também merece atenção. Esse mecanismo descreve como, ao recontarmos uma história, certos detalhes são achatados ou omitidos (leveling), enquanto outros são exagerados ou destacados (sharpening). É o que transforma uma análise rica em uma narrativa simplificada, mas distorcida. No ambiente corporativo, relatórios e discussões acabam privilegiando algumas métricas ou insights chamativos, enquanto nuances importantes desaparecem. Isso cria um efeito cumulativo: ao longo de múltiplas recontagens, a complexidade original se perde, e o “fato” que sobra pode ter pouco a ver com a realidade inicial.

Há ainda efeitos mais técnicos, mas não menos importantes. O misinformation effect, estudado por Elizabeth Loftus, mostra como memórias podem ser distorcidas por informações recebidas depois do evento original. Em estratégias organizacionais, isso aparece quando análises iniciais são “corrigidas” com dados posteriores sem registro claro da mudança, contaminando a memória coletiva sobre o que realmente aconteceu.

Esses vieses não são falhas aleatórias. Eles são produtos da necessidade de reduzir complexidade. Mas se não os reconhecemos, eles criam diagnósticos pobres e planos frágeis. Uma boa prática estratégica, portanto, exige esforço consciente para revisar não apenas os dados, mas também a forma como os lembramos e resumimos.

A tal da memória seletiva

Como já dissemos, não podemos considerar nosso cérebro como um arquivo fiel dos fatos, pronto para consulta. Na prática, ele funciona menos como um arquivo e mais como um editor. Ele não guarda tudo com o mesmo cuidado. Precisa decidir o que vale a pena registrar, como organizar, o que resumir e o que descartar. Esse processo não é defeito — é uma adaptação. Mas cria distorções sistemáticas que têm implicações profundas para decisões estratégicas.

Um primeiro aspecto importante é a forma como simplificamos experiências complexas. Quando tentamos lembrar de uma reunião longa, uma pesquisa cheia de dados ou uma negociação complicada, não retemos cada detalhe. Em vez disso, reduzimos tudo a alguns elementos-chave, escolhendo o que parece mais representativo ou emocionalmente marcante. Daniel Kahneman e Barbara Fredrickson mostraram esse mecanismo no chamado peak–end rule: nossa avaliação de uma experiência depende muito mais do pico emocional (positivo ou negativo) e do final do que da média de todos os momentos. Em um experimento com dor, os participantes preferiam sessões mais longas que terminavam de forma mais suave a sessões mais curtas mas intensas no final.

Em estratégia, isso se traduz em riscos claros. Equipes podem supervalorizar o ápice de uma campanha bem-sucedida ou um problema no encerramento de um projeto, ignorando o desempenho médio. Um pico de vendas durante uma ação agressiva pode gerar projeções otimistas, mesmo que o resto do ciclo tenha sido medíocre. Da mesma forma, um erro pontual no fechamento de um processo pode manchar a percepção geral de um trabalho sólido.

Outro viés estrutural é o serial position effect, estudado desde Ebbinghaus no século XIX. Ele mostra que lembramos melhor dos itens no início (primacy effect) e no fim (recency effect) de uma lista ou sequência. Em apresentações estratégicas, os argumentos colocados nesses pontos são mais lembrados — e, portanto, mais persuasivos — mesmo que não sejam os mais robustos. Em reuniões, esse efeito pode direcionar decisões para as falas mais bem posicionadas, não necessariamente as mais relevantes.

Essas distorções continuam quando contamos ou recontamos experiências. O leveling and sharpening descreve como certos detalhes são achatados ou omitidos, enquanto outros são destacados e exagerados. Relatórios, resumos executivos ou conversas informais reduzem análises complexas a histórias simplificadas. O risco é que, a cada recontagem, nuances importantes desapareçam, e o que sobra seja uma narrativa que tem pouco a ver com a realidade inicial.

Há também o misinformation effect, documentado por Elizabeth Loftus. Ele mostra como memórias podem ser contaminadas por informações recebidas depois do fato. Em contextos corporativos, isso acontece quando ajustes feitos em análises ou relatórios não são claramente registrados. Com o tempo, ninguém sabe mais qual foi a conclusão original — apenas a versão “corrigida”, que pode carregar erros ou viés político.

Esses mecanismos de simplificação e edição são reforçados por outros fatores relacionados à forma como codificamos memórias. O levels of processing effect, proposto por Craik e Lockhart, demonstrou que informações processadas superficialmente são lembradas de forma fraca. Ler relatórios por alto ou assistir a apresentações sem engajamento gera lembranças frágeis. Em contraste, análises discutidas em profundidade, que exigem elaboração, ficam mais fixadas.

O testing effect amplia essa ideia. Recuperar ativamente informações — por exemplo, ao explicar ou defender uma conclusão — fortalece a memória muito mais do que apenas reler ou ouvir passivamente. Estratégias de treinamento ou reuniões que estimulam esse tipo de interação melhoram não apenas a retenção, mas a capacidade de aplicar o conhecimento depois.

Mas a atenção é um recurso limitado. O absent-mindedness é o nome dado aos lapsos de memória gerados por distração no momento do registro. Uma decisão tomada em uma reunião dispersa, com celulares vibrando e discussões paralelas, tende a ser lembrada de forma fragmentada ou até distorcida. Isso afeta a memória coletiva de uma organização, criando diagnósticos confusos ou planos mal fundamentados.

Há também fenômenos mais sutis. O next-in-line effect mostra que temos dificuldade em lembrar o que foi dito imediatamente antes de falarmos. Em uma reunião, quem se prepara para apresentar sua parte costuma ignorar — sem perceber — as falas anteriores. Esse detalhe fragmenta debates e impede construções mais integradas.

O tip of the tongue phenomenon revela a frustração de quase lembrar algo importante sem conseguir recuperar a informação. Em contextos estratégicos, isso mostra a limitação de depender apenas da memória individual, reforçando a importância de registros bem feitos e fáceis de acessar.

E, em um mundo conectado, o Google effect (ou digital amnesia) é cada vez mais relevante. Estudos mostram que saber que podemos procurar algo depois nos torna menos propensos a lembrar da informação em si. Ferramentas de busca são úteis, mas não substituem a necessidade de internalizar conhecimento crítico — especialmente para decisões que exigem conexão rápida de ideias.

Essas distorções não são falhas pontuais. Elas são consequência de adaptações evolutivas que priorizam relevância, clareza e economia cognitiva. Mas, em estratégia, onde decisões se baseiam em análises passadas e projeções futuras, esses atalhos podem criar diagnósticos pobres e planos frágeis.


É importante termos sempre em mente que pensar estrategicamente é, antes de qualquer técnica ou modelo, uma atividade profundamente humana. No sentido de que apenas nós somos capazes desse alto nível de elaboração. Mas, como toda atividade humana, ela está sujeito às limitações do nosso próprio aparato mental. Ao longo desses dois artigos vimos como nosso cérebro foi moldado para resolver problemas com rapidez e eficiência — mas não necessariamente com precisão ou profundidade.

Essa não é uma falha acidental. É o resultado de um projeto evolutivo que priorizou a sobrevivência no curto prazo, a ação diante de sinais ambíguos e a simplificação de um mundo excessivamente complexo. O Sistema 1, como Kahneman descreve, opera com velocidade e confiança, oferecendo atalhos úteis para decisões cotidianas. Mas são justamente esses atalhos que se tornam armadilhas quando o problema exige reflexão, comparação entre alternativas e visão de longo prazo — todas condições essenciais para uma boa estratégia.

Viemos mapeamos como o excesso de informação no ambiente gera confusão, exige filtros rápidos e convida ao uso de heurísticas que distorcem o diagnóstico. Também exploramos como as limitações internas — a urgência de decidir, a pressão por parecer confiante, a memória falha — moldam nossas decisões sem que percebamos. Esses mecanismos não são exceção: são a forma padrão de operação da mente humana.

Reconhecer isso é desconfortável, mas necessário. Porque se existe um ponto central em toda essa discussão, é este: o maior risco para a qualidade de uma decisão estratégica não está apenas no mercado, nos concorrentes ou nos dados disponíveis — ele está em como pensamos. Em como interpretamos sinais, em como contamos histórias para nós mesmos e em como simplificamos o que deveria ser examinado com cuidado.

Ao entender esses vieses estamos tentando iluminar o terreno em que, gostemos ou não, somos obrigados a jogar. Estratégia acontece sob incerteza. E incerteza é justamente o contexto em que essas distorções se tornam mais ativas e perigosas. Não há como eliminá-las completamente. Mas há como reconhecê-las, criar mecanismos para reduzi-las e tomar decisões que sejam melhores não por estarem livres de erro — mas por estarem mais conscientes do risco de errar.

Agora, temos que mudar o foco. Se até aqui, nos detivemos em entender o problema — mapeando os limites estruturais do nosso julgamento – temos que passar para a prática: como podemos agir para melhorar a qualidade do nosso pensamento estratégico? Quais comportamentos individuais e coletivos ajudam a enfrentar esses atalhos mentais? Como criar processos, rotinas e culturas organizacionais que não eliminem, mas ao menos contenham o poder destrutivo desses vieses?

Inscreva-se nas nossas newsletters

Receba conteúdos sobre estratégia toda semana no seu email
Compartilhe a publicação

Danie Kahneman

vieses cognitivos

vies cognitivo

Outras coisas bacanas que a gente publicou ou leu e você também pode gostar

Assumindo a liderança como estrategista

Ver mais

Storytelling: Contando Histórias Fortes

Ver mais

Como Negociar com Efetividade

Ver mais

Migrando do Marketing para a Estratégia em agência

Ver mais

Procuram-se Gerentes de Estratégia

Ver mais

Pensando estrategicamente a carreira

Ver mais

Walmart, Amazon e as decisões por trás da guerra

Ver mais

Entre distorções, vieses e estratégias [parte #2]

Ver mais

Entre distorções, vieses e estratégias [parte #1]

Ver mais

Um olhar sobre ambientes competitivos e como jogar

Ver mais

Estratégia e os descaminhos do cérebro

Ver mais

O risco da incerteza

Ver mais

ter
29
abr 2025

Masterclass: Smart Desking

com Bruno Alrieri, Gerente Sr de Planejamento Estratégico da...

seg
05
mai 2025

Live Recording: CX

Com Anny Atti, Carlos Borges, Matheus Noronha, Thais dos San...

ter
20
mai 2025

Masterclass: Decoding Drop Culture

com Leonardo Ribeiro, Gerente de Marca LATAM na Natura ...

seg
02
jun 2025

Live Recording: CRM

Com Anny Atti, Carlos Borges, Matheus Noronha, Thais dos San...

ter
17
jun 2025

Masterclass: Mandando Bem na Hora da Entrevista

com Rafael Prieto, Executive Strategy Director da David ...

seg
07
jul 2025

Live Recording: Future Proof ESG

com Carol Gentil, Chief Strategy Officer da Beyond Impact ...

ter
29
jul 2025

Masterclass: Gerenciamento Estratégico de Erros

com Lígia Paes de Barros, Head de Estratégia da The Juju Bra...

seg
11
ago 2025

Sprint: Augmented Strategy

com Daniel De Tomazo e Felipe Senise, fundadores da Sandbox ...

Assine nossas

Inscreva-se na nossa newsletter e receba novidades, conteúdos exclusivos e ofertas especiais direto no seu e-mail. Não perca nada!

Assine nossas

Inscreva-se na nossa newsletter e receba novidades, conteúdos exclusivos e ofertas especiais direto no seu e-mail. Não perca nada!

Preencha as informações para baixar o programa completo

Quero receber novidades