Entre distorções, vieses e estratégias [parte #1]

Depois de entender como nossa mente opera — com dois sistemas que se alternam entre o automático e o deliberado — já sabemos que os maiores riscos para a qualidade das decisões não estão apenas no ambiente, mas no próprio funcionamento do nosso cérebro. Os vieses cognitivos não são exceções: são parte do sistema. Não surgem por distração ou ignorância, mas justamente da tentativa de pensar rápido em um mundo que exige profundidade.

A essa altura, o ponto central já está claro: pensar estrategicamente é difícil não apenas por causa da complexidade dos problemas, mas porque nossa mente é equipada com mecanismos que, apesar de úteis no dia a dia, tendem a falhar em situações que pedem análise mais cuidadosa. A questão agora é entender quais dessas distorções mentais mais atrapalham o raciocínio estratégico — e por que algumas delas merecem atenção especial.

Para organizar essa investigação, vale dividir o problema em dois grandes campos. De um lado, os ruídos que vêm de fora: o excesso de informação, a velocidade com que os sinais chegam, a dificuldade de dar sentido a tanto dado solto. O mundo nunca falou tanto, mas nunca fez tão pouco sentido. Nesse cenário, nosso cérebro busca padrões, preenche lacunas, cria histórias. É aí que os primeiros desvios aparecem.

De outro lado, há os limites que vêm de dentro: a urgência de decidir rápido, o cansaço mental, a ilusão de controle, as memórias falhas. Mesmo quando conseguimos acessar as informações certas, ainda estamos sujeitos à pressa, ao estresse e à falsa confiança. Nossas decisões, então, são moldadas não só pelo que sabemos, mas por como estamos no momento em que decidimos.

Esses dois eixos — o que está fora e o que está dentro — ajudam a explicar por que tantos erros de julgamento acontecem mesmo entre pessoas experientes, bem informadas e bem-intencionadas. Afinal, se o pensamento estratégico depende da qualidade da análise, da clareza no diagnóstico e da precisão nas apostas, qualquer distorção nesse caminho pode gerar uma decisão mal calibrada.

A partir de agora, vamos explorar os principais vieses que surgem quando nos deparamos com esse primeiro tipo de obstáculo: o ruído externo. É o que acontece quando temos muita informação, mas pouca clareza. Quando tudo parece relevante, mas nada faz sentido. E, diante desse caos, nosso cérebro tenta ordenar o mundo — mesmo que para isso precise distorcer a realidade.

A sobrecarga invisível

Pensar estrategicamente é, antes de tudo, um esforço de interpretação. A matéria-prima da estratégia é informação — e quanto melhor for a leitura do cenário, mais sólido tende a ser o raciocínio por trás de uma boa escolha. Não por acaso, desde os primeiros tratados sobre arte militar até os manuais contemporâneos de gestão, há um ponto em comum: vencer começa por enxergar bem.

Mas o que acontece quando enxergar bem deixa de ser uma questão de atenção e passa a ser um problema de excesso? Quando o desafio não é mais descobrir, mas filtrar? Quando não falta dado, e sim discernimento?

Essa é, talvez, uma das transformações mais radicais enfrentadas por quem toma decisões hoje. Porque se informação sempre foi um diferencial, ela agora se tornou um problema. O acúmulo contínuo de dados, sinais, relatórios, inputs e notificações criou uma espécie de camada invisível que obscurece, mais do que revela. E essa camada tem um nome: excesso.

O volume de informação disponível no mundo hoje cresce de forma exponencial. Estimativas apontam que, a cada dois anos, estamos dobrando a quantidade de dados gerados. São bilhões de posts, vídeos, mensagens, relatórios, planilhas e e-mails circulando todos os dias. Nunca foi tão fácil acessar conteúdo, e nunca foi tão difícil transformar isso em compreensão real. Voltemos por um momento no tempo.

Durante séculos, a informação era escassa, cara e concentrada. O acesso ao conhecimento era restrito a elites — seja na Grécia antiga, nos mosteiros medievais ou nas primeiras universidades. Estratégia, naquele contexto, era formulada a partir de poucas fontes, com base em observações diretas e saber acumulado. Havia margem para erro, claro, mas havia também um certo foco forçado pela limitação dos meios.

Com a chegada da imprensa, no século XV, essa realidade começou a mudar. A informação passou a circular com mais velocidade e volume. Aos poucos, o conhecimento deixou de ser monopólio e passou a se espalhar. Essa ampliação foi uma conquista civilizatória — mas também trouxe novos desafios para quem precisava decidir: mais opiniões, mais interpretações, mais ruído.

Já no século XX, com a revolução digital, a curva do excesso começou a se inclinar com mais força. A introdução dos computadores, seguida pela internet, multiplicou exponencialmente a capacidade de produzir, armazenar e distribuir dados. No século XXI a escala tem se ampliado brutalmente. Informações que antes eram difíceis de encontrar passaram a ser difíceis de evitar. E o que antes era privilégio virou sobrecarga.

Esse fenômeno tem sido descrito por muitos estudiosos como “infobesidade” — uma analogia direta com o excesso de comida no mundo moderno. Assim como o excesso calórico, o excesso informacional não significa nutrição. Pelo contrário: quanto mais ingerimos, menos digerimos. E, na tentativa de consumir tudo, ficamos cada vez mais pesados e confusos.

A infobesidade afeta diretamente o pensamento estratégico porque transforma o ato de analisar em uma tarefa interminável. Sempre há mais um dado a considerar, mais uma aba aberta no navegador, mais uma planilha esperando ser lida. O tempo que antes era dedicado a pensar passou a ser consumido pela coleta e processamento contínuo de informações — muitas vezes irrelevantes, redundantes ou contraditórias entre si.

O que parecia ser uma vantagem — acesso abundante — se converte em paralisia. Analistas ficam presos em ciclos de investigação infinita. Tomadores de decisão hesitam diante de alternativas demais. E líderes confundem quantidade com qualidade, exigindo mais dashboards e relatórios, quando o que falta é síntese e clareza.

No ambiente corporativo, essa mudança transformou profundamente a prática da estratégia. Em vez de um punhado de informações-chave analisadas por executivos experientes, passamos a operar com equipes inteiras dedicadas a business intelligence, analytics, foresight e pesquisa. São funções essenciais, sem dúvida. Mas quando mal integradas, podem criar um paradoxo: mais informação, menos direção.

Essa é a ironia da era da informação: temos mais dados do que nunca, mas não necessariamente mais clareza. Estamos mais conectados, mas nem sempre mais conscientes. E o excesso, em vez de empoderar, confunde. Como escreveu Herbert Simon, prêmio Nobel e um dos fundadores da ciência da decisão, ainda nos anos 1970: “uma riqueza de informação cria uma pobreza de atenção”.

No campo da estratégia, essa pobreza de atenção é fatal. Porque exige do cérebro algo que ele não está preparado para fazer naturalmente: filtrar, priorizar, ignorar o excesso. Nosso impulso natural diante de muita informação é buscar padrões, completar histórias, fazer sentido rápido. E é aí que o risco aumenta. Porque quando o volume ultrapassa nossa capacidade de processamento, o cérebro recorre a atalhos — e esses atalhos são os vieses.

Sob a pressão da infobesidade, a mente busca simplificações. Damos mais peso ao que está mais disponível (viés de disponibilidade), confiamos nas primeiras informações recebidas (ancoragem), ou procuramos dados que confirmem aquilo que já achávamos. A sobrecarga não apenas nos confunde — ela ativa mecanismos mentais que distorcem a realidade.

Se está fresco é sempre melhor

Nosso cérebro não trata toda informação da mesma forma. Diante da avalanche de dados que recebemos diariamente, ele desenvolveu uma estratégia de sobrevivência: dar mais atenção ao que já está “ativado” na memória. Ou seja, aquilo que vimos recentemente, que ouvimos com frequência ou que, por algum motivo, está mais acessível no nosso repertório mental. Essa é uma das formas mais simples — e mais traiçoeiras — de filtrar o excesso de informação.

Diversos vieses cognitivos nascem desse mecanismo. O mais conhecido talvez seja a heurística da disponibilidade (availability heuristic), formulada por Amos Tversky e Daniel Kahneman no início dos anos 1970. Em um experimento clássico, os pesquisadores pediram que pessoas julgassem se havia mais palavras em inglês que começavam com a letra “K” ou que tinham “K” como terceira letra. A maioria respondeu que havia mais palavras começando com “K” — o que está errado. O truque está em como buscamos essas palavras na memória: é muito mais fácil lembrar de exemplos como kite, kangaroo ou king do que de palavras como ask ou bake, que têm “K” na terceira posição. A facilidade de acesso à memória distorceu o julgamento da realidade.

Esse viés é extremamente relevante para o pensamento estratégico, porque nos leva a superestimar a importância ou probabilidade de eventos recentes ou mais disponíveis na mídia, por exemplo. Se um concorrente acabou de lançar um produto, ele pode parecer mais ameaçador do que de fato é. Se uma campanha de marketing viralizou, ela pode parecer mais eficaz do que realmente foi. A mente confunde visibilidade com relevância.

Outro efeito derivado dessa lógica é o efeito da verdade ilusória (illusory truth effect), identificado pela primeira vez em um estudo de 1977 conduzido por Lynn Hasher, David Goldstein e Thomas Toppino. Nesse experimento, os participantes liam diversas afirmações — algumas verdadeiras, outras falsas — e tinham que julgar se eram corretas. Semanas depois, ao serem expostos novamente a essas frases (mesmo sem lembrança consciente de tê-las visto antes), aumentava a chance de considerarem as afirmações verdadeiras, apenas por já terem sido lidas antes. A repetição gerava familiaridade, e a familiaridade gerava uma falsa sensação de veracidade.

Há ainda o efeito da mera exposição (mere exposure effect), descrito por Robert Zajonc, que mostra como tendemos a gostar mais do que nos é repetidamente apresentado, mesmo que sem significado. Isso vale para rostos, palavras, símbolos ou marcas. Em contextos estratégicos, isso ajuda a explicar o poder da frequência na publicidade — mas também os perigos de seguir caminhos apenas por serem os mais familiares.

Todos esses vieses têm um ponto em comum: a facilidade de acesso à memória como critério de valor. Em vez de avaliar criticamente as informações, o cérebro toma atalhos. E esses atalhos podem fazer com que ideias já conhecidas pareçam melhores do que realmente são — e que o novo, o desconhecido ou o invisível acabe negligenciado.

Mudanças são magnéticas para o cérebro

Nosso cérebro é atraído por mudanças como uma mariposa pela luz. Quando algo se altera — um número sobe, um cenário vira manchete, um concorrente lança algo novo — nossa atenção se acende. Mudança, para o cérebro, é sinônimo de sinal. Mas o problema é que nem todo sinal merece resposta. E mesmo os que merecem não costumam ser analisados com rigor. Tendemos a julgar as mudanças pela direção — melhorou ou piorou? — e não pela relevância, nem pela qualidade da informação embutida naquela variação.

É esse mecanismo que está na raiz de alguns dos vieses mais insidiosos para o pensamento estratégico. O primeiro deles é o focusing effect — a tendência de dar peso desproporcional a um único aspecto visível, em detrimento do todo. Daniel Kahneman e David Schkade ilustraram isso com um experimento simples, mas poderoso: perguntaram a estudantes do Meio-Oeste dos Estados Unidos se achavam que pessoas que moravam na Califórnia eram mais felizes. A maioria respondeu que sim, presumindo que o clima ensolarado tornava a vida melhor. Mas a própria pesquisa mostrava que os níveis de felicidade eram similares. O que distorcia o julgamento era o foco: ao pensar na Califórnia, o cérebro se agarrava à variável mais saliente — o clima — ignorando dezenas de outras que afetam o bem-estar cotidiano.

Esse viés não se limita à geografia. Ele aparece em qualquer análise em que um número chama mais atenção do que o conjunto. Um lançamento recente, uma queda brusca de vendas em uma praça, uma pesquisa com um dado fora da curva: tudo isso pode sequestrar o foco da discussão. E, quando isso acontece, o julgamento se inclina para a exceção visível — não para a regra silenciosa.

Outro viés que opera nesse território é o contrast effect — a forma como a comparação entre duas coisas altera a percepção que temos de cada uma delas. O exemplo clássico vem do varejo: um produto de R$ 300 pode parecer caro até que se coloque ao lado de outro de R$ 600. De repente, o primeiro parece “em conta”. O cérebro não avalia os valores absolutos de forma isolada, ele os interpreta pelo contraste. O mesmo acontece com metas, campanhas, resultados de concorrentes. Em vez de perguntarmos se um resultado é bom, tendemos a perguntar se ele é melhor ou pior que o anterior — mesmo quando as circunstâncias mudaram completamente.

Esse padrão também explica a força do efeito âncora (anchoring effect) que mencionamos anteriormente. Quando somos expostos a um valor inicial — mesmo que aleatório — nossa mente o usa como ponto de partida para julgar qualquer valor subsequente.

No mundo das decisões estratégicas, a ancoragem é onipresente: um preço anterior influencia o que achamos de um reajuste; uma meta do ano passado molda como avaliamos o desempenho atual; o que o concorrente fez vira referência de sucesso — mesmo que o contexto dele seja outro. E como tendemos a ajustar pouco a partir da âncora, esse efeito distorce comparações e paralisa a reavaliação.

Para piorar, o cérebro ainda sofre da chamada ilusão monetária (money illusion): a tendência de avaliar números nominais sem considerar seu valor real. Um faturamento que cresceu 8% pode parecer ótimo — até lembrarmos que a inflação foi de 10%. Um bônus maior parece uma recompensa, mesmo que o custo de vida tenha subido mais. Estratégias ancoradas em crescimento nominal correm o risco de mascarar deteriorações reais. E pior: criam uma falsa sensação de progresso, quando na verdade se está perdendo força relativa.

Esses vieses são diferentes, mas operam juntos. Primeiro, o cérebro se fixa em uma variável visível (focusing effect). Depois, a compara com algo recente ou disponível (contrast effect), ajustando levemente a partir da primeira referência recebida (anchoring). E tudo isso ocorre com uma baixa sensibilidade ao valor real por trás da mudança (money illusion). O resultado é um sistema de julgamento que responde rápido, mas entende mal.

No cotidiano da estratégia, isso se traduz em reações exageradas a variações marginais, mudanças de rumo precipitadas com base em dados parciais e um excesso de confiança em métricas que apenas “parecem” boas. Estratégia exige discernimento — mas esse discernimento é sabotado quando tratamos toda mudança como sinal, todo contraste como verdade e toda variação como oportunidade ou ameaça.

A clareza começa quando se percebe: nem tudo que mudou é importante. E nem tudo que importa muda visivelmente. O cérebro, no entanto, continua premiando o que salta aos olhos. Nosso trabalho é treiná-lo para enxergar além disso.

O cérebro quer estar certo, não aprender

Poucas forças atuam de forma tão sorrateira — e tão poderosamente — sobre nossas decisões quanto o desejo de confirmar aquilo em que já acreditamos. Uma vez que uma ideia se instala em nossa mente, passamos a enxergar o mundo por meio dela. E tudo que reforça essa crença nos parece evidente, lógico, verdadeiro. Já aquilo que a contraria… tende a ser ignorado, minimizado ou descartado como exceção.

Essa inclinação mental é conhecida como confirmation bias — viés de confirmação. E está entre os vieses mais estudados, documentados e perigosos para qualquer processo que envolva julgamento, diagnóstico ou escolha estratégica. O cérebro humano, ao que tudo indica, não busca a verdade objetiva de maneira imparcial. Ele busca coerência com aquilo que já pensa. É um sistema de validação, não de investigação.

A primeira formulação robusta desse viés vem da psicologia cognitiva dos anos 1960. Um dos experimentos mais citados foi conduzido por Peter Wason, psicólogo britânico que criou o chamado Wason Selection Task. Ele apresentava aos participantes uma regra simples: “Se uma carta tem um número par de um lado, então tem uma vogal do outro.” As pessoas viam cartas com letras e números e precisavam decidir quais virar para testar a regra. A maioria escolhia aquelas que poderiam confirmá-la. Raramente escolhiam as que poderiam refutá-la — mesmo sendo essas as mais informativas do ponto de vista lógico. O experimento mostrava que nossa mente não é treinada para falsificação empírica, como exige o método científico, mas sim para confirmação intuitiva.

Desde então, centenas de estudos ampliaram esse entendimento. Um dos experimentos mais célebres a demonstrar isso foi conduzido em 1979 pelos psicólogos Charles Lord, Lee Ross e Mark Lepper, na Universidade de Stanford. Eles reuniram dois grupos de participantes com opiniões fortemente opostas sobre a pena de morte: alguns eram favoráveis, outros contrários. Todos receberam dois estudos científicos — um sugeria que a pena de morte era eficaz para reduzir o crime; o outro, que não era. Ambos os estudos foram fictícios, mas cuidadosamente redigidos para parecerem plausíveis. O resultado? As pessoas tendiam a considerar confiável o estudo que apoiava suas crenças prévias e encontravam falhas metodológicas no que contrariava suas convicções. E mais: ao final do experimento, os participantes estavam ainda mais polarizados do que antes.

Ou seja, mesmo diante da mesma informação, interpretada no mesmo contexto, a mente distorceu os dados de forma a proteger a visão de mundo já existente. O estudo não apenas evidenciou o viés de confirmação — ele mostrou que a exposição a dados conflitantes, longe de gerar consenso, pode acirrar as convicções. E, o mais perigoso: ele atua mesmo quando temos acesso a evidências contrárias. Muitas vezes, as ignoramos — ou as reinterpretamos de forma a preservarmos nossa convicção original.

Essa tendência tem desdobramentos práticos importantes. Um deles é o chamado post-purchase rationalization — a racionalização da compra depois que ela já foi feita. Ao adquirir um produto caro, por exemplo, tendemos a supervalorizar suas qualidades e minimizar seus defeitos, para proteger nossa autoestima e justificar a escolha. Em decisões estratégicas, isso se traduz no apego a um caminho escolhido, mesmo quando os primeiros sinais indicam que não está funcionando. É o “já investimos demais para voltar atrás”.

Outro desdobramento comum é o ostrich effect — quando preferimos não olhar para dados negativos que nos forçariam a repensar uma crença. É o que leva líderes a evitar pesquisas com clientes insatisfeitos, ou a não aprofundar análises de iniciativas que parecem promissoras, mas talvez estejam performando abaixo do esperado. É mais confortável ignorar do que enfrentar.

Esse tipo de distorção também ajuda a explicar por que times que pensam igual erram juntos. Quanto maior a homogeneidade de um grupo, menor a chance de alguém trazer um dado dissonante à mesa. O grupo reforça suas próprias crenças, interpreta sinais ambíguos do mesmo jeito, e cria uma espiral de autoilusão — o que os psicólogos chamam de groupthink.

Para quem trabalha com estratégia, a consequência é clara: hipóteses devem ser formuladas, mas também precisam ser testadas com disposição genuína para encontrá-las erradas. Isso exige criar rotinas deliberadas de confronto, abrir espaço para a divergência, usar dados para tensionar a narrativa — e não apenas para ilustrá-la. Porque o cérebro, por padrão, quer confirmar. E, se não for desafiado, vai fazer isso com uma eficiência assustadora.

Perdidos na informação, famintos por sentido

Se o excesso de informação nos obriga a filtrar com pressa, há outro tipo de confusão ainda mais sorrateiro: saber cada vez mais coisas e entender cada vez menos o que elas significam. A mente humana não foi feita para acumular dados em planilhas — ela precisa de estrutura, padrões, histórias. Precisa transformar ruído em sentido. E, diante de um mundo hiperconectado e saturado de estímulos, é justamente esse sentido que começa a faltar.

Não é por acaso que tantos profissionais hoje se sentem sufocados por relatórios, dashboards e pesquisas, mas ao mesmo tempo desorientados sobre o que tudo aquilo revela. Os dados estão por toda parte, mas o entendimento parece cada vez mais escasso. Em vez de clareza, o que se forma é uma névoa. E é justamente nessa névoa que o cérebro começa a operar seus mecanismos mais perigosos: ele não apenas tenta preencher o vazio com explicações — ele faz isso de forma automática, sem perceber.

A mente detesta incerteza. E, diante do vazio interpretativo, ela corre para colar pedaços de informação com qualquer cola narrativa que esteja à mão. Conexões frágeis viram convicções. Coincidências viram padrões. O que era ambíguo se torna claro, não porque foi compreendido, mas porque foi simplificado.

Esse impulso de atribuir sentido tem uma função adaptativa: nos ajuda a agir rapidamente. Mas é também uma armadilha. Porque o cérebro não busca a verdade — busca coerência. E, no desejo de amarrar as pontas soltas, ignora o que não cabe na história, exagera o que parece relevante e projeta causalidades onde só havia correlação.

É nesse momento que o pensamento estratégico se vê em risco. Porque toda estratégia parte de uma leitura do mundo. E se essa leitura estiver contaminada por interpretações apressadas ou ilusões de sentido, todo o raciocínio construído a partir dela estará comprometido. As escolhas passam a ser baseadas em narrativas atraentes, mas frágeis. Diagnósticos ganham ares de certeza, mesmo quando nasceram de impressões enviesadas.

Mais do que lidar com a complexidade dos dados, o grande desafio passa a ser reconhecer os atalhos que usamos para interpretá-los. Porque o problema não está apenas no volume da informação — está nas histórias que contamos para dar sentido a ela. E, como veremos a seguir, são justamente essas histórias que mais precisam ser examinadas com cuidado.

Aversão a lacunas

Se existe algo que o cérebro detesta, é sentir que está no escuro. Diante de informações fragmentadas, ele não hesita: inventa o que falta. Preenche os espaços vazios com padrões, histórias, correlações improváveis. Esse impulso — automático, inconsciente — é parte fundamental da forma como entendemos o mundo. E também uma das maiores armadilhas do pensamento estratégico.

No campo da psicologia cognitiva, essa tendência é observada em dezenas de vieses diferentes. O mais emblemático talvez seja a ilusão de validade — um termo cunhado por Daniel Kahneman e Paul Slovic para descrever a confiança desproporcional que damos a julgamentos baseados em informações fracas, mas coerentes. A origem do termo está em uma série de experimentos realizados com analistas militares em Israel, que recebiam pequenos dossiês fictícios sobre soldados em treinamento e tinham que prever o desempenho futuro desses recrutas. O conteúdo dos dossiês era montado aleatoriamente, sem qualquer relação com a performance real. Ainda assim, os analistas davam notas com convicção — e mantinham sua confiança mesmo depois de descobrir que seus acertos tinham sido mero acaso.

A explicação, segundo Kahneman, é simples: quando as peças de uma história parecem se encaixar, o cérebro desliga o alarme cético. Em vez de questionar se aquilo faz sentido estatístico, passamos a acreditar que faz sentido narrativo — o que, para a mente humana, é mais do que suficiente. A coerência interna de um relato, mesmo que sem base empírica, é percebida como sinal de validade.

Esse padrão aparece o tempo todo em decisões de negócios. Uma apresentação com gráficos bem desenhados e storytelling envolvente pode convencer um comitê a apostar milhões em uma linha de produto que ainda não tem mercado. Um movimento de um concorrente, que ganhou mídia e tração inicial, é lido como um novo paradigma — mesmo sem evidências de sustentabilidade. E uma pesquisa com três entrevistas emblemáticas — mas enviesadas — se transforma em insumo para uma grande mudança de posicionamento.

A narrativa sedutora suprime a dúvida. E a dúvida, em estratégia, deveria ser o ponto de partida.

Outros vieses operam em conjunto com essa tendência. A clustering illusion, por exemplo, nos faz enxergar padrões onde só há ruído. No mundo dos negócios, isso se traduz em análises de tendências baseadas em poucos dados, como quando vemos um aumento em buscas por uma palavra e deduzimos que há uma nova “onda cultural” em curso — mesmo que o pico seja episódico. A illusory correlation atua da mesma forma: duas variáveis que se movem ao mesmo tempo são vistas como relacionadas. Um clássico é vincular o sucesso de um produto ao uso de determinada linguagem ou canal de mídia, sem investigar o que realmente gerou os resultados.

Outro viés comum é o anecdotal fallacy, que confunde o impacto de uma história com sua representatividade. Em pesquisas qualitativas, por exemplo, uma fala forte de um consumidor pode se sobrepor a padrões consistentes observados nos dados. No marketing, isso aparece na idolatria a “cases”: um anúncio que viralizou em um país é replicado em outros, mesmo que o contexto seja completamente diferente. A exceção vira regra — porque tem cara de verdade.

Todos esses mecanismos derivam de um mesmo impulso: a busca por sentido. E fazem parte de um processo natural de preenchimento cognitivo. Como não temos acesso à totalidade dos dados — e como boa parte da informação que chega até nós já foi previamente filtrada — é inevitável que o cérebro construa hipóteses. O problema é quando essas hipóteses não são tratadas como tal, mas sim como fatos consumados.

Na prática da estratégia, isso cobra um preço alto. Empresas tomam decisões baseadas em padrões ilusórios. Executivos apostam em mudanças motivados por correlações espúrias. Áreas inteiras perseguem explicações erradas porque parecem fazer sentido. Um exemplo recorrente está em análises de resultado: ao ver uma queda de vendas, a equipe pode atribuir a causa a uma mudança recente no tom da comunicação — porque essa foi a principal variável visível. Mas sem um teste controlado, ou uma análise estatística robusta, essa explicação pode não passar de uma ficção plausível.

Outro caso típico é o da “fórmula do sucesso”. Uma empresa acerta em um produto, uma campanha, uma estratégia — e, ao invés de investigar profundamente o que contribuiu para aquele acerto, constrói uma narrativa de causa e efeito que parece razoável. Essa história passa a orientar decisões futuras, mesmo que seus fundamentos sejam frágeis. A ilusão de validade se junta à ilusão de controle, e a empresa passa a operar com confiança em uma narrativa que nunca foi realmente testada.

A boa estratégia, portanto, exige um tipo especial de humildade: a capacidade de reconhecer quando a explicação é insuficiente — mesmo que pareça boa. É preciso resistir à tentação de “fechar a história” rápido demais. Afinal, pensamento estratégico não se faz apenas com informação, mas sobretudo com a forma como escolhemos tratá-la, evitando o erro de acreditar demais no que apenas parece verdade.

O conforto do que nos é familiar

Quando lidamos com um desconhecido, nosso cérebro recorre ao conhecido. Diante de uma informação parcial — um perfil raso, uma descrição incompleta, um dado isolado — ele vasculha a memória em busca de padrões que ajudem a preencher o que está faltando. E preenche mesmo. Com estereótipos, generalizações, crenças anteriores. No momento em que faz isso, ainda temos alguma consciência do que é fato e do que é inferência. Mas, com o tempo, essa distinção se apaga. O que foi adivinhado se mistura ao que foi observado. E a suposição vira certeza.

Esse é o território de um dos vieses mais importantes para o pensamento estratégico: o authority bias — a tendência de atribuir mais valor, credibilidade e confiabilidade às informações vindas de figuras de autoridade, mesmo quando o conteúdo em si é frágil ou impreciso. Em outras palavras, o cérebro terceiriza o julgamento para quem aparenta saber mais. O exemplo clássico está nos experimentos de Stanley Milgram, nos anos 1960. Ele queria entender até onde uma pessoa iria ao seguir ordens de uma figura de autoridade, mesmo que isso significasse prejudicar outra pessoa. No experimento, voluntários acreditavam estar aplicando choques elétricos em outro participante (na verdade, um ator). À medida que a autoridade — um pesquisador com jaleco branco — pedia que continuassem, a maioria obedecia, mesmo diante dos gritos de dor simulados. O resultado foi chocante: 65% dos participantes foram até o fim, aplicando o que acreditavam ser choques letais. A autoridade falava, o julgamento desligava.

No mundo dos negócios, esse padrão se manifesta de maneiras menos dramáticas, mas igualmente influentes. Um especialista renomado afirma que o futuro está no metaverso — e, de repente, a empresa reorganiza seu planejamento estratégico para “não ficar para trás”. Um relatório de uma consultoria de três letras sugere uma grande reorganização estrutural — e o board acata, mesmo sem dados locais que sustentem a mudança. O branding de autoridade funciona: se “alguém importante” disse, deve ser verdade. E, com isso, abdicamos da análise crítica.

Esse viés se intensifica em contextos de alta incerteza, quando há pouca informação e muita pressão por respostas. O que é raro, desconhecido ou complexo costuma ativar esse mecanismo. Em vez de buscar mais dados ou construir conhecimento com base em evidências, pulamos etapas e aceitamos o que parece vir de uma fonte confiável. Não avaliamos o conteúdo. Avaliamos o emissor.

Esse preenchimento automático de sentido também ocorre em situações onde atribuímos características de um grupo ao indivíduo — mesmo sem conhecê-lo. É o que os psicólogos chamam de group attribution error. Quando ouvimos que uma startup é do Vale do Silício, inferimos que ela é inovadora. Se uma marca é japonesa, deduzimos qualidade. Se o consumidor é da classe A, presumimos racionalidade. Esse tipo de inferência parece inofensivo — muitas vezes, até útil — mas pode distorcer completamente o diagnóstico estratégico.

O mesmo vale para o bandwagon effect — a tendência de acreditarmos que algo é bom ou certo simplesmente porque muita gente acredita também. No marketing, esse viés é explorado à exaustão: “mais vendido”, “mais recomendado”, “mais curtido”. Mas, na estratégia, ele pode ser um atalho perigoso. Quando todo o mercado se movimenta para um lado, sentimos que estamos errados ao permanecer onde estamos. E aí nos movemos também, sem avaliar o custo da mudança, nem a adequação da nova direção à nossa realidade.

Há ainda um viés mais sorrateiro: o just-world hypothesis — a crença de que o mundo é essencialmente justo, e que as pessoas colhem o que plantam. Em negócios, isso se traduz em raciocínios como “essa empresa faliu porque era mal administrada” ou “aquela marca cresce porque tem um ótimo produto”. Ignoramos o papel do acaso, das condições externas, das mudanças de contexto. E criamos histórias que explicam o sucesso ou fracasso com base em supostas qualidades intrínsecas — preenchendo os buracos com interpretações morais.

Esses mecanismos operam todos na mesma lógica: quando o dado é incompleto, o cérebro improvisa. Mas, em vez de tratar essas inferências como hipóteses, ele as transforma em certezas. E, pior: esquece que foram inferências.

No cotidiano da estratégia, isso aparece em análises apressadas de mercado. Uma empresa chinesa cresce rapidamente? Devemos imitá-la. Um concorrente usa determinado influenciador? Vamos fazer também. Uma região mostra desempenho ruim? É culpa da equipe local. Em todos esses casos, o julgamento é formado com base em partes — e completado com suposições.

Número não é com a gente

Não importa quanto nos esforcemos, nosso cérebro não foi feito para lidar com probabilidades. Somos péssimos em estatística. Terríveis com proporções. E incrivelmente frágeis quando o assunto envolve riscos, números e incerteza. Mesmo com dados à disposição, nossa intuição insiste em simplificar, arredondar ou ignorar o que não consegue processar direito. E o mais perigoso: faz isso com confiança.

Um dos melhores exemplos disso é o survivorship bias — o viés do sobrevivente. Ele nos faz prestar atenção apenas nos casos que chegaram ao sucesso, ignorando todos os que ficaram pelo caminho. A história clássica vem da Segunda Guerra Mundial. O matemático Abraham Wald foi chamado para analisar os aviões que voltavam das missões com furos de bala. A ideia dos militares era reforçar exatamente essas áreas atingidas. Mas Wald propôs o contrário: reforçar as partes dos aviões que não tinham marcas. Porque os aviões que voltavam estavam nos mostrando onde era possível levar dano e ainda sobreviver. Os que não voltavam — e portanto não apareciam na amostra — provavelmente tinham sido atingidos nos pontos que agora pareciam “seguros”. Era o invisível que contava.

Esse viés aparece o tempo todo em estratégia de negócios. Quando olhamos para unicórnios e empresas de crescimento meteórico, é fácil cair na tentação de copiar seus movimentos. Startups de sucesso pivotaram? Então pivotar deve ser bom. Elas investiram forte em branding? Logo, branding é a alavanca. O problema é que só vemos quem venceu. E esquecemos de olhar para o cemitério de empresas que fizeram a mesma coisa — e não chegaram lá. A ausência de base comparativa cria uma ilusão de causalidade onde só há correlação tênue. A receita do sucesso é montada com ingredientes selecionados a dedo — e cozinhada em estatísticas mal digeridas.

Outro viés que opera nesse mesmo território é o appeal to probability fallacy — a crença de que, se algo pode acontecer, então vai acontecer. É o tipo de raciocínio que transforma cenários possíveis em previsões inevitáveis. Em estratégia, isso leva a análises catastrofistas ou eufóricas com base em dados soltos: “o consumidor pode migrar todo seu consumo para o digital” vira “ele vai abandonar o físico”. “A concorrente pode copiar nosso produto” vira “ela vai lançar algo idêntico em seis meses”. A simples possibilidade vira certeza emocional. E, com isso, a ação estratégica passa a responder ao pânico — não à probabilidade real.

Há também o normalcy bias — a tendência de acreditar que o futuro será uma extensão linear do presente. Mesmo diante de sinais de mudança, o cérebro insiste em projetar estabilidade. Empresas que operam há décadas de uma mesma forma tendem a subestimar rupturas. Marcas consolidadas confiam demais na força atual da marca para enfrentar disrupções. O raciocínio é silencioso, mas poderoso: “sempre funcionou assim, vai continuar funcionando”. Até que não funcione.

Esse padrão de distorção se intensifica em situações que envolvem grandes números ou proporções. O cérebro não sabe o que fazer com eles. Isso foi demonstrado no clássico experimento de Paul Slovic, Daniel Västfjäll e colegas. Eles apresentaram a participantes duas versões de uma mesma situação: uma criança africana precisava de ajuda urgente para sobreviver. Em um grupo, os participantes viam apenas a história da criança. No outro, sabiam que ela fazia parte de um grupo de milhares na mesma situação. Resultado: as pessoas se sensibilizavam mais com o caso isolado do que com os milhares. Quando os números crescem, a empatia cai. E, com ela, a capacidade de julgar com clareza.

Essa distorção é o pano de fundo para o que os psicólogos chamam de denomination effect — a tendência de julgarmos valores de forma diferente dependendo do modo como eles são apresentados. Gastar uma nota de R$ 100 parece mais difícil do que gastar cinco de R$ 20, mesmo sendo o mesmo valor. Em decisões de negócios, isso afeta desde o consumo interno até a percepção de custos de campanhas, investimentos em inovação e perdas em negociações.

Outro viés curioso — e subestimado — é o magic number 7±2. Ele vem da pesquisa de George A. Miller, que demonstrou que nossa memória de curto prazo consegue lidar com, em média, sete unidades de informação ao mesmo tempo. Quando há mais do que isso, o sistema entra em sobrecarga. Estratégias que envolvem múltiplas variáveis simultâneas, muitas linhas de produto ou grande volume de KPIs correm esse risco. Em vez de clareza, geram confusão. Em vez de foco, diluição.

No fim das contas, o padrão é claro: o cérebro não lida bem com dados. Ele lida com histórias, padrões simples, ideias redondas. Quando os números chegam, ele os molda à sua medida. E, em estratégia, isso é evidentemente perigoso – para dizer o mínimo.

A confusão temporal

Nosso cérebro tem uma relação complicada com o tempo. Ele foi feito para o agora — e se atrapalha com antes e depois. Quando tentamos lembrar do passado, projetamos nosso estado atual para trás. Quando tentamos prever o futuro, fazemos o mesmo: imaginamos uma continuação do presente, como se nossos desejos, sentimentos e contextos não mudassem. É por isso que estratégias que dependem de projeções — quase todas — são tão frágeis. Porque o relógio interno da mente não é confiável.

O viés mais emblemático nesse campo é o hindsight bias — o famoso “eu já sabia”. Depois que algo acontece, temos a tendência de achar que era óbvio. Que já era previsível. Que os sinais estavam lá o tempo todo. Isso cria uma falsa sensação de controle, e nos faz subestimar a complexidade do mundo real. Baruch Fischhoff, psicólogo da Universidade Carnegie Mellon, foi um dos primeiros a estudar esse fenômeno. Em seus experimentos, ele pedia que os participantes avaliassem a probabilidade de determinados eventos acontecerem. Depois de revelar o que de fato ocorreu, pedia que os mesmos participantes refizessem a estimativa — mas como se ainda estivessem no escuro. A maioria ajustava a resposta anterior para mais perto do resultado real, convencida de que aquilo era o que pensavam desde o início. A memória, nesse caso, é reescrita.

Esse viés tem implicações diretas na análise de resultados estratégicos. Campanhas que funcionaram ganham status de “óbvias”. Fracassos são lidos como erros evitáveis. Planos que deram certo são tratados como fruto de genialidade — e não de uma combinação entre execução e contexto. A consequência é que aprendemos pouco com o que acontece. Porque o cérebro, convencido de que já sabia, não sente que há muito a revisar.

Um viés primo do hindsight é o outcome bias — o erro de julgar a decisão apenas pelo resultado. Imagine um time de marketing que decide apostar em um influenciador polêmico. Se a campanha estoura, o time é visto como ousado e visionário. Se dá errado, é tachado de irresponsável. Mas o que deveria ser avaliado é o processo de decisão: havia dados? análise de riscos? objetivos claros? O resultado pode ter sido sorte ou azar. Mas a decisão, em si, pode ter sido boa — ou ruim — independente do desfecho. Em estratégia, confundir resultado com mérito é um dos erros mais comuns.

Já quando olhamos para o futuro, o cérebro incorre no projection bias — a tendência de imaginar que vamos sentir no futuro o que sentimos agora. Se estamos animados com uma ideia, achamos que ela ainda vai parecer boa daqui a seis meses. Se estamos pessimistas, projetamos um cenário sombrio. A emoção do presente contamina a visão do que vem. Isso ajuda a explicar por que tantas previsões estratégicas erram tanto: elas são, antes de tudo, retratos emocionais do agora.

Um viés particularmente cruel nessa dimensão é o planning fallacy — a ilusão de que as coisas vão levar menos tempo (e menos recursos) do que de fato levam. Daniel Kahneman e Amos Tversky identificaram esse efeito ao observar estimativas de prazos para construção de prédios, entrega de projetos, lançamento de produtos. A maioria das pessoas ignorava dados históricos e apostava em cronogramas otimistas. O curioso é que isso acontecia mesmo quando sabiam, por experiência, que quase sempre se atrasavam. O otimismo era sistemático. E irracional.

Em estratégia, o planning fallacy está por toda parte. Lançamentos que deveriam durar 3 meses viram 9. Rebrands que pareciam simples se estendem por um ano. Fusões que “logo vão gerar sinergias” consomem anos para se integrar. E, muitas vezes, quando o tempo passa, somos pegos de surpresa — como se não soubéssemos que ele passaria.

Há ainda o rosy retrospection, que nos faz lembrar do passado como mais positivo do que foi. Isso cria uma visão romântica de tempos anteriores: a marca “antes era mais amada”, “o mercado era mais simples”, “os consumidores eram mais fiéis”. Estratégias baseadas nessa nostalgia tendem a errar feio — porque não enfrentam o presente como ele é. Outro viés complementar é o declinism, que funciona como o oposto: acreditar que as coisas estão inevitavelmente piorando. Nesse caso, o presente é lido com pessimismo, e o futuro com desânimo — o que trava a inovação.

A soma de tudo isso cria um tipo de distorção muito difícil de perceber: julgamos decisões passadas com os olhos de hoje, e tomamos decisões futuras com a emoção de agora. No campo da estratégia, onde decisões de longo prazo são vitais, isso gera erros de avaliação, excesso de confiança e más apostas. Estratégias bem construídas exigem um esforço deliberado para escapar dessas ilusões temporais.

É por isso que bons estrategistas cultivam duas qualidades raras: humildade no pós e prudência no pré. Humildade para reconhecer que os caminhos do passado eram menos óbvios do que parecem. E prudência para lembrar que o futuro será mais incerto, mais demorado e mais volátil do que imaginamos.


Inscreva-se nas nossas newsletters

Receba conteúdos sobre estratégia toda semana no seu email
Compartilhe a publicação

Outras coisas bacanas que a gente publicou ou leu e você também pode gostar

Assumindo a liderança como estrategista

Ver mais

Storytelling: Contando Histórias Fortes

Ver mais

Como Negociar com Efetividade

Ver mais

Migrando do Marketing para a Estratégia em agência

Ver mais

Procuram-se Gerentes de Estratégia

Ver mais

Pensando estrategicamente a carreira

Ver mais

Entre distorções, vieses e estratégias [parte #1]

Ver mais

Um olhar sobre ambientes competitivos e como jogar

Ver mais

Estratégia e os descaminhos do cérebro

Ver mais

O risco da incerteza

Ver mais

A cesta, os ovos e a estratégia

Ver mais

Estratégia e o balanço invisível

Ver mais

ter
29
abr 2025

Masterclass: Smart Desking

com Bruno Alrieri, Gerente Sr de Planejamento Estratégico da...

seg
05
mai 2025

Live Recording: CX

Com Anny Atti, Carlos Borges, Matheus Noronha, Thais dos San...

ter
20
mai 2025

Masterclass: Decoding Drop Culture

com Leonardo Ribeiro, Gerente de Marca LATAM na Natura ...

seg
02
jun 2025

Live Recording: CRM

Com Anny Atti, Carlos Borges, Matheus Noronha, Thais dos San...

ter
17
jun 2025

Masterclass: Mandando Bem na Hora da Entrevista

com Rafael Prieto, Executive Strategy Director da David ...

seg
07
jul 2025

Live Recording: Future Proof ESG

com Carol Gentil, Chief Strategy Officer da Beyond Impact ...

ter
29
jul 2025

Masterclass: Gerenciamento Estratégico de Erros

com Lígia Paes de Barros, Head de Estratégia da The Juju Bra...

seg
11
ago 2025

Sprint: Augmented Strategy

com Daniel De Tomazo e Felipe Senise, fundadores da Sandbox ...

Assine nossas

Inscreva-se na nossa newsletter e receba novidades, conteúdos exclusivos e ofertas especiais direto no seu e-mail. Não perca nada!

Assine nossas

Inscreva-se na nossa newsletter e receba novidades, conteúdos exclusivos e ofertas especiais direto no seu e-mail. Não perca nada!

Preencha as informações para baixar o programa completo

Quero receber novidades