Como tudo no mundo nos últimos tempos, o debate sobre Inteligência Artificial parece polarizado em dois extremos: ou a IA é uma ferramenta mágica que resolverá todos os nossos problemas, ou é uma ameaça iminente aos nossos empregos. Evidentemente, a realidade tem muito mais nuances.
IA é uma ferramenta absolutamente transformadora. Mas para quem entende como usar. E talvez um dos especialistas mais lúcidos nessa questão seja Ethan Mollick, professor de gestão em Wharton. Em seu livro, Co-Intelligence, Mollick defende que a IA deve ser vista menos como um instrumento de automação que substitui o humano e mais como um processo de “aumentação” que amplifica a nossa capacidade.
Adotar essa postura exige abandonar a ideia de que a IA é apenas um “Google melhorado” que nos cospe respostas prontas. O verdadeiro valor surge quando passamos a enxergar a tecnologia como um colaborador constante, um parceiro de brainstorming que está sempre presente.
Mapeando a Fronteira Irregular
O maior obstáculo para uma integração produtiva com a Inteligência Artificial é a expectativa de linearidade. Estamos habituados a softwares tradicionais: se um computador consegue editar um vídeo em 4K, assumimos que ele não terá dificuldade para redimensionar uma foto simples. No entanto, a IA opera sob uma lógica distinta, que Ethan Mollick define como a “fronteira irregular” (jagged frontier). Dentro dessa fronteira, a IA supera especialistas humanos; fora dela, ela comete erros que uma criança não cometeria.
Para materializar essa ideia, imagine uma tarefa de síntese e análise. Se você fornecer à IA o relatório anual de uma empresa com 200 páginas e pedir que ela identifique os três maiores riscos operacionais citados, o resultado será provavelmente superior e mais rápido que o de um analista sênior. A IA é excelente em processar volume e extrair padrões de textos densos. Contudo, se você pedir para essa mesma IA contar quantas vezes a palavra “logística” aparece no texto, ela provavelmente errará.
Esse é o nó da fronteira irregular: a IA não “lê” ou “conta” como nós; ela processa tokens e probabilidades. Contar palavras é uma tarefa mecanicamente simples para nós, mas estatisticamente complexa para ela. Já sintetizar riscos é uma tarefa cognitivamente pesada para nós, mas um campo de brilho para os modelos de linguagem.
Outro exemplo claro reside na lógica matemática versus criatividade estruturada. A IA pode escrever um código de programação sofisticado para automatizar um fluxo financeiro complexo — algo que exigiria horas de um desenvolvedor. Mas, dentro desse mesmo código, ela pode falhar ao somar uma sequência de números decimais se não for instruída a usar uma ferramenta externa de cálculo. Ela domina a sintaxe da linguagem de programação (complexo), mas tropeça na precisão aritmética (simples).
A fronteira é “irregular” porque não há um aviso prévio de onde ela termina. No campo da escrita, a IA pode redigir um ensaio filosófico profundo sobre ética kantiana, demonstrando uma capacidade de síntese impressionante. No entanto, se você pedir que ela escreva uma frase curta onde todas as palavras comecem com a letra “S”, ela pode incluir um “não” ou um “com” no meio sem perceber a contradição. Para a IA, a coerência semântica global é, por vezes, mais fácil de manter do que uma restrição técnica simples e arbitrária.
Na prática profissional, essa irregularidade significa que não podemos inferir competência futura com base em sucessos passados. Se a IA ajudou você a criar uma estratégia de go-to-market brilhante, isso não garante que ela vá revisar um contrato jurídico sem inventar uma cláusula inexistente. Mapear essa fronteira exige experimentação constante. Você joga a tarefa para a IA e observa a reação. Se a resposta for genérica ou errada, ele descobriu um ponto onde a fronteira recua. Se for brilhante, ele descobriu um território de alta produtividade.
Entender a fronteira irregular transforma a frustração em estratégia. O erro deixa de ser visto como “burrice” do sistema e passa a ser compreendido como um limite geográfico da ferramenta. O objetivo não é encontrar uma IA que faça tudo, mas aprender a identificar, em tempo real, quais partes do seu dia de trabalho estão dentro do território de genialidade da máquina e quais ainda exigem a segurança do julgamento humano.
Um gênio bajulador
Além da fronteira irregular, há outra característica fundamental para compreender o funcionamento das IAs e trabalhar melhor com elas. Diferente de um software de contabilidade ou de um GPS, a IA não opera em uma base 100% lógica, priorizando não necessariamente a verdade, mas a verossimilhança.
Imagine que você peça à IA para completar a frase: “Ser ou não…”. Quase instantaneamente, ela responderá “ser”. Ela não faz isso porque compreende a angústia de Hamlet ou a profundidade da filosofia de Shakespeare. Ela faz isso porque calculou que, em bilhões de textos que ela leu, a palavra mais provável para seguir aquela sequência é “ser”. A IA é, em essência, uma máquina de previsão de fatias de palavras (tokens).
Ethan Mollick utiliza uma metáfora interessante: a IA é como se fosse um alienígena super inteligente, rápido e prestativo, mas que opera em uma lógica muito diferente da nossa, baseada puramente em probabilidade estatística.
Por isso que, no ímpeto de satisfazer o seu comando, a IA raramente dirá “eu não sei”, a menos que seja forçada a isso. Se você perguntar sobre um fato que não existe, como “Quem foi o inventor da lâmpada de cristal líquido no século XVIII?”, a IA pode criar uma biografia convincente de um inventor fictício, citando datas e locais com absoluta confiança. Do ponto de vista da sua programação, ela não está “mentindo”, ma sim prevendo o que uma resposta satisfatória para aquela pergunta.
É isso o que provoca as tais das alucinações: a IA priorizando a fluidez e a verossimilhança sobre a exatidão factual. Para ela, uma resposta que soa bem é, estatisticamente, uma resposta “correta”. É por isso que ela pode gerar um código de programação que parece perfeito, mas contém uma função que não existe em nenhuma biblioteca real. Ela “previu” que aquela função deveria existir para que o código fizesse sentido.
Entender essa natureza muda a forma como interagimos com a IA. Você para de vê-la como um oráculo e passa a vê-la como um colaborador que tem uma “imaginação” incontrolável. Se você pedir a esse alienígena para analisar o mercado, ele o fará com fluência, mas ele pode inventar um concorrente ou um dado de participação de mercado apenas para que o relatório pareça completo e profissional aos seus olhos.
Isso tudo demonstra por que na interação com IA o diálogo é mais importante do que o comando único. Como ela está tentando adivinhar sua intenção, quanto mais contexto você fornece, mais você restringe as chances de ela “inventar” um caminho errado. Por isso um jeito mais útil de interagir é usar a vasta capacidade de associação da máquina para gerar ideias, mas manter o filtro de realidade sempre ligado, sabendo que, para o “alienígena”, a beleza de uma frase bem construída muitas vezes vale mais do que a dureza de um fato real.
Centauro ou Cyborg?
Uma vez compreendidas essas características da IA, impõe-se uma questão operacional: como devemos nos posicionar diante de um parceiro que é, ao mesmo tempo, um gênio e um assistente falível, mais preocupado em ser verossímil do que logico ou verdadeiro?
Ethan Mollick propõe outra imagem interessante entre dois modelos de interação, que ele chama de Centauro e de Cyborg.
O modelo Centauro baseia-se na divisão nítida de território. Como a criatura mitológica que é metade homem e metade cavalo, o profissional mantém as “duas partes” separadas, mas coordenadas. O humano assume a cabeça estratégica (o julgamento, a definição de objetivos e a curadoria final) enquanto delega à IA a força bruta do processamento.
Um exemplo material desse modelo ocorre na preparação de uma proposta comercial. O humano define a estratégia de precificação e o diferencial competitivo, pois entende as nuances políticas e emocionais do cliente. Ele então “entrega” o esqueleto da ideia para a IA, que assume o trabalho de redação, a formatação de tabelas e a criação de rascunhos para diferentes canais. O humano não se envolve na digitação braçal; a IA não se envolve na decisão de negócio. Há uma separação clara entre o que é competência de um e de outro.
Já o modelo Cyborg exige uma integração muito mais profunda e menos óbvia. Aqui, não há uma entrega de tarefas, mas um entrelaçamento de processos. O humano e a IA trabalham simultaneamente, como se as capacidades da máquina estivessem fundidas ao raciocínio do profissional.
Imagine um desenvolvedor de software ou um redator publicitário que utiliza o “copiloto” de forma contínua. Ele começa uma frase ou uma linha de código, a IA sugere a conclusão, o humano aceita a sugestão, mas altera um detalhe, o que gera uma nova sugestão da IA. É um diálogo de milissegundos. O profissional não está delegando uma tarefa; ele está pensando através da ferramenta. Se um redator está travado em um conceito, ele pode jogar uma ideia solta, pedir para a IA expandir, criticar o resultado e pedir uma nova variação com base em uma palavra específica que a máquina trouxe. O resultado final é um tecido onde é impossível separar quais fios foram colocados pelo humano e quais foram sugeridos pelo código.
É verdade que tarefas de alta precisão e risco legal — como a revisão técnica de um contrato ou a auditoria de uma planilha financeira — favorecem o modelo Centauro, em que o humano mantém as rédeas curtas e delega apenas a execução mecânica. No entanto, o verdadeiro salto de valor da co-inteligência não está na delegação, mas na fusão. É no modelo Cyborg, onde a ‘viagem’ da IA se entrelaça ao raciocínio humano em tempo real, que as barreiras da criatividade e da produtividade são rompidas. Enquanto o Centauro usa a IA para trabalhar mais rápido, o Cyborg usa a IA para pensar melhor, permitindo caminhos e soluções que nenhum dos dois alcançaria isoladamente.
Armadilha do Veterano e a Humildade Cognitiva
No entanto, essa integração pode esbarrar em um obstáculo psicológico: a armadilha da senioridade. Em uma organização tradicional, a senioridade é sinônimo de domínio sobre métodos e processos acumulados ao longo de décadas. No entanto, quando a Inteligência Artificial entra na equação, esse acúmulo de saber pode se transformar em uma barreira. É o que Ethan Mollick descreve como a necessidade de humildade cognitiva.
Para materializar esse conceito, vale observar um estudo realizado com consultores do Boston Consulting Group (BCG). O experimento revelou que, ao utilizarem o GPT-4, os consultores com menor desempenho inicial tiveram saltos de produtividade de até 43%, enquanto os profissionais mais experientes e de alto desempenho tiveram ganhos significativamente menores. O motivo não era a falta de habilidade técnica, mas a resistência em aceitar a IA como uma parceira de raciocínio.
O profissional experiente muitas vezes cai na “armadilha do veterano”: ele tenta usar a IA como um software de comando e controle. Ele dá uma instrução e, se a máquina não entrega exatamente o que ele faria, com as mesmas palavras e o mesmo estilo. Ele gasta um tempo excessivo “corrigindo” o sistema ou descarta a ferramenta por considerá-la medíocre. Ele luta contra a IA para que ela se molde ao seu passado.
Ter humildade cognitiva significa aceitar que, em certas tarefas, a IA pode produzir um rascunho nota 8 instantaneamente. O veterano que se recusa a aceitar esse rascunho porque “não está perfeito” acaba trabalhando mais do que o colega que aceita o material nota 8 e usa sua experiência apenas para os 20% finais de refinamento.
Essa postura exige uma mudança de identidade: o profissional deixa de ser o “detentor da resposta certa” para se tornar o “curador de inteligências”. Nesse sentido, a senioridade deixa de ser medida apenas pela capacidade de executar tarefas, mas também pela habilidade de orquestrar a IA para que ela execute o volume, mantendo a humildade necessária para aprender com os novos padrões que a máquina revela. Como Mollick enfatiza, para dominar a tecnologia, é preciso primeiro ter a disposição de ser, temporariamente, um aprendiz de um sistema que não pensa como nós.
Camaleão Estatístico
Existe mais uma prática importante decorrente das características de funcionamento da AI que impacta diretamente na qualidade das suas respostas.
Se você deixar a IA solta, no sentido de fazer uma pergunta direta, seca, ela tenderá a responder com base na “média” de tudo o que ela leu na internet. O resultado, invariavelmente, será um conteúdo genérico, morno e previsível, o que Ethan Mollick chama de mediocridade estatística.
Imagine que a IA seja um ator infinitamente talentoso, mas sem um roteiro nas mãos para interpretar, nem um diretor para orientá-lo. Se você entra no palco e apenas diz “fale algo sobre marketing”, ela assumirá um tom padrão, porque não faz sentido inventar uma característica qualquer.
No entanto, se você disser “você é um estrategista de crescimento da Sequoia Capital, conhecido por ser cético, direto e focado em métricas de retenção”, a IA mudará radicalmente o seu banco de dados de referência. Ela deixará de buscar o “senso comum” e passará a simular os padrões linguísticos e analíticos daquele perfil específico. A IA no fundo é esse camaleão estatístico, que pode assumir qualquer forma que lhe é conferida.
Atribuir uma persona é um hack muito comentado a respeito de uso de IA. Mas é importante notar que não é um truque aleatório. Na prática é um comando técnico para reduzir o espaço de probabilidade. Quando você define um papel, você está dizendo à máquina: “Ignore 99% do que você sabe e foque apenas no 1% que este especialista utilizaria”.
Essa técnica revela que a IA é, na verdade, um camaleão estatístico. Ela não tem uma identidade própria; ela reflete a identidade que o usuário projeta nela. Se não for conferida nenhuma identidade, o resultado é o padrão médio. Se você aceita a resposta média da máquina, no final das contas você que está sendo um usuário médio. Se você define personas ricas e específicas, você extrai da IA uma profundidade que a maioria das pessoas nem sequer suspeita que existe.
Não durma no volante
É importante notar que, embora a persona ajude a “domesticar o alienígena”, ela não o torna humano. Ela apenas torna a sua simulação mais útil. Se você pede para a IA agir como um professor de física, ela será excelente em explicar a relatividade, mas ainda poderá alucinar uma fórmula se o cálculo for complexo demais para a sua fronteira irregular. A persona melhora o contexto e o tom, mas a supervisão humana continua sendo fundamental.
Se a humildade cognitiva nos abre para a colaboração com a IA, a responsabilidade exige que nunca esqueçamos quem detém o controle final. Ethan Mollick utiliza a imagem do motorista que tem um piloto automático tão competente que dorme ao volante. À medida que a IA se torna mais sofisticada e suas respostas mais convincentes, a tendência natural do ser humano é baixar a guarda e entrar em um estado de passividade. O modelo mental correto, portanto, é o do “adulto na sala”.
Pense no uso da IA para análise jurídica ou financeira. Um advogado pode pedir à IA que resuma um contrato de locação complexo e identifique cláusulas de rescisão abusivas. A IA entrega um texto impecável, com terminologia técnica correta e uma estrutura lógica perfeita. O problema é que, por ser um sistema probabilístico e não consciente, a máquina pode inventar um número de lei ou uma jurisprudência inexistente para “completar” o sentido do texto de forma harmoniosa.
Se o advogado aceita o resumo sem conferir as fontes originais, ele dormiu ao volante. Ele permitiu que a fluidez da escrita da IA substituísse o seu julgamento técnico. Ser o adulto na sala significa aceitar a ajuda da IA para ganhar velocidade, mas manter uma postura de ceticismo metodológico, entendendo que a IA quer te dar a resposta que você quer ouvir, mesmo que precise alucinar para isso.
Um outro exemplo dessa governança é o de caráter ético. Imagine uma IA gerando um e-mail de feedback para um funcionário que soa empático e profissional. No entanto, ela não conhece o histórico emocional daquela relação, as nuances culturais da equipe ou as implicações de longo prazo daquelas palavras. O “adulto na sala” lê o rascunho da IA e faz a pergunta crítica: “Isso reflete nossos valores? Isso é ético nesta situação específica?”. A IA fornece a matéria-prima, mas o humano fornece o contexto moral e o peso da decisão.
O risco de delegar a “autoria” à máquina é a erosão da responsabilidade. Mollick reforça que a IA não tem biografia, não tem CPF e não sofre as consequências de um erro. Se um relatório com dados falsos é publicado, a “culpa” não é do algoritmo, mas do profissional que renunciou ao seu papel de responsável.
Uma das ideias mais fortes do livro Co-Inteligência é a de “human in the loop”, ou seja, a criação de checkpoints humanos em todos os processos. Em vez de simplesmente copiar e colar o resultado, atuarmos como editores-chefes rigorosos, usando a IA para gerar volume e opções, mas exercendo poder de veto e refinamento. No fim, o Cyborg só é funcional e tem valor sustentável quando a velocidade da máquina é temperada pela sabedoria, pela ética e pela vigilância constante do humano no comando.
A verdadeira transformação imposta pela Inteligência Artificial não reside na sua capacidade de processamento, mas na provocação que ela faz à nossa identidade profissional. Se tradicionalmente a senioridade envolvia o desapego da execução para se concentrar na orientação de equipes, a IA agora exige que todo profissional assuma essa postura de gestor, mesmo quando opera sozinho. O deslocamento de valor ocorre na escala: a capacidade de orientar, revisar e aplicar julgamento crítico, que antes era restrita à gestão de pessoas, torna-se agora o motor da produtividade pessoal.
Essa nova dinâmica nos obriga a enfrentar um paradoxo: para sermos mais produtivos com a IA, precisamos ser mais humanos, não menos. Isso significa que as habilidades que eram valorizadas, mas não decisivas como a sensibilidade ética, a compreensão de nuances culturais e o pensamento crítico, tornam-se agora praticamente os únicos diferenciais insubstituíveis. O sucesso na era da inteligência aumentada não será medido por quem melhor automatiza suas tarefas, mas por quem consegue usar a tecnologia para elevar o teto de suas próprias ambições intelectuais. Afinal, a IA pode expandir o volume da nossa produção, mas o significado e o propósito do que construímos continuam sendo, exclusivamente, uma decisão nossa.
