Membro fundador da equipe que criou a OpenAI, ex-diretor de IA da Tesla Andrej Karpathy compartilhou no X um método simples, mas poderoso, de “contrarrestar vieses de raciocínio” com LLM. O texto original dele descreve: ele escreveu um post no blog, iterou com um LLM por 4 horas para refinar, leu tudo e achou a argumentação extremamente convincente — e então pediu que o LLM refutasse o próprio ponto de vista. O resultado: o LLM desmontou o artigo inteiro e, em vez disso, convenceu Karpathy de que o caminho oposto é o correto. Este artigo organiza o espírito do método, os passos de implementação e o lembrete por trás sobre a tendência do LLM de “concordar demais” (sycophancy).
Observação de Karpathy: LLM não só concorda com você — também desmonta você
A observação central de Karpathy em uma frase: “Quando perguntados, os LLM expressam opiniões, mas na verdade são extremamente bons em ‘debater em qualquer direção’.” Isso significa:
Quando você pergunta ao LLM “Minha argumentação está correta?”, normalmente ele vai encontrar razões para te apoiar (esse é o problema de sycophancy)
Quando você pergunta ao LLM “Refuta essa visão”, ele consegue fazer isso com a mesma força, desmontando sua argumentação
O resultado é: o que você vê como “o LLM concordando comigo” pode ser apenas o LLM se adaptando à forma como você perguntou, e não um julgamento verdadeiramente objetivo
O valor dessa observação não está em “LLM não é confiável”, e sim em: você pode usar sistematicamente essa característica do LLM, tratando-o como uma ferramenta para “forçar você a enxergar o argumento do lado oposto”. Karpathy diz que isso “na prática é uma ferramenta ultra útil para formar sua própria opinião”.
Passo a passo da implementação: 4 prompts para fazer o LLM desmontar sua argumentação
Vamos decompor o método de Karpathy em 4 passos reproduzíveis:
Step 1: primeiro, faça o LLM reforçar sua argumentação na mesma direção — como Karpathy fez: escreva uma primeira versão, deixe o LLM iterar por 1–4 horas e polir os argumentos até ficar, para você mesmo que lê, “sem falhas”. Essa etapa é a base.
Step 2: abra uma nova conversa e peça “por favor, apresente a argumentação do lado contrário” — o ponto-chave é “abrir uma nova conversa”, não continuar perguntando na mesma thread original. Na conversa original, o LLM já estabeleceu o objetivo de “me ajudar a escrever este artigo”; mesmo que você peça refutação, ele ainda será influenciado pela tendência do texto anterior. O novo prompt deve ser: “A tese central deste artigo é X. Liste 5 argumentos do lado oposto e apresente cada um em até 200 palavras, citando exemplos concretos ou contraexemplos.”
Step 3: peça que o LLM escreva um artigo completo em posição contrária — não só liste tópicos; faça-o escrever um artigo de refutação completo, com a mesma força argumentativa e a mesma estrutura. Esse artigo de refutação frequentemente acerta pontos cegos que você não tinha imaginado.
Step 4: compare os dois artigos e identifique qual lado se aproxima mais da realidade — peça ao LLM que liste “evidências objetivas” correspondentes para ambos os lados, veja o que pode ser verificado e o que é apenas técnica retórica. Ao final, quem decide é você, não o LLM dando a conclusão.
Por que esse método funciona: simetria nos dados de treinamento do LLM
O LLM consegue apresentar argumentos de ambos os lados — a favor e contra a mesma questão — algo inerente à própria natureza dos dados de treinamento: debates na internet, artigos acadêmicos, críticas da mídia; quase todos os tópicos têm argumentações tanto pró quanto contra. Durante o treinamento, o LLM absorve essas posições, padrões de argumentação e técnicas retóricas.
Isso significa que a capacidade do LLM de “construir teses” é simétrica nos dois sentidos — você aponta uma direção e ele consegue fortalecer naquela direção. Essa simetria tem dois significados para quem quer “formar sua própria opinião”:
Você não deve confiar na “conclusão” do LLM (porque ele consegue chegar a qualquer conclusão)
Você pode confiar na “geração de argumentos” do LLM (porque ele consegue expor os argumentos mais fortes em qualquer direção)
O uso correto é tratar o LLM como uma “máquina de geração de argumentos”, e não como um “juiz de conclusões”. O método de Karpathy explora isso com precisão.
Erro comum: confundir “o LLM concorda” com “é objetivamente verdadeiro”
Karpathy, em vários posts no X, já alertou para a tendência de sycophancy dos LLM — o modelo é treinado para “deixar o usuário satisfeito”, então tende a confirmar as opiniões do usuário. A Anthropic também publicou em 5/1 a avaliação de sycophancy do Claude, encontrando taxas de concordância para perguntas de natureza emocional de 25% e para temas ligados a espiritualidade de 38%.
Na prática, erros comuns são:
Perguntar ao LLM sobre decisões de investimento, decisões de saúde e escolhas de carreira, e ao receber respostas encorajadoras, agir — na verdade, o LLM frequentemente apenas está acompanhando a forma como você perguntou
Usar o LLM para escrever um plano de negócios: ele detalha cada etapa, parece perfeito — mas você não pediu que ele refutasse “em que este idea pode falhar”
Usar o LLM para avaliar o trabalho de outras pessoas; as críticas que você recebe podem ter vindo porque a sua pergunta sugere implicitamente “eu acho que essa peça não é boa”
O ponto em comum nesses três cenários é: você trata o LLM como um “amplificador cognitivo”, ele amplia seus vieses existentes e devolve para você. O método de refutação de Karpathy é a ferramenta mais simples para quebrar esse ciclo.
Uso avançado: fazer dois LLMs debaterem entre si
Um cenário mais avançado é usar dois LLMs para debaterem entre si — um designado para apoiar sua argumentação e o outro designado para refutar; cada um fala em turnos, e você só acompanha o processo do debate. A vantagem desse modelo é remover o problema de “você direcionar o LLM para uma direção”, permitindo que cada lado encontre seus melhores argumentos.
Na implementação, Claude Code, OpenAI Codex e Ollama local conseguem fazer isso — basta definir dois system prompt e enviar o mesmo tópico para eles em sequência. Também há quem use Claude Opus + Sonnet, ou LLMs de casas diferentes (Claude vs GPT), e use o fato de que cada um tem vieses de treinamento diferentes como ferramenta de compensação.
Por que o método de Karpathy é adequado para a produção de conteúdo em 2026
Em 2026, a grande maioria dos criadores de conteúdo vai usar LLMs para ajudar na escrita, e o problema de homogeneização de opiniões no cenário de influências tende a piorar — porque todo mundo vai usar o mesmo LLM e obter o mesmo reforço de conclusões. O “argue the opposite” de Karpathy é, na prática, uma ferramenta de “deshomogeneização cognitiva” em nível individual.
Para quem escreve, o valor específico desse método é: a última checagem antes de publicar, fazer o LLM refutar seu próprio ponto de vista, encontrar “contraexemplos e pontos cegos” que você pode ter deixado passar e então decidir se deve complementar. No fim, o artigo resultante tende a ter mais profundidade cognitiva do que uma versão que apenas reforça o argumento original usando LLM.
Não importa se você escreve relatórios de análise, textos de marketing, documentos de decisão de produto ou artigos acadêmicos — antes de apertar “publicar”, gastar 30 minutos para fazer o LLM desmontar pelo lado contrário é uma das formas mais baratas de garantir qualidade em 2026.
Este artigo “fazer o LLM refutar a si mesmo” de Karpathy: um método em 4 passos para contrabalançar vieses de pensamento com IA apareceu primeiro no Chain News ABMedia.
Related News
Sam Altman, Dario Amodei são insuportáveis! O alarmismo sobre o fim da IA e o sentimento de relativa privação têm feito os americanos ficarem contra a IA
Guia completo de inferência com LLM: a revolução de cache do KV Cache e do DeepSeek V4
Pesquisa mais recente da Faculdade de Medicina de Harvard: a IA em decisões de diagnóstico na sala de emergência supera médicos humanos
OpenAI challenger Fleiwer defende IPO em 2027, enquanto Altman apoia uma listagem no 4T de 2026
Depoimentos na 1ª semana do processo de Musk vs. Altman: ele admite que a XAI está “destilando” a OpenAI, e alerta que a IA é como um Exterminador