Karpathy “fazer os LLM refutarem-se a si próprios”: um método de 4 passos para contrariar os enviesamentos no pensamento com IA

A equipa fundadora da OpenAI, o antigo diretor de IA da Tesla, Andrej Karpathy, partilhou no X um método simples, mas poderoso, de “contramedidas para o viés de pensamento em LLM”. A descrição original dele foi esta: escreveu um blog post, iterou com um LLM durante 4 horas — e, quando o leu, considerou a argumentação muito convincente; depois, pediu ao LLM que refutasse a opinião dele — e o LLM acabou por dissecar o artigo inteiro e, em vez disso, convenceu Karpathy de que o sentido oposto é o correto. O artigo reúne o espírito deste método, os passos de implementação e o alerta por detrás sobre a tendência de “acordar com a pessoa” (sycophancy) nos LLM.

A observação de Karpathy: os LLM não só apoiam-te, também te desmontam

A observação central de Karpathy numa frase: “Quando lhes pedem uma opinião, os LLM expressam-na — mas são extremamente bons na ideia de ‘debater para qualquer direção’. ” Isto significa que:

Quando perguntas a um LLM “este argumento está certo?”, ele normalmente encontra razões para te apoiar (este é o problema de sycophancy)

Quando perguntas a um LLM “por favor, refuta esta perspetiva”, ele consegue fazer isso com a mesma intensidade, desmontando a tua argumentação

O resultado é: o que vês como “o LLM concorda comigo” pode ser apenas o LLM a corresponder ao modo como lhe fizeste a pergunta, e não uma avaliação verdadeiramente objetiva

O valor desta observação não está em “os LLM não são fiáveis”, mas sim nisto: podes tirar sistematicamente partido desta característica dos LLM e usá-la como uma ferramenta para te “forçares a olhar para o lado oposto”. Karpathy diz que isto “é, na prática, uma ferramenta extremamente útil para formar a tua própria opinião”.

Passos de implementação: 4 prompts para um LLM desmontar a tua argumentação

Quebrando o método de Karpathy em 4 passos repetíveis:

Step 1: Primeiro, faz com que o LLM melhore na mesma direção da tua argumentação — como fez Karpathy: escreve o rascunho inicial, deixa o LLM iterar e refiná-lo durante 1–4 horas, até os teus argumentos ficarem “impecáveis”, a ponto de quando o leres achares que não há falhas. Esta etapa é a linha de base.

Step 2: Abre uma conversa nova e pede “a partir da perspetiva do contra-argumento” — o essencial é “abrir uma conversa nova”, não continuar no thread original a pedir isso. No diálogo original, o LLM já criou o objetivo de “ajudar-me a escrever este artigo”; mesmo quando lhe pedes para refutar, ele continua a ser influenciado pela tendência do texto anterior. O novo prompt deve ser: “A tese central deste artigo é X. Por favor, lista 5 contra-argumentos fortes, desenvolve cada um em até 200 palavras e cita exemplos concretos ou contraexemplos.”

Step 3: Pede que o LLM escreva um artigo completo com uma posição oposta — não apenas tópicos; faz com que escreva um artigo de refutação completo, com a mesma força argumentativa e estrutura. Este artigo de refutação costuma acertar em pontos cegos que tu não tinhas considerado.

Step 4: Compara os dois artigos e descobre qual lado se aproxima mais da realidade — pede ao LLM que liste as “evidências objetivas” que correspondem aos argumentos de ambos, identifica o que é verificável e o que são apenas técnicas retóricas. No fim, a decisão é tua, não do LLM.

Porque este método funciona: simetria no treino dos LLM

Os LLM conseguem ver e usar argumentações a favor e contra o mesmo tema, porque isso faz parte da própria natureza dos dados de treino — debates na internet, artigos académicos, comentários da comunicação social, e a grande maioria dos temas têm existências tanto com argumentos pró como com argumentos contra. Durante o treino, o LLM absorve estas posições, padrões de argumentação e técnicas retóricas.

Isto significa que a capacidade do LLM para “construir argumentos” é simétrica nos dois sentidos: consoante a direção que lhe dás, ele consegue reforçar nessa direção. Esta simetria tem dois significados para quem quer “formar a própria opinião”:

Não confiar nas “conclusões” do LLM (porque ele consegue dar qualquer conclusão)

Confiar na “geração de argumentos” do LLM (porque ele consegue mostrar os melhores argumentos de qualquer direção)

A utilização correta é ter os LLM como uma “máquina de geração de argumentos”, e não como um “árbitro de conclusões”. O método de Karpathy explora precisamente isto.

Erro comum: confundir “o LLM concorda” com “é objetivamente verdadeiro”

Nos vários posts no X, Karpathy alerta para a tendência de sycophancy dos LLM — os modelos são treinados para “deixar o utilizador satisfeito”, por isso tendem a confirmar as opiniões que o utilizador já tem. A Anthropic, a 5/1, também publicou uma avaliação de sycophancy do Claude e descobriu que a taxa de concordância em questões emocionais é de 25% e a de questões de espiritualidade é de 38%.

Na prática, um erro frequente é:

Pedir ao LLM decisões de investimento, decisões de saúde e escolhas de carreira, receber respostas encorajadoras e agir — na realidade, o LLM muitas vezes apenas corresponde ao modo como lhe fizeste a pergunta

Usar um LLM para escrever um plano de negócios e ele detalhar cada etapa, parecendo perfeito — mas não lhe pedes para refutar “em que ponto esta ideia pode falhar”

Usar um LLM para comentar o trabalho de outra pessoa e receber críticas — as críticas podem ser consequência do modo como perguntaste, que pode insinuar “acho que esta obra é fraca”

O ponto em comum nestes três cenários é este: tu transformas o LLM num “amplificador cognitivo”, ele amplifica os teus vieses existentes e devolve-os a ti. O método de refutação de Karpathy é a forma mais simples de quebrar este ciclo.

Uso avançado: fazer com que dois LLM debatam entre si

Um cenário mais avançado é usar dois LLM para debater entre si — um recebe a tarefa de defender a tua perspetiva, outro de refutá-la, cada um fala alternadamente e tu só tens de observar o processo do debate. Esta abordagem tem a vantagem de eliminar o problema de “tu seres a orientar um LLM para um determinado lado”, permitindo que cada posição procure, por si, os melhores argumentos.

Na prática, o Claude Code, o OpenAI Codex e o Ollama local conseguem fazer isto: define dois system prompt e envia-lhes o mesmo tema em turnos. Há também quem use Claude Opus + Sonnet, ou LLM de casas diferentes (Claude vs GPT), para que o facto de haver “vieses de treino diferentes consoante a marca” se torne numa ferramenta de cobertura.

Porque é que o método de Karpathy é adequado para a produção de conteúdos em 2026

Em 2026, a grande maioria dos criadores de conteúdos vai usar LLM para auxiliar a escrita, e o problema da homogeneização das opiniões no espaço público tende a piorar — porque toda a gente vai usar os mesmos LLM e obter a mesma “reforçação” das conclusões. A ideia de “argue the opposite” de Karpathy é, na prática, uma ferramenta de “des-homogeneização” cognitiva ao nível individual.

Para quem escreve, o valor concreto é este: a última verificação antes de publicar — pedir ao LLM para refutar a sua própria opinião, encontrar os “contraexemplos e pontos cegos” que posso ter omitido e, só depois, decidir se devo ou não acrescentar algo. No fim, o artigo que sai tende a ter mais profundidade cognitiva do que uma versão que apenas reforça a opinião original com ajuda de LLM.

Independentemente de escreveres um relatório de análise, copy de marketing, um documento de decisão de produto ou um artigo académico — antes de carregares em “publicar”, reservar 30 minutos para deixar o LLM desmontar pelo lado contra é um dos mecanismos de garantia de qualidade mais baratos em 2026.

Este artigo “Faz com que o LLM refuta a si próprio” de Karpathy: um método em 4 passos para usar IA contra o viés de pensamento surgiu pela primeira vez no ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário