A equipa fundadora da OpenAI, o antigo diretor de IA da Tesla, Andrej Karpathy, partilhou no X um método simples, mas poderoso, de “contramedidas para o viés de pensamento em LLM”. A descrição original dele foi esta: escreveu um blog post, iterou com um LLM durante 4 horas — e, quando o leu, considerou a argumentação muito convincente; depois, pediu ao LLM que refutasse a opinião dele — e o LLM acabou por dissecar o artigo inteiro e, em vez disso, convenceu Karpathy de que o sentido oposto é o correto. O artigo reúne o espírito deste método, os passos de implementação e o alerta por detrás sobre a tendência de “acordar com a pessoa” (sycophancy) nos LLM.
A observação de Karpathy: os LLM não só apoiam-te, também te desmontam
A observação central de Karpathy numa frase: “Quando lhes pedem uma opinião, os LLM expressam-na — mas são extremamente bons na ideia de ‘debater para qualquer direção’. ” Isto significa que:
Quando perguntas a um LLM “este argumento está certo?”, ele normalmente encontra razões para te apoiar (este é o problema de sycophancy)
Quando perguntas a um LLM “por favor, refuta esta perspetiva”, ele consegue fazer isso com a mesma intensidade, desmontando a tua argumentação
O resultado é: o que vês como “o LLM concorda comigo” pode ser apenas o LLM a corresponder ao modo como lhe fizeste a pergunta, e não uma avaliação verdadeiramente objetiva
O valor desta observação não está em “os LLM não são fiáveis”, mas sim nisto: podes tirar sistematicamente partido desta característica dos LLM e usá-la como uma ferramenta para te “forçares a olhar para o lado oposto”. Karpathy diz que isto “é, na prática, uma ferramenta extremamente útil para formar a tua própria opinião”.
Passos de implementação: 4 prompts para um LLM desmontar a tua argumentação
Quebrando o método de Karpathy em 4 passos repetíveis:
Step 1: Primeiro, faz com que o LLM melhore na mesma direção da tua argumentação — como fez Karpathy: escreve o rascunho inicial, deixa o LLM iterar e refiná-lo durante 1–4 horas, até os teus argumentos ficarem “impecáveis”, a ponto de quando o leres achares que não há falhas. Esta etapa é a linha de base.
Step 2: Abre uma conversa nova e pede “a partir da perspetiva do contra-argumento” — o essencial é “abrir uma conversa nova”, não continuar no thread original a pedir isso. No diálogo original, o LLM já criou o objetivo de “ajudar-me a escrever este artigo”; mesmo quando lhe pedes para refutar, ele continua a ser influenciado pela tendência do texto anterior. O novo prompt deve ser: “A tese central deste artigo é X. Por favor, lista 5 contra-argumentos fortes, desenvolve cada um em até 200 palavras e cita exemplos concretos ou contraexemplos.”
Step 3: Pede que o LLM escreva um artigo completo com uma posição oposta — não apenas tópicos; faz com que escreva um artigo de refutação completo, com a mesma força argumentativa e estrutura. Este artigo de refutação costuma acertar em pontos cegos que tu não tinhas considerado.
Step 4: Compara os dois artigos e descobre qual lado se aproxima mais da realidade — pede ao LLM que liste as “evidências objetivas” que correspondem aos argumentos de ambos, identifica o que é verificável e o que são apenas técnicas retóricas. No fim, a decisão é tua, não do LLM.
Porque este método funciona: simetria no treino dos LLM
Os LLM conseguem ver e usar argumentações a favor e contra o mesmo tema, porque isso faz parte da própria natureza dos dados de treino — debates na internet, artigos académicos, comentários da comunicação social, e a grande maioria dos temas têm existências tanto com argumentos pró como com argumentos contra. Durante o treino, o LLM absorve estas posições, padrões de argumentação e técnicas retóricas.
Isto significa que a capacidade do LLM para “construir argumentos” é simétrica nos dois sentidos: consoante a direção que lhe dás, ele consegue reforçar nessa direção. Esta simetria tem dois significados para quem quer “formar a própria opinião”:
Não confiar nas “conclusões” do LLM (porque ele consegue dar qualquer conclusão)
Confiar na “geração de argumentos” do LLM (porque ele consegue mostrar os melhores argumentos de qualquer direção)
A utilização correta é ter os LLM como uma “máquina de geração de argumentos”, e não como um “árbitro de conclusões”. O método de Karpathy explora precisamente isto.
Erro comum: confundir “o LLM concorda” com “é objetivamente verdadeiro”
Nos vários posts no X, Karpathy alerta para a tendência de sycophancy dos LLM — os modelos são treinados para “deixar o utilizador satisfeito”, por isso tendem a confirmar as opiniões que o utilizador já tem. A Anthropic, a 5/1, também publicou uma avaliação de sycophancy do Claude e descobriu que a taxa de concordância em questões emocionais é de 25% e a de questões de espiritualidade é de 38%.
Na prática, um erro frequente é:
Pedir ao LLM decisões de investimento, decisões de saúde e escolhas de carreira, receber respostas encorajadoras e agir — na realidade, o LLM muitas vezes apenas corresponde ao modo como lhe fizeste a pergunta
Usar um LLM para escrever um plano de negócios e ele detalhar cada etapa, parecendo perfeito — mas não lhe pedes para refutar “em que ponto esta ideia pode falhar”
Usar um LLM para comentar o trabalho de outra pessoa e receber críticas — as críticas podem ser consequência do modo como perguntaste, que pode insinuar “acho que esta obra é fraca”
O ponto em comum nestes três cenários é este: tu transformas o LLM num “amplificador cognitivo”, ele amplifica os teus vieses existentes e devolve-os a ti. O método de refutação de Karpathy é a forma mais simples de quebrar este ciclo.
Uso avançado: fazer com que dois LLM debatam entre si
Um cenário mais avançado é usar dois LLM para debater entre si — um recebe a tarefa de defender a tua perspetiva, outro de refutá-la, cada um fala alternadamente e tu só tens de observar o processo do debate. Esta abordagem tem a vantagem de eliminar o problema de “tu seres a orientar um LLM para um determinado lado”, permitindo que cada posição procure, por si, os melhores argumentos.
Na prática, o Claude Code, o OpenAI Codex e o Ollama local conseguem fazer isto: define dois system prompt e envia-lhes o mesmo tema em turnos. Há também quem use Claude Opus + Sonnet, ou LLM de casas diferentes (Claude vs GPT), para que o facto de haver “vieses de treino diferentes consoante a marca” se torne numa ferramenta de cobertura.
Porque é que o método de Karpathy é adequado para a produção de conteúdos em 2026
Em 2026, a grande maioria dos criadores de conteúdos vai usar LLM para auxiliar a escrita, e o problema da homogeneização das opiniões no espaço público tende a piorar — porque toda a gente vai usar os mesmos LLM e obter a mesma “reforçação” das conclusões. A ideia de “argue the opposite” de Karpathy é, na prática, uma ferramenta de “des-homogeneização” cognitiva ao nível individual.
Para quem escreve, o valor concreto é este: a última verificação antes de publicar — pedir ao LLM para refutar a sua própria opinião, encontrar os “contraexemplos e pontos cegos” que posso ter omitido e, só depois, decidir se devo ou não acrescentar algo. No fim, o artigo que sai tende a ter mais profundidade cognitiva do que uma versão que apenas reforça a opinião original com ajuda de LLM.
Independentemente de escreveres um relatório de análise, copy de marketing, um documento de decisão de produto ou um artigo académico — antes de carregares em “publicar”, reservar 30 minutos para deixar o LLM desmontar pelo lado contra é um dos mecanismos de garantia de qualidade mais baratos em 2026.
Este artigo “Faz com que o LLM refuta a si próprio” de Karpathy: um método em 4 passos para usar IA contra o viés de pensamento surgiu pela primeira vez no ABMedia.
Related News
Sam Altman e Dario Amodei são ambos insuportáveis! As teorias do fim do mundo da IA e a sensação de privação relativa têm feito com que os cidadãos dos EUA desenvolvam aversão à IA
Tutorial completo de inferência com LLM: a revolução das caches com KV Cache e o DeepSeek V4
Novo estudo da Harvard Medical School: a IA nas decisões de diagnóstico no serviço de urgência é melhor do que os médicos humanos
OpenAI’s Sam Altman defende uma IPO em 2027, enquanto a Aliança Flare apoia a listagem no 4.º trimestre de 2026
Depoimentos na primeira semana do litígio Musk vs Altman: admite que a XAI destilou a OpenAI e alerta que a IA é como o Exterminador