Em 2025 inteiro, a comunidade de engenharia de IA discutiu sem parar sobre a questão “MCP vs CLI”, que é mais adequada para chamadas de ferramentas por agentes, e o artigo da Anthropic publicado em novembro de 2025, “Code execution with MCP”, redefiniu o problema dos primeiros princípios. akshay_pachaar 5/10 organizou um thread que explica: o problema nunca esteve no protocolo em si, e sim no antigo hábito de colocar todas as descrições de ferramentas no context no início da session; a solução da Anthropic é fazer o modelo escrever código para chamar ferramentas, enquanto o runtime cuida dos detalhes de gerenciamento dessas ferramentas. O novo modelo é chamado de “Code Mode”.
O problema do modo antigo: a maior parte não é usada em 150 mil tokens
A estrutura de desperdício do modo MCP antigo:
Playwright MCP: 13,7 mil tokens (empacotado de uma vez)
Chrome DevTools MCP: 18 mil tokens
5 configurações de server: ainda nem começou a funcionar e já queimou 55 mil tokens
Uma única execução de workflow completa: pode crescer até 150 mil tokens
O que o modelo realmente usa: a maior parte fica sem uso
Os críticos defendem migrar para CLI, mas CLI em apps multiusuário é mais propensa a erros, falta um contrato typed, e para o agent analisar texto de saída de APIs que ele não conhece exige várias tentativas. As duas partes têm razão, mas os dois lados colocam o problema no lugar errado.
A solução: o modelo escreve code para chamar ferramentas, sem chamar diretamente a partir do context
O núcleo do “Code Mode” proposto pela Anthropic:
Inverte o papel do modelo: não é o modelo chamando ferramentas via context; é o modelo escrevendo código, e o runtime chamando as ferramentas
As ferramentas ficam no runtime, e o modelo só vê as partes que ele importa
O type acompanha o import: o modelo importa qual ferramenta, e então pega o contrato de tipo correspondente
Chama binários instalados via Bash (git, curl etc.)
Usa typed module imports para chamar APIs dedicadas
Exemplo da Anthropic: logs de texto do Google Drive fluem para o Salesforce CRM e atualizam registros. No método antigo, carrega os schemas das duas partes e passa toda a gravação de texto para o modelo duas vezes; no novo método, com apenas 10 linhas de TypeScript, você importa somente o necessário, e a mesma tarefa sai de 150 mil para 2 mil tokens, uma redução de 98,7%.
A Cloudflare levou isso ao limite: 2.500 endpoints de API, de 1,17 milhão de tokens para 1 mil
A Cloudflare fez a versão mais radical:
Escala original da API: 2.500 endpoints, schemas somando 1,17 milhão de tokens
Novo método: expor apenas duas funções, search e execute, com total de 1 mil tokens
O agent escreve código: primeiro search no diretório de ferramentas, depois execute na ferramenta correspondente
Taxa de compressão: mais de 1.000 vezes
A frase “MCP está morto” está errada—A Anthropic divulgou que as downloads do MCP SDK já chegaram a 300 milhões; no começo do ano eram 100 milhões, e é uma das construções de base de agentes que mais cresce no momento. O que “morreu” foi esse estilo de “carregar todas as ferramentas de uma vez no início da session”, e essa, na verdade, era uma má ideia. Para desenvolvedores que vão escrever agentes em 2026, a regra é simples: definições de ferramentas pertencem ao code, não ao context; o modelo escreve algumas linhas de código para chamar, e o runtime trata o resto.
Eventos concretos para acompanhar depois: a velocidade em que as downloads do MCP SDK continuam subindo a partir de 300 milhões; se a Anthropic vai padronizar o Code Mode como o modo oficial recomendado dentro das regras do MCP; e o ritmo de adoção do Code Mode por outras plataformas de agentes, como OpenAI, Google, Cursor etc.
Este artigo sobre como o Anthropic Code Mode resolve a disputa MCP vs CLI: ferramentas no runtime, tokens de 150 mil para 2 mil, e a aparição mais cedo disso foi na ABMedia, da cadeia de notícias.
Related Articles
O secretário financeiro de Hong Kong, Paul Chan, destaca as três principais vantagens da Área da Grande Baía: IA, manufatura e finanças
ByteDance planeja aumentar em 25% os gastos com infraestrutura de IA para 200 bilhões de yuanes este ano
Plataforma de IA para empresas encerra rodada de financiamento $16M liderada pela a16z
O Google está testando contratações por meio de exames que permitem que engenheiros usem ferramentas de IA
A OpenAI descontinua a API de fine-tuning com efeito imediato; usuários existentes poderão acessar até 6 de janeiro de 2027
Sakana AI e Nvidia alcançam inferência do H100 30% mais rápida, pulando 80% dos cálculos inválidos