Disputa no Code Mode da Anthropic entre MCP e CLI: ferramentas travam o runtime, tokens caem de 150K para 2K

ChainNewsAbmedia

Em 2025 inteiro, a comunidade de engenharia de IA discutiu sem parar sobre a questão “MCP vs CLI”, que é mais adequada para chamadas de ferramentas por agentes, e o artigo da Anthropic publicado em novembro de 2025, “Code execution with MCP”, redefiniu o problema dos primeiros princípios. akshay_pachaar 5/10 organizou um thread que explica: o problema nunca esteve no protocolo em si, e sim no antigo hábito de colocar todas as descrições de ferramentas no context no início da session; a solução da Anthropic é fazer o modelo escrever código para chamar ferramentas, enquanto o runtime cuida dos detalhes de gerenciamento dessas ferramentas. O novo modelo é chamado de “Code Mode”.

O problema do modo antigo: a maior parte não é usada em 150 mil tokens

A estrutura de desperdício do modo MCP antigo:

Playwright MCP: 13,7 mil tokens (empacotado de uma vez)

Chrome DevTools MCP: 18 mil tokens

5 configurações de server: ainda nem começou a funcionar e já queimou 55 mil tokens

Uma única execução de workflow completa: pode crescer até 150 mil tokens

O que o modelo realmente usa: a maior parte fica sem uso

Os críticos defendem migrar para CLI, mas CLI em apps multiusuário é mais propensa a erros, falta um contrato typed, e para o agent analisar texto de saída de APIs que ele não conhece exige várias tentativas. As duas partes têm razão, mas os dois lados colocam o problema no lugar errado.

A solução: o modelo escreve code para chamar ferramentas, sem chamar diretamente a partir do context

O núcleo do “Code Mode” proposto pela Anthropic:

Inverte o papel do modelo: não é o modelo chamando ferramentas via context; é o modelo escrevendo código, e o runtime chamando as ferramentas

As ferramentas ficam no runtime, e o modelo só vê as partes que ele importa

O type acompanha o import: o modelo importa qual ferramenta, e então pega o contrato de tipo correspondente

Chama binários instalados via Bash (git, curl etc.)

Usa typed module imports para chamar APIs dedicadas

Exemplo da Anthropic: logs de texto do Google Drive fluem para o Salesforce CRM e atualizam registros. No método antigo, carrega os schemas das duas partes e passa toda a gravação de texto para o modelo duas vezes; no novo método, com apenas 10 linhas de TypeScript, você importa somente o necessário, e a mesma tarefa sai de 150 mil para 2 mil tokens, uma redução de 98,7%.

A Cloudflare levou isso ao limite: 2.500 endpoints de API, de 1,17 milhão de tokens para 1 mil

A Cloudflare fez a versão mais radical:

Escala original da API: 2.500 endpoints, schemas somando 1,17 milhão de tokens

Novo método: expor apenas duas funções, search e execute, com total de 1 mil tokens

O agent escreve código: primeiro search no diretório de ferramentas, depois execute na ferramenta correspondente

Taxa de compressão: mais de 1.000 vezes

A frase “MCP está morto” está errada—A Anthropic divulgou que as downloads do MCP SDK já chegaram a 300 milhões; no começo do ano eram 100 milhões, e é uma das construções de base de agentes que mais cresce no momento. O que “morreu” foi esse estilo de “carregar todas as ferramentas de uma vez no início da session”, e essa, na verdade, era uma má ideia. Para desenvolvedores que vão escrever agentes em 2026, a regra é simples: definições de ferramentas pertencem ao code, não ao context; o modelo escreve algumas linhas de código para chamar, e o runtime trata o resto.

Eventos concretos para acompanhar depois: a velocidade em que as downloads do MCP SDK continuam subindo a partir de 300 milhões; se a Anthropic vai padronizar o Code Mode como o modo oficial recomendado dentro das regras do MCP; e o ritmo de adoção do Code Mode por outras plataformas de agentes, como OpenAI, Google, Cursor etc.

Este artigo sobre como o Anthropic Code Mode resolve a disputa MCP vs CLI: ferramentas no runtime, tokens de 150 mil para 2 mil, e a aparição mais cedo disso foi na ABMedia, da cadeia de notícias.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

O secretário financeiro de Hong Kong, Paul Chan, destaca as três principais vantagens da Área da Grande Baía: IA, manufatura e finanças

De acordo com a ChainCatcher, o secretário financeiro de Hong Kong, Paul Chan, divulgou recentemente uma declaração por escrito, traçando três principais vantagens da Área da Grande Baía: pesquisa em IA de ponta, cadeias completas de manufatura de alto padrão e um hub financeiro internacional. Chan afirmou que essa combinação de “IA + manufatura + finanças” posiciona Hong Kong para cumprir duas funções-chave durante o período do 15º Plano Quinquenal: coordenação industrial e ponte regulatória, i

GateNews20m atrás

ByteDance planeja aumentar em 25% os gastos com infraestrutura de IA para 200 bilhões de yuanes este ano

De acordo com a ChainCatcher citando a Golden Data, a ByteDance planeja aumentar os gastos com infraestrutura de IA em 25% para 200 bilhões de iuanes este ano, impulsionada pelos custos crescentes de chips de memória e pelo desenvolvimento acelerado da inteligência artificial.

GateNews3h atrás

Plataforma de IA para empresas encerra rodada de financiamento $16M liderada pela a16z

De acordo com a Odaily, a plataforma corporativa de IA Pit anunciou a conclusão de uma rodada de financiamento de US$ 16 milhões, liderada pela a16z, com participação da Lakestar e de executivos da OpenAI, Anthropic, Google, Deel e Revolut. A Pit se posiciona como “time de produto de IA como serviço”, projetado para substituir planilhas tradicionais e sistemas SaaS rígidos.

GateNews4h atrás

O Google está testando contratações por meio de exames que permitem que engenheiros usem ferramentas de IA

De acordo com o The Chosun Daily, a Google está fazendo testes de exames de contratação que permitem que candidatos a engenheiros de software dos EUA usem ferramentas de IA em cargos selecionados de nível inicial e intermediário. O teste inclui tarefas de compreensão de código em que os candidatos analisam código existente, corrigem bugs e melhoram o desempenho. Os entrevistadores vão avaliar como os candidatos orientam a IA, verificam a saída, editam os resultados e fazem o debug do código, em

GateNews6h atrás

A OpenAI descontinua a API de fine-tuning com efeito imediato; usuários existentes poderão acessar até 6 de janeiro de 2027

De acordo com o anúncio oficial da OpenAI monitorado pela Beating, a empresa está descontinuando sua API de Fine-tuning self-serve para desenvolvedores a partir de agora. Novos usuários não podem mais criar tarefas de fine-tuning, enquanto usuários ativos existentes podem acessar o serviço até 6 de janeiro de 2027. Modelos fine-tunados implantados terão seus serviços de inferência vinculados ao ciclo de vida de seus modelos base, encerrando quando o modelo base for desativado. A OpenAI afirmou q

GateNews6h atrás

Sakana AI e Nvidia alcançam inferência do H100 30% mais rápida, pulando 80% dos cálculos inválidos

Sakana AI e Nvidia disponibilizaram TwELL em código aberto, um formato de dados esparso que permite que as GPUs H100 ignorem 80% das computações inválidas em grandes modelos de linguagem sem comprometer a precisão. A solução oferece até 30% mais velocidade na inferência e 24% mais rapidez no treinamento nas H100, ao mesmo tempo em que reduz o uso máximo de memória. Em testes em um modelo de 1,5 bilhão de parâmetros, a abordagem reduziu os neurônios ativos para abaixo de 2% por meio de regulariza

GateNews7h atrás
Comentário
0/400
Sem comentários