Conflit en mode code d’Anthropic : MCP vs CLI — les outils bloquent le runtime, les tokens passent de 150 000 à 2 000

En 2025, la communauté d’ingénierie IA a beaucoup débattu sur la question « MCP vs CLI » pour savoir ce qui convient le mieux aux appels d’outils des agents, et la publication par Anthropic en novembre 2025 de l’article « Code execution with MCP » a redéfini le problème à partir des principes fondamentaux. akshay_pachaar a résumé le thread le 5/10 : le problème ne vient jamais du protocole lui-même, mais de la vieille habitude consistant à empiler toutes les descriptions d’outils dans le context au début de la session ; la solution d’Anthropic consiste à faire écrire au modèle du code qui appelle des outils, tandis que le runtime gère les détails des outils. Ce nouveau mode est appelé « Code Mode ».

Le problème du mode ancien : la plupart des tokens ne servent à rien

Structure gaspilleuse du vieux MCP :

Playwright MCP : 13,7K tokens (chargement intégral à la fois)

Chrome DevTools MCP : 18K tokens

5 configurations de server : 55K tokens brûlés avant même le démarrage

Un workflow unique exécuté de bout en bout : peut gonfler jusqu’à 150K tokens

Utilisation réelle du modèle : l’essentiel n’est jamais utilisé

Les critiques soutiennent qu’il faut passer à CLI, mais CLI est fragile dans les applis multi-tenant, manque de typed contract, et l’agent doit faire de multiples itérations pour analyser la sortie textuelle quand l’API n’est pas familière. Les deux camps ont raison sur certains points, mais tous deux situent le problème au mauvais endroit.

Solution : le modèle écrit du code pour appeler les outils, sans les appeler directement depuis le context

Le cœur du « Code Mode » proposé par Anthropic :

Renverse le rôle du modèle : ce n’est plus le modèle qui appelle les outils via le context, c’est le modèle qui écrit du code, et le runtime appelle les outils

Les outils vivent dans le runtime, et le modèle ne voit que la partie qu’il importe

Le type suit les importations : le modèle importe quel outil, et récupère les types contractuels correspondants

Appel via Bash des binaires installés (git, curl, etc.)

Utilisation de typed module imports pour appeler des API dédiées

Exemple d’Anthropic : des notes textuelles de Google Drive alimentent un Salesforce CRM pour mise à jour. Dans l’ancien schéma, on charge les schémas des deux côtés, puis on fait passer le texte entier via le modèle deux fois ; dans le nouveau schéma, 10 lignes de TypeScript ne font qu’importer le nécessaire, et la même tâche fait passer la charge de 150K à 2K tokens, soit une réduction de 98,7 %.

Cloudflare pousse à l’extrême : 2 500 endpoint API, passage de 1,17M tokens à 1K

Cloudflare a fait la version la plus radicale :

Échelle API d’origine : 2 500 endpoint, schémas totalisant 1,17M tokens

Nouvelle approche : n’exposer que deux fonctions search et execute, totalisant 1K tokens

L’agent écrit d’abord du code pour search dans l’annuaire des outils, puis exécute execute sur l’outil correspondant

Taux de compression : plus de 1 000 fois

La phrase « MCP est mort » est fausse : Anthropic a publié que le téléchargement de son SDK MCP a atteint 300 millions, contre 100 millions au début de l’année ; c’est l’un des socles d’infrastructure pour agents qui progresse le plus vite actuellement. Ce qui est mort, c’est l’écriture consistant à charger tous les outils en une seule fois au démarrage de la session — et c’était déjà une mauvaise idée. Pour les développeurs qui écrivent des agents en 2026, la règle est simple : la définition des outils appartient au code, pas au context ; le modèle écrit quelques lignes de code pour appeler les outils, et le runtime gère le reste.

Événements concrets à suivre ensuite : la vitesse de progression du téléchargement du SDK MCP qui continue de monter après 300 millions, si Anthropic standardise le Code Mode comme mode recommandé officiel dans ses spécifications MCP, et l’avancement de l’adoption du Code Mode par d’autres plateformes d’agents comme OpenAI, Google, Cursor, etc.

Cet article sur le Code Mode d’Anthropic et la controverse MCP vs CLI : les outils résident dans le runtime, et les tokens passent de 150K à 2K, apparaît pour la première fois sur Chaîne News ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Sam Altman révèle les parts d’utilisation de ChatGPT par âge, avec plus d’un tiers des 18-24 ans l’utilisant quotidiennement le 10 mai

D’après Fortune, le PDG d’OpenAI, Sam Altman, a révélé le 10 mai que les utilisateurs de ChatGPT, dans différents groupes d’âge, ont des modes d’utilisation distincts. Les utilisateurs plus âgés considèrent la plateforme comme un remplacement de Google, tandis que ceux dans la vingtaine et la trentaine l’utilisent comme un conseiller personnel. Les étudiants universitaires s’en servent comme d’un système d’exploitation quotidien, en tirant parti de la mémoire des conversations pour obtenir des c

GateNewsIl y a 1m

Le secrétaire financier de Hong Kong, Paul Chan, met en avant trois atouts majeurs de la Grande Baie : l’IA, l’industrie manufacturière et la finance

D'après ChainCatcher, le secrétaire financier de Hong Kong, Paul Chan, a publié récemment une déclaration écrite, présentant trois atouts essentiels de la Grande Baie : une recherche en IA à la pointe, des chaînes complètes de fabrication haut de gamme et un pôle financier international. Chan a déclaré que cette combinaison « IA + fabrication + finance » permet à Hong Kong de remplir deux fonctions clés pendant la période du 15e plan quinquennal : la coordination industrielle et le relai régleme

GateNewsIl y a 30m

ByteDance prévoit une hausse de 25 % de ses dépenses d'infrastructure pour l'IA, à 200 milliards de yuans cette année

D’après ChainCatcher citant Golden Data, ByteDance prévoit d’augmenter ses dépenses en infrastructure d’IA de 25 % pour atteindre 200 milliards de yuans cette année, sous l’effet de la hausse des coûts des puces mémoire et de l’accélération du développement de l’intelligence artificielle.

GateNewsIl y a 4h

La plateforme d’IA d’entreprise met fin à son cycle de financement $16M , dirigé par a16z

D’après Odaily, la plateforme d’IA d’entreprise Pit a annoncé l’achèvement d’une levée de fonds de 16 millions de dollars menée par a16z, avec la participation de Lakestar et d’exécutifs d’OpenAI, d’Anthropic, de Google, de Deel et de Revolut. Pit se positionne comme « une équipe produit d’IA en tant que service », conçue pour remplacer les tableurs traditionnels et des systèmes SaaS rigides.

GateNewsIl y a 4h

Google lance des tests de recrutement qui permettent aux ingénieurs d’utiliser des outils d’IA

D’après The Chosun Daily, Google teste des examens de recrutement qui permettent à des candidats américains ingénieurs logiciels d’utiliser des outils d’IA pour des postes sélectionnés de début de carrière et de niveau intermédiaire. L’essai comprend des tâches de compréhension de code dans lesquelles les candidats examinent du code existant, corrigent des bugs et améliorent les performances. Les recruteurs évalueront la façon dont les candidats sollicitent l’IA, vérifient ses réponses, modifien

GateNewsIl y a 6h

OpenAI met fin à l’API de fine-tuning, de manière effective immédiatement. Les utilisateurs existants peuvent encore y accéder jusqu’au 6 janvier 2027

D’après l’annonce officielle d’OpenAI surveillée par Beating, la société cesse son API de Fine-tuning en libre-service pour les développeurs, à compter de maintenant. Les nouveaux utilisateurs ne peuvent plus créer de tâches de fine-tuning, tandis que les utilisateurs actifs existants peuvent accéder au service jusqu’au 6 janvier 2027. Les modèles fine-tunés déployés verront leurs services d’inférence liés au cycle de vie de leurs modèles de base, et ils cesseront lorsque le modèle de base sera

GateNewsIl y a 6h
Commentaire
0/400
Aucun commentaire