En 2025, la communauté d’ingénierie IA a beaucoup débattu sur la question « MCP vs CLI » pour savoir ce qui convient le mieux aux appels d’outils des agents, et la publication par Anthropic en novembre 2025 de l’article « Code execution with MCP » a redéfini le problème à partir des principes fondamentaux. akshay_pachaar a résumé le thread le 5/10 : le problème ne vient jamais du protocole lui-même, mais de la vieille habitude consistant à empiler toutes les descriptions d’outils dans le context au début de la session ; la solution d’Anthropic consiste à faire écrire au modèle du code qui appelle des outils, tandis que le runtime gère les détails des outils. Ce nouveau mode est appelé « Code Mode ».
Le problème du mode ancien : la plupart des tokens ne servent à rien
Structure gaspilleuse du vieux MCP :
Playwright MCP : 13,7K tokens (chargement intégral à la fois)
Chrome DevTools MCP : 18K tokens
5 configurations de server : 55K tokens brûlés avant même le démarrage
Un workflow unique exécuté de bout en bout : peut gonfler jusqu’à 150K tokens
Utilisation réelle du modèle : l’essentiel n’est jamais utilisé
Les critiques soutiennent qu’il faut passer à CLI, mais CLI est fragile dans les applis multi-tenant, manque de typed contract, et l’agent doit faire de multiples itérations pour analyser la sortie textuelle quand l’API n’est pas familière. Les deux camps ont raison sur certains points, mais tous deux situent le problème au mauvais endroit.
Solution : le modèle écrit du code pour appeler les outils, sans les appeler directement depuis le context
Le cœur du « Code Mode » proposé par Anthropic :
Renverse le rôle du modèle : ce n’est plus le modèle qui appelle les outils via le context, c’est le modèle qui écrit du code, et le runtime appelle les outils
Les outils vivent dans le runtime, et le modèle ne voit que la partie qu’il importe
Le type suit les importations : le modèle importe quel outil, et récupère les types contractuels correspondants
Appel via Bash des binaires installés (git, curl, etc.)
Utilisation de typed module imports pour appeler des API dédiées
Exemple d’Anthropic : des notes textuelles de Google Drive alimentent un Salesforce CRM pour mise à jour. Dans l’ancien schéma, on charge les schémas des deux côtés, puis on fait passer le texte entier via le modèle deux fois ; dans le nouveau schéma, 10 lignes de TypeScript ne font qu’importer le nécessaire, et la même tâche fait passer la charge de 150K à 2K tokens, soit une réduction de 98,7 %.
Cloudflare pousse à l’extrême : 2 500 endpoint API, passage de 1,17M tokens à 1K
Cloudflare a fait la version la plus radicale :
Échelle API d’origine : 2 500 endpoint, schémas totalisant 1,17M tokens
Nouvelle approche : n’exposer que deux fonctions search et execute, totalisant 1K tokens
L’agent écrit d’abord du code pour search dans l’annuaire des outils, puis exécute execute sur l’outil correspondant
Taux de compression : plus de 1 000 fois
La phrase « MCP est mort » est fausse : Anthropic a publié que le téléchargement de son SDK MCP a atteint 300 millions, contre 100 millions au début de l’année ; c’est l’un des socles d’infrastructure pour agents qui progresse le plus vite actuellement. Ce qui est mort, c’est l’écriture consistant à charger tous les outils en une seule fois au démarrage de la session — et c’était déjà une mauvaise idée. Pour les développeurs qui écrivent des agents en 2026, la règle est simple : la définition des outils appartient au code, pas au context ; le modèle écrit quelques lignes de code pour appeler les outils, et le runtime gère le reste.
Événements concrets à suivre ensuite : la vitesse de progression du téléchargement du SDK MCP qui continue de monter après 300 millions, si Anthropic standardise le Code Mode comme mode recommandé officiel dans ses spécifications MCP, et l’avancement de l’adoption du Code Mode par d’autres plateformes d’agents comme OpenAI, Google, Cursor, etc.
Cet article sur le Code Mode d’Anthropic et la controverse MCP vs CLI : les outils résident dans le runtime, et les tokens passent de 150K à 2K, apparaît pour la première fois sur Chaîne News ABMedia.
Articles similaires
Sam Altman révèle les parts d’utilisation de ChatGPT par âge, avec plus d’un tiers des 18-24 ans l’utilisant quotidiennement le 10 mai
Le secrétaire financier de Hong Kong, Paul Chan, met en avant trois atouts majeurs de la Grande Baie : l’IA, l’industrie manufacturière et la finance
ByteDance prévoit une hausse de 25 % de ses dépenses d'infrastructure pour l'IA, à 200 milliards de yuans cette année
La plateforme d’IA d’entreprise met fin à son cycle de financement $16M , dirigé par a16z
Google lance des tests de recrutement qui permettent aux ingénieurs d’utiliser des outils d’IA
OpenAI met fin à l’API de fine-tuning, de manière effective immédiatement. Les utilisateurs existants peuvent encore y accéder jusqu’au 6 janvier 2027