Améliorer la productivité avec l’IA ou réduire les coûts ? Une efficacité multipliée par cent n’a pas entraîné des revenus multipliés par cent, mais personne en Silicon Valley n’ose dire stop.

孟醒, associé de Wuyuan Capital, a récemment publié un rapport d’inspection du Silicon Valley, avançant un jugement qui l’a même amené à changer son habitude de prendre des notes : la Silicon Valley est en train d’entrer dans une phase où même ceux qui “veulent créer des vagues” se font submerger par les vagues. La vitesse d’itération de l’IA est déjà passée de « au rythme du mois » à « au rythme de la semaine », et même la Silicon Valley elle-même n’arrive plus à suivre ses propres progrès.

Lorsque l’IA multiplie par cinq la productivité d’une équipe, vous pouvez réduire de 80% les effectifs nécessaires pour maintenir le niveau de production initial, ou bien maintenir le nombre de personnes et faire cinq fois plus de travail. L’observation de Meng Xing à la Silicon Valley revient, en somme, à donner sur place un premier brouillon de la réponse : quand une efficacité 100 fois supérieure ne se traduit pas par un chiffre d’affaires 100 fois supérieur, quand le budget en tokens se rapproche du coût de la main-d’œuvre, quand la machine à vapeur n’arrive pas à courir plus vite que la carriole mais que personne n’ose s’arrêter, la Silicon Valley choisit désormais « augmenter d’abord la vitesse, on verra ensuite ». Mais à la fin, cette voie mènera-t-elle à « étendre les capacités » ou à « comprimer les coûts » ? Pour l’instant, rien n’est tranché.

YC passe des indicateurs avancés aux indicateurs en retard

En mars de cette année, Meng Xing était assis parmi le public au Demo Day du batch YC W26 ; dès qu’il a entendu le pitch de la cinquième société, il a posé son stylo. La raison : parmi plus de 100 entreprises pour cette cohorte, environ 80% font des agents verticaux, par exemple aider les avocats à organiser des documents, aider le support client à distribuer des tickets, ou aider les RH à trier les CV.

Si c’était en octobre dernier qu’il voyait ces sujets, il les trouverait « plutôt ingénieux ». Mais depuis que Claude Code est passé d’un outil pour développeurs à une interface que presque tout le monde peut utiliser, et qu’Opus 4.6 a abaissé le seuil du vibe coding au niveau du sol, ces agents verticaux peuvent être copiés par un ingénieur ordinaire en un simple week-end, avant même qu’ils n’aient établi des barrières de business.

Le système de batch de YC — de la demande, au filtrage, à l’entrée dans le programme, au perfectionnement jusqu’au Demo Day — a été conçu pour un monde plus lent. À la vitesse d’itération actuelle de l’IA, 5 mois suffisent pour provoquer plusieurs transferts de paradigmes. Meng Xing décrit que YC est en train de passer progressivement d’indicateurs avancés à des indicateurs en retard.

Toute l’entreprise Meta programme avec les produits de ses concurrents

Le plus grand choc du voyage de Meng Xing en Silicon Valley, c’est que toute l’entreprise Meta utilise Claude Code. Dans une entreprise d’une valeur atteignant le niveau de dizaines de milliards, faire utiliser par des dizaines de milliers d’ingénieurs l’API d’un concurrent pour accéder au code de l’entreprise : il y a six mois, cela était totalement inimaginable.

En interne, Meta avait déjà lancé un outil nommé myclaw pour tenter de résoudre les problèmes de sécurité du code, mais « ce n’était pas pratique, personne ne l’utilisait ». À la fin, l’entreprise a directement assoupli sa politique : tant que cela ne concerne pas les données clients, les employés peuvent utiliser librement Claude Code, et des réunions internes ainsi que des formations ont commencé sur « comment devenir une organisation AI native ».

Google, pour des raisons de sécurité, interdit en principe aux employés d’utiliser des outils de concurrents, mais DeepMind fait exception : plusieurs équipes responsables de Gemini et des applications internes utilisent Claude Code. L’outil interne de codage de Google, Antigravity, affirme qu’environ 50% du nouveau code serait actuellement rédigé par l’IA, mais cela n’empêche pas la préférence de DeepMind.

L’un des points clés, c’est qu’Anthropic a effectué un déploiement en mode privatisé, et que l’inférence ainsi que l’entraînement d’Anthropic tournent aussi en grande partie sur les TPU de Google Cloud ; les deux parties ont donc des bases de confiance. Les autres grands acteurs n’ont pas cette relation : ils ont vraiment mis la sécurité du code de côté pour l’instant, afin de lancer la vitesse.

Les tokens d’un ingénieur coûtent plus cher que l’ingénieur lui-même

Parmi plusieurs jeunes entreprises AI-native qu’a visité Meng Xing à Palo Alto, un budget annuel en tokens pour un ingénieur se situe autour de plus de 200 000 dollars ; ce chiffre se rapproche déjà du salaire annuel d’un ingénieur. En apparence, l’entreprise utilise l’IA pour licencier et économiser de l’argent ; en réalité, le coût total n’a peut-être même pas baissé : elle a seulement remplacé le coût humain par un coût en tokens.

Meta a porté cela à l’extrême : en interne, l’entreprise a mis en place un classement de consommation de tokens. Celui qui en utilise le plus monte au classement, et à la fin, il/elle pourrait être licencié(e). Les employés se sont donc mis à “se battre” pour un titre officieux appelé « token legend ». Mais, au cours de la même période, Meta a enchaîné deux vagues de licenciements, pour un total de plus de dix mille personnes. D’un côté, tout le monde fonce sur les tokens ; de l’autre, on licencie massivement : ce n’est pas contradictoire, c’est les deux faces d’une même histoire.

Meng Xing a vu sur le terrain une entreprise de cycle C : le responsable technique a ouvert Slack devant lui pour lui montrer ; il n’y avait que des agents en exécution. En arrière-plan, il y avait une douzaine d’agents Cursor en parallèle, puis encore une fenêtre Claude Code, chargée de l’orchestration. L’anxiété la plus populaire dans le milieu des ingénieurs, c’est : avant d’aller dormir, ne pas savoir ce que ces dizaines d’agents vont faire ensuite, et donc être très inquiet.

Efficacité 100 fois supérieure, sans que le chiffre d’affaires soit multiplié par 100

Beaucoup de CTO enthousiasmés ont dit à Meng Xing : « Avant, 60 personnes mettaient 1 an pour faire ce qu’on fait maintenant : avec 2 personnes et Claude Code, c’est réglé en une semaine. » On parle de « cent fois plus d’ingénieurs », « dix fois plus d’amélioration d’efficacité ».

Mais une fois Meng Xing calmé, il a posé une question : d’accord, l’efficacité a été multipliée par 100, mais le chiffre d’affaires de l’entreprise a-t-il augmenté de 100 fois ? Les lignes de produits se sont-elles étendues de 100 fois ? Il n’a obtenu aucune réponse positive. En fait, quand une amélioration d’efficacité de 100 fois se traduit en chiffre d’affaires, elle se reflète souvent seulement à 50% ou à 1 fois. D’où vient l’écart ? À l’heure actuelle, personne ne peut l’expliquer clairement.

« Avec autant de tokens, l’entreprise devrait se transformer par mutation génétique en une autre entreprise. Mais en quoi exactement, je ne sais pas. » C’est ainsi qu’un fondateur lui a dit. Même Anthropic a des scénarios où elle ne parvient pas à suivre. Meng Xing a demandé à un ami chez Anthropic : « Quel est le scénario le plus douloureux quand vous utilisez des agents ? » La réponse : l’oncall, la réponse immédiate.

Quand les réponses API deviennent plus lentes, que des nœuds d’inférence tombent en panne, ou quand les sorties de retours utilisateurs sont anormales, l’ingénieur oncall doit rapidement déterminer s’il s’agit d’un bug de code, d’un problème d’allocation de puissance de calcul, ou du modèle lui-même. Anthropic est la meilleure entreprise mondiale en matière de coding agents ; ce scénario est si proche de leurs compétences de cœur qu’on ne peut pas faire plus proche. Pourtant, leurs agents oncall en interne restent inutilisables.

La machine à vapeur court encore moins vite que la carriole, mais personne n’ose s’arrêter

Meng Xing décrit l’état des choses ainsi : la machine à vapeur a déjà été inventée, mais parfois, elle court encore moins vite que la carriole. L’essentiel, c’est que tout le monde sait que la machine à vapeur finira par courir encore plus vite, donc la sécurité du code n’est plus prise en compte, le budget en tokens explose, et le classement relance la course. Quant à savoir quand la machine à vapeur dépassera vraiment la carriole, personne ne le sait ; mais personne n’ose s’arrêter et attendre ce jour-là, parce que le coût de s’arrêter serait probablement plus élevé que d’avoir “brûlé” trop de tokens.

Et la consommation de tokens ne devrait probablement pas croître de manière linéaire. Meng Xing cite les données de l’institut de recherche METR : l’indicateur qui mesure jusqu’à quel point les tâches peuvent être accomplies par les agents d’IA avec un taux de réussite de 50% (en prenant le temps de réalisation par des experts humains comme référence). En mars 2025, avec Claude 3.7 Sonnet, c’était encore 50 minutes ; d’ici fin 2025, Claude Opus 4.6 fait déjà 14,5 heures.

Au cours des deux dernières années, le cycle de doublement de cet indicateur est passé de 7 mois à 4 mois. Une fois que la fiabilité des agents franchit encore une étape, la consommation de tokens ne sera plus un simple problème d’augmentation annuelle de 50% : elle passera carrément d’un ordre de grandeur à l’autre en une nuit. Meng Xing mentionne aussi une prédiction partagée au sein d’un cercle d’amis : d’ici la fin de cette année, de nombreuses entreprises (y compris de grandes entreprises technologiques) n’auront en pratique besoin que de 20% des effectifs.

( Répondre à une question : si l’IA vous fait gagner cinq fois en efficacité, vous réduisez 80% des coûts, ou vous faites cinq fois plus de choses ? )

Le 4 de ce mois-ci, l’auteur avait demandé dans un article : lorsque l’IA multiplie par cinq la productivité d’une équipe, vous pouvez réduire de 80% du personnel pour maintenir le niveau de production initial, ou bien maintenir les effectifs et faire cinq fois plus de choses. Sur le podcast de a16z, Aaron Levie a avancé que, dans le futur, le nombre d’agents d’une entreprise pourrait être de 100 à 1 000 fois celui des employés ; Huang Renxun a quant à lui dit sans détour que, si le monde ne crée pas de nouvelles idées, les gains de productivité apportés par l’IA ne feront finalement que se traduire par du chômage. Le problème n’est pas l’IA ; il s’agit de savoir si les décideurs ont, ou non, de l’imagination.

L’observation de Meng Xing en Silicon Valley revient, en quelque sorte, à donner sur place un premier brouillon de la réponse : lorsque l’efficacité 100 fois supérieure ne se traduit pas par un chiffre d’affaires 100 fois supérieur, quand le budget en tokens se rapproche des coûts de main-d’œuvre, quand la machine à vapeur n’arrive pas encore à courir plus vite que la carriole, mais que personne n’ose s’arrêter, la Silicon Valley choisit « accélérer d’abord, on verra ensuite ». Mais à la fin, cette voie mènera-t-elle à « étendre les capacités » ou à « comprimer les coûts » ? Pour l’instant, rien n’est tranché.

En conclusion de son article, Meng Xing laisse une perspective plus équilibrée : en ces demi-mois, il a vu tellement de personnes qui « n’arrivent pas à suivre », et cela rend effectivement anxieux ; mais si l’IA peut vraiment, d’ici quelques années, transformer le cancer en maladie chronique, et faire avancer de vingt ans la science des matériaux, alors ce « fait de ne pas arriver à suivre » pourrait être la plus grande accélération de l’histoire du développement humain.

Pour les décideurs d’entreprise, la vraie question n’a jamais été de savoir si l’IA remplacera ou non les humains, mais plutôt : après que la productivité a été multipliée par cinq, dix, cent, choisirez-vous de l’utiliser pour licencier encore plus de monde, ou pour faire encore plus de choses. Ce choix se produit en même temps, dans les salles de réunion de la Silicon Valley et des entreprises du monde entier.

Cet article 用 AI 提升產出還是降低成本?百倍效率沒換來百倍營收,但矽谷沒人敢喊停 apparaît pour la première fois sur 鏈新聞 ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire