Message de Gate News, 24 avril — Un débat a éclaté aux États-Unis au sujet des capacités technologiques et de la conformité de DeepSeek V4. Chris McGuire, senior fellow au Council on Foreign Relations (CFR) et ancien responsable du Conseil de sécurité nationale de la Maison-Blanche ainsi qu du département de la Défense, a publié une analyse soutenant que V4 n’a pas modifié le paysage concurrentiel de l’IA entre les États-Unis et la Chine. D’après McGuire, le propre rapport V4 de DeepSeek reconnaît que ses capacités de raisonnement accusent un retard d’environ 3 à 6 mois par rapport aux modèles de pointe, avec des benchmarks face à GPT-5.2 et Gemini 3.0 Pro sortis six mois plus tôt.
McGuire a soulevé des inquiétudes : si le rapport V4 divulgue une adaptation au stade de l’inférence vers les GPU NVIDIA et les NPU Huawei Ascend, il ne précise pas publiquement les modèles de GPU ni les coûts d’entraînement utilisés pendant le développement. Il s’est demandé si ce silence suggère l’utilisation de puces NVIDIA Blackwell contrôlées à l’export, notant que V3 avait auparavant affirmé utiliser 2,000 GPU H800 pour un coût de 5,57 millions de dollars. DeepSeek a nié avoir utilisé Blackwell, affirmant que le modèle a été entraîné sur des processeurs NVIDIA H800 et Huawei Ascend 910C.
Le PDG de Replit, Amjad Masad, a répliqué à l’analyse de McGuire, soutenant que des scientifiques chinois partagent publiquement de véritables avancées en IA tandis que des responsables politiques et des lobbyistes américains amplifient les inquiétudes de « distillation de la Chine ». Masad a mis en avant des innovations d’architecture divulguées dans les déclarations officielles de DeepSeek, notamment la compression de l’attention au niveau des tokens (DeepSeek Sparse Attention) et des améliorations d’efficacité significatives pour le calcul en contexte long. Il a indiqué que V4-Pro affiche une inférence par token et des besoins de cache KV nettement inférieurs à des longueurs de contexte de 1M par rapport à V3.2, soulignant que ces avancées d’architecture n’ont rien à voir avec la distillation des données d’entraînement et que l’ensemble des chercheurs, y compris des laboratoires américains, peuvent bénéficier de développements open source.
Related News
Tencent lance Hy3 en version d’aperçu open source, les tests de référence du code améliorent de 40 % par rapport à l’ancienne version
OpenAI lance GPT-5.5 : 12M de contexte, l’indice AA atteint le sommet, Terminal-Bench 82,7 % reconfigure la référence des agents
Google Jules ouvre une nouvelle liste de candidats pour la prochaine version et se repositionne comme une plateforme de développement de produits de bout en bout