DeepSeek V4 déclenche un débat aux États-Unis : un think tank remet en question l’usage des puces, le PDG de Replit défend l’innovation ouverte

Message de Gate News, 24 avril — Un débat a éclaté aux États-Unis au sujet des capacités technologiques et de la conformité de DeepSeek V4. Chris McGuire, senior fellow au Council on Foreign Relations (CFR) et ancien responsable du Conseil de sécurité nationale de la Maison-Blanche ainsi qu du département de la Défense, a publié une analyse soutenant que V4 n’a pas modifié le paysage concurrentiel de l’IA entre les États-Unis et la Chine. D’après McGuire, le propre rapport V4 de DeepSeek reconnaît que ses capacités de raisonnement accusent un retard d’environ 3 à 6 mois par rapport aux modèles de pointe, avec des benchmarks face à GPT-5.2 et Gemini 3.0 Pro sortis six mois plus tôt.

McGuire a soulevé des inquiétudes : si le rapport V4 divulgue une adaptation au stade de l’inférence vers les GPU NVIDIA et les NPU Huawei Ascend, il ne précise pas publiquement les modèles de GPU ni les coûts d’entraînement utilisés pendant le développement. Il s’est demandé si ce silence suggère l’utilisation de puces NVIDIA Blackwell contrôlées à l’export, notant que V3 avait auparavant affirmé utiliser 2,000 GPU H800 pour un coût de 5,57 millions de dollars. DeepSeek a nié avoir utilisé Blackwell, affirmant que le modèle a été entraîné sur des processeurs NVIDIA H800 et Huawei Ascend 910C.

Le PDG de Replit, Amjad Masad, a répliqué à l’analyse de McGuire, soutenant que des scientifiques chinois partagent publiquement de véritables avancées en IA tandis que des responsables politiques et des lobbyistes américains amplifient les inquiétudes de « distillation de la Chine ». Masad a mis en avant des innovations d’architecture divulguées dans les déclarations officielles de DeepSeek, notamment la compression de l’attention au niveau des tokens (DeepSeek Sparse Attention) et des améliorations d’efficacité significatives pour le calcul en contexte long. Il a indiqué que V4-Pro affiche une inférence par token et des besoins de cache KV nettement inférieurs à des longueurs de contexte de 1M par rapport à V3.2, soulignant que ces avancées d’architecture n’ont rien à voir avec la distillation des données d’entraînement et que l’ensemble des chercheurs, y compris des laboratoires américains, peuvent bénéficier de développements open source.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire