Message de Gate News, 24 avril — L’ingénieur d’OpenAI Clive Chan a formulé des objections détaillées au chapitre de recommandations matérielles du rapport technique V4, le qualifiant de « remarquablement médiocre et sujet aux erreurs » par rapport à la version V3 acclamée. Les recommandations matérielles de la V3, qui comprenaient des sessions de Q&A devenues le sujet de discussion le plus populaire lors de la conférence académique ISCA, proposaient des recommandations spécifiques alignées sur les standards d’interconnexion de l’industrie. En revanche, la V4 est beaucoup plus vague.
Chan a contesté systématiquement trois recommandations clés. En ce qui concerne la consommation d’énergie, le rapport suggère que l’optimisation logicielle permet aux puces d’exécuter simultanément des calculs, du stockage et de la communication à pleine capacité, et recommande que les fabricants de puces réservent une marge de puissance supplémentaire. Chan soutient que cela est contre-productif : la puissance totale de la puce est limitée par des contraintes physiques du procédé, de sorte que réserver une marge de puissance supplémentaire ne fait que réduire la fréquence de fonctionnement, diminuant au final les performances de calcul. S’agissant du transfert de données de GPU à GPU, le rapport prône un modèle « pull » — où les GPU récupèrent activement les données — plutôt qu’un modèle « push », en invoquant le coût élevé des notifications dans les opérations push. Chan conteste cela, arguant que le pull est en réalité plus lent et que des capacités améliorées d’adaptateur réseau seraient préférables. Cependant, les deux peuvent discuter de couches différentes du problème : le rapport traite du surcoût lié au mécanisme de notification, tandis que Chan fait référence à la latence de transmission elle-même.
Concernant les fonctions d’activation, le rapport recommande de remplacer SwiGLU par des fonctions plus simples afin de réduire la charge de calcul. Chan n’y voit aucun intérêt, notant que Sonic MoE a déjà démontré des performances optimales en utilisant SwiGLU. Chan soupçonne que DeepSeek aurait « volontairement affaibli cette section ».
Related News
DeepSeek lance une version d’aperçu open source V4, avec une note technique de 3206 dépassant GPT-5.4
OpenAI lance GPT-5.5 : 12M de contexte, l’indice AA atteint le sommet, Terminal-Bench 82,7 % reconfigure la référence des agents
Anthropic révèle l’empilement de trois bugs de Claude Code : dégradation du raisonnement, oubli du cache, contrecoup d’une instruction de 25 caractères