Le Qwen Lab d'Alibaba ouvre le modèle Qwen3.6-35B-A3B avec une architecture MoE clairsemée

Message de Gate News, 16 avril — Le Qwen Lab d’Alibaba a annoncé la publication open source de Qwen3.6-35B-A3B, un grand modèle de langage construit sur une architecture (MoE) à mélange d’experts clairsemé. Le modèle présente 35 milliards de paramètres totaux, dont seulement 3 milliards sont activés par passe d’inférence.

Qwen3.6-35B-A3B est doté de capacités de programmation agentique et peut être intégré à des assistants de codage tiers, y compris OpenClaw, Claude Code et Qwen Code.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire