阿里巴巴的 Qwen Lab 发布采用稀疏 MoE 架构的 Qwen3.6-35B-A3B 开源模型

Gate 新闻消息,4 月 16 日——阿里巴巴的 Qwen Lab 宣布开源发布 Qwen3.6-35B-A3B,这是一款基于稀疏混合专家 (MoE) 架构构建的大语言模型。该模型总参数规模为 350 亿,其中每次推理仅激活 30 亿参数。

Qwen3.6-35B-A3B 配备面向智能体的编程能力,可集成到第三方代码助手中,包括 OpenClaw、Claude Code 和 Qwen Code。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论