Qwen3.6-35B-A3B 开源
6 小时前

4月16日消息,Qwen3.6-35B-A3B开源,该模型采用稀疏混合专家(MoE)架构,总参数350亿,每次推理仅激活30亿参数。尽管参数量小,但性能强劲,在智能体编程方面,它大幅超越前代Qwen3.5-35B-A3B,且能与Qwen3.5-27B、Gemma-31B等更大体量的稠密模型相媲美。