千问大模型:Qwen3.5-Flash来袭,三款中等规模模型全开源

  2月25日消息 ,据千问大模型官方微博,今天,千问大模型正式开源千问3.5最新中等规模模型:Qwen3.5-35B-A3B 、Qwen3.5-122B -A10B  、Qwen3.5-27B。

  千问大模型表示 ,Qwen3.5-35B-A3B 的表现已超越前代更大规模模型Qwen3-235B-A22B-2507 及 Qwen3-VL-235B-A22B,而Qwen3.5-122B-A10B 与 27B 版本进一步缩小了中等规模模型与前沿模型的差距,尤其在复杂 *** 场景中表现优异 。这表明性能超越规模 ,不再单纯依赖参数堆叠 ,而是通过架构优化、数据质量提升及强化学习推动智能发展。为了更好地帮助开源社区的深入研究,我们同步开源Qwen3.5-35B-A3B-Base供大家使用。

  以下为微博原文:

  Qwen3.5-Flash来袭!三款中等规模模型全开源

  今天,我们正式开源千问3.5最新中等规模模型:Qwen3.5-35B-A3B 、Qwen3.5-122B -A10B  、Qwen3.5-27B 。

  Qwen3.5-35B-A3B 的表现已超越前代更大规模模型Qwen3-235B-A22B-2507 及 Qwen3-VL-235B-A22B ,而Qwen3.5-122B-A10B 与 27B 版本进一步缩小了中等规模模型与前沿模型的差距,尤其在复杂 *** 场景中表现优异。这表明性能超越规模,不再单纯依赖参数堆叠 ,而是通过架构优化、数据质量提升及强化学习推动智能发展。为了更好地帮助开源社区的深入研究,我们同步开源Qwen3.5-35B-A3B-Base供大家使用 。

  🚀 架构进化,性能突破:

  Qwen3.5采用混合注意力机制 ,结合高稀疏的MoE架构创新,并基于更大规模的文本和视觉混合Token上训练,Qwen3.5-122B-A10B与Qwen3.5-35B-A3B以更小的总参数和激活参数量 ,实现了更大的性能提升 。

  在指令遵循(IFBench)、博士级别推理(GPQA) 、数学推理(HMMT 25) 、多语言知识(MMMLU)、Agent工具调用(BFCL v4)、Agentic Coding(SWE-bench Verified)等多个权威榜单上,新模型均超越了远大于其规模的Qwen3-235B-A22B模型及Qwen3-VL,以及GPT-5 mini 、gpt-oss-120b等模型。

  🛠️ 开发者友好 ,适合本地部署:

  Qwen3.5的首个密集(Dense)模型Qwen3.5-27B此次惊艳亮相 ,拥有更强的Agent能力和原生多模态能力,在工具调用、搜索、编程等多个Agent评测中均超过了GPT-5 mini,在视觉推理 、文本识别和理解、视频推理等多项视觉理解榜单中 ,超过了Qwen3-VL旗舰模型和Claude Sonnet 4.5。Qwen3.5-27B可运行于单个GPU,对于本地部署极为友好 。

  🔧Qwen3.5-Flash(Qwen3.5-35B-A3B 生产版本)API服务 :

  ● Qwen3.5-Flash在阿里云百炼上线,每百万Token价格低至0.2元 ,性能强,速度快,性价比极高 ,适合开发者和企业的规模化、生产级的模型需求。

  ● 默认支持 1M 超长上下文长度,满足长文档与复杂任务处理需求。

  ● 官方内置工具支持,降低集成成本 ,加速应用落地 。

  目前,3款模型均已在魔搭社区 、Hugging Face开源上线,同时 ,我们还一并开源了Qwen3.5-35B-A3B-Base基座模型 ,以支持社区研究、微调创新与二次开发。开发者可前往Qwen Chat免费体验新模型,或通过阿里云百炼获取Qwen3.5-Flash模型API服务。

千问大模型:Qwen3.5-Flash来袭,三款中等规模模型全开源

千问大模型:Qwen3.5-Flash来袭	,三款中等规模模型全开源

发表评论