这是一个很微妙的时代,模型的参数数量不再是唯一的标尺。当所有人都在追求“更大”时,有人在琢磨如何让模型变得更“聪明”——不是堆砌算力,而是榨干每一个参数的潜力。
4月22日晚,阿里巴巴开源了最新一代模型——Qwen3.6-27B。它的总参数量是270亿,一个不算夸张的数字。然而,它在多项核心编程能力评测中的表现,却足以媲美那些动用千亿参数的旗舰模型。这被称之为“智能密度”的又一次新高。
Qwen3.6-27B属于“稠密模型”。这意味着,在推理计算时,它的每一个参数都必须干活,没有偷懒的余地。所以,它的性能提升,只能来源于对单个参数能力的极致优化。结果证明,这条路走通了。
在SWE-bench、Terminal-Bench 2.0等反映真实智能体编程能力的权威测试中,它的表现不仅大幅超越了同尺寸的前代模型Qwen3.5-27B,甚至超越了体量是其15倍的Qwen3.5-397B-A17B。其表现也与一些业内顶尖的闭源模型不相上下。
这带来了一种全新的可能性:以往,复杂的智能体编程任务,往往需要庞大的模型或特殊的架构(如MoE模型)才能胜任。而现在,一个可以在家用显卡上本地部署的270亿参数模型,似乎也能担此重任。它有望成为各类AI智能体应用最经济、最可靠的本地“大脑”。
它的能力不止于代码。得益于原生多模态设计,Qwen3.6-27B能“看懂”设计稿、UI截图、报错弹窗这些图片信息。这让AI智能体在规划任务、调用工具、多轮迭代时,能做出更贴合现实世界的决策,为处理复杂、漫长的任务提供了更稳定的支撑。
27B这个尺寸,在全球开发者社区中有着特殊地位。它被视为性能与部署成本之间的“甜蜜点”。一个月前,前代模型Qwen3.5-27B一经开源,便引发热潮:量化后可在单张RTX 4090上流畅运行;有人用它搭建多人在线游戏,有人将其塞进笔记本电脑当作编程助手,也有企业用它构建内部知识系统。
如今,Qwen3.6-27B的到来,意味着这些已经蓬勃生长的应用场景,将迎来新一轮的能力跃升。开发者手中的工具,又一次无声地进化了。
该模型已在魔搭社区、Hugging Face等平台开源,允许个人和企业免费下载并商用。用户也可以通过阿里云百炼平台直接调用API服务。截至目前,阿里开源了超过400款千问系列模型,其全球衍生模型数量超过20万,下载量突破10亿,稳居全球开源大模型榜首。
(完)
