刚刚过去的2024年,堪称AI大模型领域的“开源崛起年”。春节前夕,国内DeepSeek R1的发布在全球范围内掀起波澜。此后,通义千问、Kimi、MiniMax等一众模型相继发力,贡献卓越,让“开源”这两个字承载了前所未有的行业期待。
然而,这场开源的盛宴,很快被大洋彼岸闭源巨头的“军备竞赛”盖过了风头。年末几个月,谷歌的Gemini 3在各项基准测试中“刷榜”,Anthropic的Claude则在AI编程领域竖起一杆大旗。至于OpenAI,虽然争议不断,但其GPT-4/5系列,依然是行业里绕不开的“顶级标杆”。
一个核心问题就此浮出水面:开源大模型与闭源顶尖模型之间,鸿沟究竟有多宽?追赶的希望又有多大?
在最近于拉斯维加斯举行的CES展会上,一向被视为AI行业“风向标”的NVIDIA CEO黄仁勋,在回顾过去一年进展时,给出了他的观察。他的话语,或许能为这场“开源vs闭源”的讨论,提供一个极具参考价值的注脚。

黄仁勋对开源大模型的评价颇为积极。他认为,开源正在重塑整个行业格局,模型的下载量呈爆发式增长,这是一场“每个人、每个公司甚至每个国家都想参与的革命”。
但他话锋一转,指出了一个关键的距离:开源模型虽已触及技术前沿,但与顶尖闭源模型相比,大约还有6个月的时间差。 而且,每隔半年,市场上就会出现“更聪明”的新模型。
结合现实来看,这个判断相当精准。目前顶尖的开源模型,其综合能力大致相当于半年前闭源“御三家”(通常指OpenAI、谷歌、Anthropic)的水平。六个月,这个时间说长不长,说短不短。
问题的难点在于,这是一个动态的竞赛。每当开源社区奋力追赶了半年,闭源阵营又向前迈出了一步;而闭源模型想彻底甩开源一个身位,也绝非易事,因为开源的力量同样在快速迭代。两者形成了某种“你追我赶”的微妙平衡。
不过,对于广大开发者和企业而言,开源模型的存在价值远不止于“追赶”。其最大的优势在于可触及性与成本。闭源顶级模型的API调用费用不菲,而许多开源模型不仅费用低廉,更能提供本地免费部署的选项。这在很大程度上,降低了AI技术的准入门槛,为长尾应用和创新实验提供了土壤。
开源与闭源,这场关于AI未来的路径之争,或许不会很快分出胜负。但黄仁勋点出的“六个月”,清晰地勾勒了当前赛场的竞争态势。这既是开源社区面临的挑战,也预示着:追赶的窗口,始终存在。