开源大模型赶超谷歌GPT还需6个月

刚刚过去的2024年,堪称AI大模型领域的“开源崛起年”。春节前夕,国内DeepSeek R1的发布在全球范围内掀起波澜。此后,通义千问、Kimi、MiniMax等一众模型相继发力,贡献卓越,让“开源”这两个字承载了前所未有的行业期待。

然而,这场开源的盛宴,很快被大洋彼岸闭源巨头的“军备竞赛”盖过了风头。年末几个月,谷歌的Gemini 3在各项基准测试中“刷榜”,Anthropic的Claude则在AI编程领域竖起一杆大旗。至于OpenAI,虽然争议不断,但其GPT-4/5系列,依然是行业里绕不开的“顶级标杆”。

一个核心问题就此浮出水面:开源大模型与闭源顶尖模型之间,鸿沟究竟有多宽?追赶的希望又有多大?

在最近于拉斯维加斯举行的CES展会上,一向被视为AI行业“风向标”的NVIDIA CEO黄仁勋,在回顾过去一年进展时,给出了他的观察。他的话语,或许能为这场“开源vs闭源”的讨论,提供一个极具参考价值的注脚。

DeepSeek等开源大模型距离谷歌、GPT有多远 黄仁勋表态:6个月

黄仁勋对开源大模型的评价颇为积极。他认为,开源正在重塑整个行业格局,模型的下载量呈爆发式增长,这是一场“每个人、每个公司甚至每个国家都想参与的革命”。

但他话锋一转,指出了一个关键的距离:开源模型虽已触及技术前沿,但与顶尖闭源模型相比,大约还有6个月的时间差。 而且,每隔半年,市场上就会出现“更聪明”的新模型。

结合现实来看,这个判断相当精准。目前顶尖的开源模型,其综合能力大致相当于半年前闭源“御三家”(通常指OpenAI、谷歌、Anthropic)的水平。六个月,这个时间说长不长,说短不短。

问题的难点在于,这是一个动态的竞赛。每当开源社区奋力追赶了半年,闭源阵营又向前迈出了一步;而闭源模型想彻底甩开源一个身位,也绝非易事,因为开源的力量同样在快速迭代。两者形成了某种“你追我赶”的微妙平衡。

不过,对于广大开发者和企业而言,开源模型的存在价值远不止于“追赶”。其最大的优势在于可触及性与成本。闭源顶级模型的API调用费用不菲,而许多开源模型不仅费用低廉,更能提供本地免费部署的选项。这在很大程度上,降低了AI技术的准入门槛,为长尾应用和创新实验提供了土壤。

开源与闭源,这场关于AI未来的路径之争,或许不会很快分出胜负。但黄仁勋点出的“六个月”,清晰地勾勒了当前赛场的竞争态势。这既是开源社区面临的挑战,也预示着:追赶的窗口,始终存在。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
Like (0)
Previous 2026年1月6日 下午9:56
Next 2026年1月6日 下午10:10

相关推荐