苹果新Siri将由谷歌Gemini提供支持

苹果公司正在研发的下一代Siri将更智能、更强大,据媒体报道,其核心将由谷歌Gemini提供技术支持。据悉,苹果将为此每年向谷歌支付约10亿美元,以获得谷歌开发的、拥有1.2万亿参数的人工智能模型。

Finder Siri Feature

为了更好地理解,模型的“参数”量是衡量其理解和响应查询能力的关键指标。通常来说,参数越多意味着模型的能力越强,尽管模型的训练方法和架构设计同样至关重要。据媒体透露,谷歌的这一模型在参数量级上,远超苹果现有的模型水平。

当前,苹果在云端运行的“Apple Intelligence”模型拥有1500亿参数。而对于苹果正在开发的其他模型,目前尚未有具体的参数指标公布。

苹果计划将Gemini应用于摘要生成和多步任务规划与执行等功能。同时,部分Siri功能仍将由苹果自研模型驱动。值得注意的是,谷歌为苹果开发的AI模型,将运行在苹果的私人云服务器上。这意味着谷歌将无法访问苹果用户的数据,从而保障了用户隐私和数据安全。

Gemini模型采用了“专家混合”(Mixture-of-Experts)架构,尽管其总参数超过一万亿,但在处理每次查询时,仅会激活其中的一小部分参数。这种架构设计,既实现了巨大的总算力,又有效避免了过高的处理成本,体现了设计上的巧妙平衡。

在选择大型语言模型(LLM)的合作伙伴时,苹果曾考虑使用自研AI模型驱动新版Siri,也对来自OpenAI和Anthropic的方案进行了测试。但最终,苹果决定与谷歌Gemini合作,据称是因为Anthropic的报价过高。值得一提的是,苹果与谷歌在搜索领域已建立了合作关系,谷歌每年向苹果支付约200亿美元,以确保其作为苹果设备上的默认搜索引擎。

尽管苹果目前计划依赖谷歌的AI技术,但公司将持续投入资源开发自有模型,并计划在自研LLM达到足够能力时,逐步过渡到完全内部化的解决方案。据了解,苹果已经在着手开发一款拥有1万亿参数的云端模型,最早可能在2026年投入使用。考虑到苹果正在推进内部解决方案,公司不太可能大肆宣传与谷歌的合作协议。

据此前计划,苹果原定在iOS 18中推出Siri的更新版本。但由于现有架构存在不足,苹果不得不对Siri底层架构进行全面改造,导致发布时间大幅推迟。预计更智能的“Apple Intelligence”Siri,将在2026年春季发布的iOS 26.4更新中正式亮相。

届时,Siri将能够处理更复杂的查询,并在应用内部和应用之间完成多步骤任务。在功能上,它将更接近于Claude和ChatGPT等主流AI模型,但苹果目前并没有推出独立的聊天机器人应用的计划。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
Like (0)
Previous 2025年11月6日 上午3:02
Next 2025年5月8日 下午8:13

相关推荐