AiSiri网11月6日消息,消息人士透露,由于苹果自研大模型项目进展未达预期,苹果可能将引入谷歌Gemini大模型,以提升新版Siri的智能化水平和功能性。
据悉,苹果或将每年支付谷歌约10亿美元,以获得定制化的Gemini模型使用权。具体而言,核心版本预计为拥有1.2万亿参数的Gemini 2.5 Pro。
报道称,该模型将赋能Siri的信息摘要生成、任务规划以及复杂的多步骤指令执行等核心功能。与当前Siri使用的1500亿参数云端模型相比,Gemini 2.5 Pro在处理能力和上下文理解深度上预计将实现显著提升,并支持多模态交互与128K token的超长文本处理。

据推测,升级后的Siri或将于2026年春季随iOS 26.4系统一同推送。后续,该技术预计将在2026年6月WWDC大会上发布的iOS 27、macOS 27等系统中得到进一步整合。
有消息表明,苹果此前曾对谷歌Gemini、OpenAI ChatGPT以及Anthropic Claude等主流模型进行评估。最终选择谷歌的原因可能包括:财务成本更具优势(据称Anthropic Claude的年合作成本超过15亿美元,高于Gemini);双方已有的长期合作基础;以及Gemini 2.5 Pro在当前大型语言模型排行榜中的表现领先。
值得一提的是,Gemini采用了混合专家架构。虽然总参数超过万亿,但每次查询仅激活部分参数,这有助于在保证强大计算能力的同时,控制处理成本。

另据报道,谷歌为苹果开发的AI模型将在苹果私有云计算服务器上运行,旨在避免用户数据泄露的风险。
此外,苹果目前的架构据称将采用混合模式,即由谷歌Gemini负责复杂的云端任务(如网页搜索摘要、多应用跨端任务调度),而苹果自研模型将继续处理设备端的个人数据(如健康信息、本地文件交互),从而形成“云端+本地”的分层协作,在提升Siri智能度的同时,保留对核心数据的控制权。