据报道,苹果希望通过使用类似于Chat-GPT等AI竞争对手的“先进大语言模型”使Siri更具对话性和智能,但这一举措要到2026年才能准备就绪。
所谓的“LLM”也就是“大型语言模型”的缩写,全称为Large Language Model。它是一种使用深度学习算法训练的语言模型,旨在理解和生成人类语言。LLM通常包含数百亿甚至数千亿的参数,通过在大量文本数据上训练使得模型能够捕捉语言的复杂性和细微差别。
LLM并没有看上去那么遥不可及,甚至已被广泛应用,大家大概率早已体验过。
在使用搜索引擎进行AI搜索、与虚拟助手对话,或利用它来完成工作时,LLM在许多方面展现了巨大的潜力。它们在文本生成、问答系统、机器翻译、文本摘要、情绪感知和语言理解等方面的表现日益成熟,正在逐步改变我们的沟通和工作方式。
当苹果首次传出要进军AI领域的消息时,大家明确预期,苹果不会推出像Chat-GPT那样的聊天机器人。尽管在WWDC上正式发布了Apple Intelligence,但苹果并没有止步于此。
目前,苹果在iOS 18.2中依赖OpenAI的ChatGPT来实现更复杂的任务,毫无疑问,苹果希望用户能够更自然地与个人助理交谈,让Siri的响应更像人类的交流。因此,这种依赖显然不是长久之计,苹果计划将更多的技术掌握在自己手中。
科技网站AppleInsider曾报道,苹果正在测试的AI工具包括1UP和Smart Replies Tester。1UP应用程序主要用于测试生成式AI与文本相关的功能。
值得一提的是,知情人士向媒体透露,该应用程序直接引用了苹果内部的LLM或大型语言模型(Ajax)。
可以预见,未来的新Siri将能够更好地处理用户的对话,LLM有望将Siri转变为更加智能化的助手,甚至向“贾维斯”的概念发展。
自从苹果的Apple Intelligence在iOS 18.1中首次亮相以来,苹果还没有将真正的Apple Intelligence功能与Siri结合起来。
对于用户而言,Siri并没有显著改变,其AI功能仍需依赖其他工具如谷歌搜索或ChatGPT,控制智能家居、设置定时器或拨打电话的方式也未改变。特别是对于国内用户,要体验Apple Intelligence仍需一些时日。
好消息是,iOS 18已经为更具互动性和主动性的Siri奠定了基础。苹果之前向开发者开放了“应用意图系统”测试,开发者可以将屏幕上的内容传递给Siri和Apple Intelligence,以进行应用意图测试。这意味着用户可以将屏幕上的任意活动发送给AI进行解析。
这一系统将使Siri能够获取用户的部分应用程序功能和设备上的用户数据,从而分析和感知用户的场景和需求,最终实现情境感知并执行用户指令。
如前所述,苹果已经开始研发基于LLM的Siri,预计在2026年初会在iOS 19中首次亮相。按照惯例,苹果会在2025年6月的WWDC期间发布全新的iOS 19,如果传言属实,Siri LLM可能要等到iOS 19正式推出(2025年9月iPhone 17系列发布)后才能上线。
在电影中,贾维斯与人类的对话自然流畅且富有深度,能够理解多样的语言表达,并根据上下文和语气做出准确回应。同时,作为钢铁侠的得力助手,贾维斯具备强大的多任务处理能力。
更为重要的是,贾维斯拥有出色的学习能力,能够不断优化自身性能。然而,目前甚至连全球最先进的AI模型也无法完全实现这一点,要真正打造贾维斯这样的智能助手,我们仍面临许多技术和社会方面的挑战。
尽管如此,随着技术的不断进步和人类对AI大模型的深入研究,未来的智能助手有望突破现有局限,逐步接近或甚至超越贾维斯所象征的智能水平。
或许在不久的将来,包括Siri在内的AI助手将能够成为我们生活中的“贾维斯”,为日常生活带来更多便利,甚至深刻改变我们的生活方式。