苹果AI研究人员表示,他们通过发明一种创新的闪存利用技术,在iPhone和其他内存有限的苹果设备上部署大型语言模型(LLMs)取得了重要突破。你觉得在你的口袋里就有一台Apple GPT?这可能比你想象的要早实现。
LLMs和内存约束
像ChatGPT和Claude这样以LLM为基础的聊天机器人需要极大的数据和内存来进行运行,这对于内存有限的iPhone等设备来说是一个挑战。为了解决这个问题,苹果的研究人员开发了一种新颖的技术,利用闪存存储AI模型的数据,这与应用程序和照片存储的闪存相同。
在闪存上存储AI
在一篇名为《LLM in a flash:用有限内存进行高效大型语言模型推理》的研究论文中,作者们指出,与传统用于运行LLMs的RAM相比,闪存在移动设备中更为丰富。他们的方法巧妙地绕过了这个限制,使用了两个关键技术,最大程度地减少了数据传输,提高了闪存的吞吐量:
- 窗口化:将其视为一种循环利用的方法。AI模型不需要每次都加载新数据,而是重复使用已经处理过的部分数据。这减少了常量内存获取的需求,使过程更快速、更顺畅。
- 行列捆绑:这种技术类似于一次阅读一个较大块的书本,而不是一个单词一个单词阅读。通过更高效地分组数据,可以更快地从闪存中读取,加快了AI理解和生成语言的能力。
据论文称,这些方法的组合使得AI模型能够运行的规模是iPhone可用内存的两倍,这在标准处理器(CPU)上可以提速4-5倍,在图形处理器(GPU)上速度更快,提速20-25倍。作者写道:“这一突破对于在资源有限环境中部署先进的LLMs尤其关键,从而扩大了它们的适用性和可访问性。”
iPhone上更快的AI
AI效率的突破为未来的iPhone开辟了新的可能性,例如更高级的Siri功能、实时语言翻译以及在摄影和增强现实中使用复杂的AI驱动功能。这项技术也为iPhone上的复杂AI助手和聊天机器人能够在设备上运行铺平了道路,据称苹果已经在开展这方面的工作。
苹果在生成式AI方面的工作最终可能被整合到其Siri语音助手中。2023年2月,苹果举办了一次AI峰会,向员工介绍了其大型语言模型的工作。据《彭博社》报道,苹果正致力于推出与AI深度集成的更聪明版Siri。苹果计划更新Siri与消息应用的交互方式,使用户能够更有效地处理复杂的问题和自动补完句子。此外,有传言称,苹果计划将AI添加到尽可能多的苹果应用中。
Apple GPT
据报道,苹果正在开发自己的生成式AI模型,名为“Ajax”。Ajax设计的目标是与OpenAI的GPT-3和GPT-4竞争,在2000亿个参数上运行,表明其在语言理解和生成方面具有高度复杂性和能力。内部称为“Apple GPT”的Ajax旨在统一苹果的机器学习开发,表明苹果有意将AI更深入地整合到其生态系统中。
根据最新报道,Ajax被认为比早期的ChatGPT 3.5更有能力。然而,据称从2023年9月起,OpenAI的更新模型已经超越了Ajax的能力。
据《The Information》和分析师杰夫·普(Jeff Pu)称,预计苹果将在2024年末左右的时间内,在iPhone和iPad上推出某种类型的生成式AI功能,也就是iOS 18发布的时候。普在10月份表示,苹果正在2023年建立几百个AI服务器,并计划在2024年增加更多的服务器。苹果将报告提供基于云的AI和具有设备内处理能力的AI的组合。