苹果开发了在iPhone上运行LLMs的突破性方法

苹果AI研究人员表示,他们通过发明一种创新的闪存利用技术,在iPhone和其他内存有限的苹果设备上部署大型语言模型(LLMs)取得了重要突破。你觉得在你的口袋里就有一台Apple GPT?这可能比你想象的要早实现。

苹果开发了在iPhone上运行LLMs的突破性方法

LLMs和内存约束

像ChatGPT和Claude这样以LLM为基础的聊天机器人需要极大的数据和内存来进行运行,这对于内存有限的iPhone等设备来说是一个挑战。为了解决这个问题,苹果的研究人员开发了一种新颖的技术,利用闪存存储AI模型的数据,这与应用程序和照片存储的闪存相同。

在闪存上存储AI

在一篇名为《LLM in a flash:用有限内存进行高效大型语言模型推理》的研究论文中,作者们指出,与传统用于运行LLMs的RAM相比,闪存在移动设备中更为丰富。他们的方法巧妙地绕过了这个限制,使用了两个关键技术,最大程度地减少了数据传输,提高了闪存的吞吐量:

  1. 窗口化:将其视为一种循环利用的方法。AI模型不需要每次都加载新数据,而是重复使用已经处理过的部分数据。这减少了常量内存获取的需求,使过程更快速、更顺畅。
  2. 行列捆绑:这种技术类似于一次阅读一个较大块的书本,而不是一个单词一个单词阅读。通过更高效地分组数据,可以更快地从闪存中读取,加快了AI理解和生成语言的能力。

据论文称,这些方法的组合使得AI模型能够运行的规模是iPhone可用内存的两倍,这在标准处理器(CPU)上可以提速4-5倍,在图形处理器(GPU)上速度更快,提速20-25倍。作者写道:“这一突破对于在资源有限环境中部署先进的LLMs尤其关键,从而扩大了它们的适用性和可访问性。”

iPhone上更快的AI

AI效率的突破为未来的iPhone开辟了新的可能性,例如更高级的Siri功能、实时语言翻译以及在摄影和增强现实中使用复杂的AI驱动功能。这项技术也为iPhone上的复杂AI助手和聊天机器人能够在设备上运行铺平了道路,据称苹果已经在开展这方面的工作。

苹果在生成式AI方面的工作最终可能被整合到其Siri语音助手中。2023年2月,苹果举办了一次AI峰会,向员工介绍了其大型语言模型的工作。据《彭博社》报道,苹果正致力于推出与AI深度集成的更聪明版Siri。苹果计划更新Siri与消息应用的交互方式,使用户能够更有效地处理复杂的问题和自动补完句子。此外,有传言称,苹果计划将AI添加到尽可能多的苹果应用中。

Apple GPT

据报道,苹果正在开发自己的生成式AI模型,名为“Ajax”。Ajax设计的目标是与OpenAI的GPT-3和GPT-4竞争,在2000亿个参数上运行,表明其在语言理解和生成方面具有高度复杂性和能力。内部称为“Apple GPT”的Ajax旨在统一苹果的机器学习开发,表明苹果有意将AI更深入地整合到其生态系统中。

根据最新报道,Ajax被认为比早期的ChatGPT 3.5更有能力。然而,据称从2023年9月起,OpenAI的更新模型已经超越了Ajax的能力。

据《The Information》和分析师杰夫·普(Jeff Pu)称,预计苹果将在2024年末左右的时间内,在iPhone和iPad上推出某种类型的生成式AI功能,也就是iOS 18发布的时候。普在10月份表示,苹果正在2023年建立几百个AI服务器,并计划在2024年增加更多的服务器。苹果将报告提供基于云的AI和具有设备内处理能力的AI的组合。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
Like (0)
Previous 2023年12月21日 下午5:00
Next 2023年12月21日 下午7:21

相关推荐