【2023-12-21 21:11:52爱思瑞网快讯】
一项新的研究论文显示,苹果已经针对其他公司似乎忽视的技术人工智能问题提出了实用的解决方案,特别是如何在像iPhone这样的低内存设备上使用庞大的大型语言模型。
尽管有关苹果在生成式人工智能方面落后于行业的说法,但该公司已经两次透露,自己正在继续进行长期的规划,而不是急于发布ChatGPT克隆版本。第一个迹象是一篇提议称为HUGS的人工智能系统的研究论文,该系统可以生成人类的数字化化身。
如VentureBeat所指出的,第二篇研究论文提出了在内存有限的设备(如iPhone)上部署庞大的大型语言模型(LLMs)的解决方案。
这篇名为“LLM in a flash: Efficient Large Language Model Inference with Limited Memory”的新论文称,苹果表示它“解决了在可用DRAM容量不足的情况下高效运行超过可用DRAM容量的LLMs的挑战,通过将模型参数存储在闪存中,根据需求传输到DRAM。”
因此,整个LLM仍然需要存储在设备上,但通过使用闪存作为一种虚拟内存来处理RAM可以实现,这与在macOS中处理内存密集任务的方式类似。
研究论文表示:“在这种基于闪存内存的框架中,我们引入了两种主要技术。首先,通过策略性地减少数据传输重新使用以前激活的神经元进行“窗口化”。其次,通过与闪存的顺序数据访问优势相适应的“行列绑定”,增加从闪存读取的数据块的大小。”
这最终意味着几乎可以在内存或存储有限的设备上部署任意大小的LLMs。这意味着苹果可以在更多设备上利用人工智能功能,从而在更多方面发挥作用。
研究论文称:“我们的研究的实用结果值得注意。我们已经证明了运行高达可用DRAM两倍大小的LLMs的能力,相对于传统的CPU加载方法,推断速度加快了4-5倍,在GPU上加快了20-25倍。”
“这一突破对于在资源有限的环境中部署先进的LLMs尤为重要,从而扩大了它们的适用性和可访问性。”它继续说。
苹果已经公开了这项研究,就像HUGS论文一样。因此,它并不落后,实际上是在为整个行业改进人工智能能力。
这符合分析师的预测,鉴于苹果拥有的用户群体,他们认为该公司将在人工智能进一步普及时获益最多。