苹果的人工智能训练“突破”在保持隐私的同时使LLM更加灵活

【2024-03-18 00:18:56爱思瑞网快讯】

苹果的人工智能训练“突破”在保持隐私的同时使LLM更加灵活

苹果研究人员发现了一种新的多模态方法,可以快速训练大型语言模型(LLMs),从而使机器学习和“AI”类型系统更加灵活和强大。

苹果公司在本周早些时候在研究网站arxiv.org上发布的一篇论文揭示,苹果利用了图像标题、交错的图像文本和纯文本数据的“精心混合”来训练LLMs。视觉和语言数据的混合使模型能够处理诸如智能图像字幕或推断自然语言含义等任务。

作为研究的一部分,研究人员发现图像编码器的选择和其处理的图像分辨率对性能有很大影响,比视觉语言连接器的设计更重要。

在一个实例中,使用一个拥有300亿参数的MM1模型,发现模型具有强大的上下文学习能力。这一发现意味着它能够在多个图像上进行多步推理,并且只需少量的“思维链”提示。

根据Venturebeat的报道,苹果公司在采用突破性技术方面继续遵循“快速追随者”而不是“先行者”的传统。首席执行官蒂姆·库克最近承认,公司每年在将“AI”纳入现有技术方面花费10亿美元。

库克表示,公司将在今年晚些时候分享“我们在AI方面的持续工作的详情”。预计苹果将于今年6月的WWDC大会上宣布一些关于其进展的消息。

该公司既在使用与AI相关的技术方面赶超竞争对手,又在开发能够保护用户隐私的方法,同时增强其现有的机器学习能力。

后一项关于隐私和安全的顾虑并不是现有“聊天机器人”类型服务的特点,这增加了苹果的挑战。

苹果对神经网络的多模态训练的兴趣已经取得了最先进的性能,实现了多步推理。这表明苹果公司已经找到了快速提升机器学习能力并具备先进“智能”能力的途径。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
(0)
上一篇 2024年3月17日 下午11:30
下一篇 2024年3月18日 上午1:14

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注