基于争议技术的苹果智能训练方法

【2025-04-15 04:55:00AI Siri网最新消息】

周一,苹果公司分享了其计划,允许用户选择通过差分隐私技术进行设备上的 Apple Intelligence 训练。值得注意的是,该技术与苹果公司之前失败的儿童性虐待材料(CSAM)检测系统极其相似。

差分隐私是苹果在 2016 年 iOS 10 中公开采用的概念。这是一种保护隐私的数据收集方法,通过在样本数据中引入噪声,防止数据收集者追踪数据的来源。

根据苹果公司机器学习博客上的一篇文章,苹果正致力于实施差分隐私,以此来收集用户数据以训练 Apple Intelligence。数据将在用户选择加入的基础上,以匿名方式提供,并且无法追溯到个人用户。

彭博社率先报道了该新闻,解释了苹果关于使用基于真实用户信息训练的合成数据的报告。然而,这并非简单地从 iPhone 上抓取用户数据并在服务器群中进行分析。

相反,苹果将采用一种称为差分隐私的技术。如果您已经忘记,这是一个旨在在数据收集中引入噪声的系统,从而使单个数据点无法追溯到其来源。苹果更进一步,将用户数据保留在设备上——仅轮询准确性,并将轮询结果从用户的设备上移除。

这些方法确保了苹果在隐私和安全方面的原则得到维护。选择加入共享设备分析的用户将参与此系统,但他们的任何数据都不会离开他们的 iPhone。

在没有标识符的情况下分析数据

差分隐私是苹果至少从 2006 年开始依赖和发展的概念,但直到 2016 年才将其作为其公共形象的一部分。它最初是一种了解人们如何使用表情符号、为本地词典查找新词、支持应用程序内的深度链接以及作为 Notes 搜索工具的方式。苹果公司在数据收集和使用上一直较为谨慎,差分隐私的运用是其在保护用户隐私方面的重要实践。

Flowchart illustrating message variations for scheduling activities, ranked by user preference indicators using differential privacy, shown with numerical labels and arrows.

使用差分隐私分析数据。图片来源:Apple

苹果表示,从 iOS 18.5 开始,差分隐私将被用于分析用户数据并训练特定的 Apple Intelligence 系统,首先是 Genmoji。它将能够识别人们使用的常见提示模式,以便苹果可以更好地训练 AI,并为这些提示获得更好的结果。

基本上,苹果提供它认为流行的 искусственного提示(例如“戴牛仔帽的恐龙”),并在用户数据分析中查找模式匹配。由于人为注入的噪声以及需要数百个片段匹配的阈值,因此没有任何方法可以找到唯一的或可识别个人的提示。

此外,这些对提示片段的搜索只会产生肯定或否定的轮询结果,因此不会从分析中获取任何用户数据。同样,没有数据可以被隔离并追溯到单个个人或标识符。

同样的技术将用于分析 Image Playground、Image Wand、Memories Creation和 Writing Tools。这些系统依赖于简短的提示,因此分析可以仅限于简单的提示模式匹配。

苹果希望通过将这些方法应用于文本生成来进一步推进。由于电子邮件和其他系统的文本生成会产生更长的提示,并且可能包含更多私有用户数据,因此苹果采取了额外的步骤。

苹果正在使用最新的研究来开发可用于表示真实用户数据中的聚合趋势的合成数据。当然,这是在不从用户设备中删除任何文本的情况下完成的。

在生成可能代表真实电子邮件的合成电子邮件后,将它们与已计算为合成嵌入的最近用户电子邮件的有限样本进行比较。跨多个设备最接近样本的合成嵌入证明了苹果生成的哪些合成数据最能代表真实的人类通信。

一旦在设备之间找到一种模式,就可以改进该合成数据和模式匹配,使其适用于不同的主题。该过程使苹果能够训练 Apple Intelligence 以生成更好的摘要和建议。

再次强调,Apple Intelligence 训练的差分隐私方法是用户选择加入的,并且在设备上进行。用户数据永远不会离开设备,并且收集的轮询结果已经引入了噪声,因此即使用户数据不存在,单个结果也无法追溯到单个标识符。

这些 Apple Intelligence 训练方法应该听起来非常熟悉

如果苹果的方法让您感到耳熟,那是因为它们几乎与该公司计划用于 CSAM 检测的方法相同。该系统会将用户照片转换为哈希值,并将其与已知 CSAM 的哈希值数据库进行比较。

Flowchart illustrating Apple's CSAM detection: image hashes compared on-device, matched data uploaded, analyzed for threshold, and potentially reviewed and reported to authorities if a match is detected.

苹果的 CSAM 检测功能依赖于哈希照片,而不会侵犯隐私或破坏加密

该分析将在本地照片的设备上或在 iCloud 照片存储中进行。无论在哪种情况下,苹果都能够在不查看用户照片或从设备或 iCloud 中删除照片的情况下执行照片哈希匹配。

当单个设备上发生足够多的潜在的 CSAM 哈希匹配的阳性结果时,它将触发一个系统,该系统会发送受影响的图像以供人类分析。如果发现的图像是 CSAM,则会通知当局。

CSAM 检测系统保留了用户隐私、数据加密等,但也引入了许多可能被专制政府滥用的新攻击媒介。例如,如果可以使用这样的系统来查找 CSAM,人们担心政府可能会强迫苹果使用它来查找某些类型的言论或图像。

苹果最终放弃了 CSAM 检测系统. 尽管存在争议,但从技术角度来看,该系统在保护隐私方面确实做出了努力。

选择退出 Apple Intelligence 训练

虽然技术骨干是相同的,但似乎苹果已经找到了一个不太有争议的用途。即便如此,有些人还是希望不提供数据(无论是否受到隐私保护)来训练 Apple Intelligence。

iPhone settings screen displaying options to share analytics data, with toggles active next to 'Share iPhone & Watch Analytics' and 'Share iCloud Analytics'.

使用数据分析设置选择加入或退出

目前尚未实施任何功能,所以不用担心,您还有时间确保自己选择退出。苹果表示,它将在 iOS 18.5 中引入该功能,并且测试将在未来的 beta 版本中开始。

要检查您是否已选择加入,请打开“设置”,向下滚动并选择“隐私与安全”,然后选择“分析与改进”。如果尚未退出 AI 训练,请切换“共享 iPhone 和 Watch 分析”设置以退出。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。
Like (0)
Previous 2025年4月15日 上午2:39
Next 2025年4月15日 上午7:55

相关推荐