西弗吉尼亚州总检察长帕特里克·莫里西今日宣布,对苹果公司提起诉讼,指控这家科技巨头在知情情况下,任由其iCloud服务被用于传播和存储儿童性虐待材料。莫里西指出,苹果多年来对此“无所作为”。

“保护儿童性犯罪者的隐私是绝对不可原谅的。更重要的是,这违反了西弗吉尼亚州的法律。既然苹果迄今拒绝自我监管,拒绝做道德上正确的事,我提起这起诉讼就是要要求苹果遵守法律,报告这些图像,并停止通过允许存储和分享这些图像而让儿童再次受到伤害。”总检察长帕特里克·莫里西如此表示。
根据公开的起诉书,苹果内部曾将自己描述为“传播儿童色情的最佳平台”,但其提交的有关CSAM的报告数量远少于谷歌和Meta等同行。
回溯至2021年,苹果曾高调宣布一系列儿童安全新功能,其中包括一项旨在检测iCloud照片中已知CSAM图像的系统。然而,该计划旋即遭遇了来自用户、数字权利组织、儿童安全倡导者以及安全研究人员的强烈反对。舆论普遍担忧,此举将在用户隐私保护墙上凿开一道难以弥合的裂缝,并可能为政府监控大开方便之门。在巨大的压力下,苹果于2022年最终宣布放弃在iCloud照片中部署CSAM检测的计划。
彼时,苹果在声明中解释道:“保护儿童无需公司梳理个人数据,我们将继续与政府、儿童权益倡导者及其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为对儿童和我们所有人都更安全的地方。”稍晚时候,苹果进一步阐明,创建扫描私人iCloud数据的工具将“为数据窃贼创造新的攻击向量以供其寻找和利用”。
然而,西弗吉尼亚州总检察长的指控剑指这一逻辑的核心。诉状指出,苹果在以用户隐私为幌子推卸其保护儿童的责任,其不部署检测技术的决定是一种主动选择,而非被动疏忽。该观点认为,由于苹果对硬件、软件和云基础设施拥有端到端的绝对控制权,它无法声称自己仅是“CSAM的不知情、被动渠道”。这场诉讼正试图挑战科技巨头在构建封闭生态系统时,所应承担的社会责任与法律义务之间的模糊界限。
从更宏观的视角观察,这起诉讼反映了全球范围内对科技平台内容监管责任日益收紧的趋势。一方面,打击网络有害信息,尤其是涉及未成年人的犯罪内容,已成为不容置疑的社会共识与法律要求。另一方面,如何在履行这一责任的同时,不侵蚀加密技术与隐私保护的根基,避免构建一个全景监控式的技术架构,是包括苹果在内所有科技公司面临的终极难题。
此次西弗吉尼亚州提起的诉讼,要求苹果支付惩罚性赔偿,并寻求法院强制令,要求苹果实施有效的CSAM检测措施。这并非苹果首次因此议题面临法律挑战。早在2024年,另一起集体诉讼就指控苹果放弃CSAM检测的决定,对约2680名潜在受害者造成了持续伤害,并寻求高达12亿美元的赔偿。
更深层的行业分析显示,苹果的困境具有代表性。当一家公司同时扮演基础设施提供商、服务运营方和隐私捍卫者多重角色时,其权责边界变得异常复杂。苹果引以为傲的端到端加密和隐私承诺,在极端罪恶面前,似乎构成了某种道德悖论。批评者认为,技术中立不能成为规避社会责任的借口,尤其是当平台设计本身可能被滥用时。而支持者则警告,强制开后门进行内容扫描将破坏安全的基石,最终损害所有用户的利益。这场诉讼的结果,可能将为科技行业在隐私、安全与社会责任之间的艰难平衡,提供一个重要的司法参照。