苹果在周四对去年放弃在iCloud照片中检测已知儿童色情材料(CSAM)的有争议计划提供了迄今为止最完整的解释。
苹果的声明由《连线》(Wired)分享,并以下列内容(经转载)回应Child Safety Group Heat Initiative对该公司的要求,要求其“检测、报告并删除”在iCloud中的CSAM,并提供更多向公司举报此类内容的工具。
“儿童性虐待材料是可憎的,我们致力于打破使儿童易受其害的胁迫与影响链条,”苹果用户隐私与儿童安全总监Erik Neuenschwander在公司对Heat Initiative的回应中写道。他补充说,尽管与各种隐私和安全研究人员、数字权利团体和儿童安全倡导者合作后,公司得出结论无法继续开发一个特定用于保护隐私的CSAM扫描机制。
Neuenschwander写道:“扫描每个用户私下存储的iCloud数据将为数据窃贼提供新的威胁途径,以便发现并利用该数据。这也可能导致滑坡效应的意外后果。例如,扫描一种类型的内容将为大规模监视打开大门,并可能希望搜索其他各种类型的加密消息系统。”
2021年8月,苹果宣布推出三项新的儿童安全功能,包括侦测存储在iCloud照片中的已知CSAM图像的系统、在“信息”应用中模糊性别暴力照片的“通信安全”选项,以及为Siri提供儿童剥削资源。通信安全在2021年12月的iOS 15.2中在美国上线,并已扩展到英国、加拿大、澳大利亚和新西兰,而Siri资源也可用,但CSAM检测从未推出。
苹果最初表示CSAM检测将在2021年底之前的iOS 15和iPadOS 15的更新中实现,但基于“来自客户、倡导团体、研究人员和其他人”的反馈,公司推迟了该功能。该计划受到了广泛批评,包括安全研究人员、电子前沿基金会(EFF)、政界人士、政策团体、大学研究人员,甚至包括一些苹果员工。
苹果对该问题的最新回应正值英国政府重新点燃了有关加密辩论的时期,英国政府正在考虑修订监察立法,要求技术公司在不告知公众的情况下禁用诸如端到端加密之类的安全功能。
若该立法按目前的形式获得通过,苹果表示将在英国停止提供FaceTime和iMessage等服务。