苹果公司正面临一宗要求赔偿12亿美元的诉讼,原因是其决定放弃在iCloud照片中扫描儿童性虐待材料(CSAM)的计划。根据最新报道,诉讼是针对苹果公司未能实施之前宣布的儿童安全工具,导致有害内容持续传播,进而对受害者造成了持续的伤害。
该诉讼于周六在加利福尼亚北部提出,可能涉及2680名受害者。诉状指出,苹果公司未能如承诺实施儿童安全措施,导致受害者遭受反复创伤。
2021年,苹果曾宣布将在iCloud照片中实施CSAM检测,并推出其他儿童安全功能。然而,该计划遭到隐私倡导者、安全研究人员和政策团体的强烈反对,认为该技术可能会为政府监视创造潜在后门。苹果随后推迟并最终放弃了该计划。
当时,苹果解释了这一决定,称普遍扫描用户的私人iCloud存储将引入重大安全漏洞,可能被恶意行为者利用。苹果还担心,这种系统可能会建立一个有问题的先例,即一旦存在内容扫描基础设施,就可能面临扩展到不同类型内容和消息平台的更广泛监视应用的压力,包括使用加密的方式。
诉讼的主要原告以化名方式提出,她持续收到了有关个别人被控拥有她婴儿时期虐待影像的执法通知。诉讼称,苹果“不采取行动”实施其宣布的安全措施,迫使受害者反复经历他们的创伤。
针对这起诉讼,苹果发言人弗雷德·赛因兹强调了公司致力于打击儿童剥削的决心,指出苹果公司正在“紧急而积极地创新,以打击这些犯罪,而不妨碍所有用户的安全和隐私。”苹果还提到现有的“沟通安全”功能,提醒儿童注意潜在不当内容,作为公司在儿童保护方面持续努力的例证。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行二次审核删除:fireflyrqh@163.com。