【2024-04-26 22:44:24爱思瑞网快讯】
苹果已经从App Store中移除了声称可以制作非自愿裸露图像的应用程序,这表明苹果现在更愿意解决危险的应用程序类别。
生成式AI根据提示创建图像的能力在摄影和设计中已成为非常有用的工具。然而,这项技术也被滥用,用于制作深度伪造和非自愿色情作品。
尽管存在风险,但苹果对这个问题一直保持着非常低调的态度。在最近的举措之前,它并没有做太多来解决一个潜在的重大问题。
根据404 Media的报告,苹果被告知App Store中有一些AI图像生成应用程序。具体来说,这些应用程序被市场化为能够创建非自愿裸露图像。
这些应用程序提供的功能包括对成人图像进行脸部交换。其他一些则被营销为“脱衣”应用,可以在原本无害的照片上虚拟地剥掉被摄对象的衣服。
在收到这些应用程序和相关广告的通知后,苹果从App Store中移除了其中的三个应用。谷歌也从Play Store中移除了这些应用。
该报告的调查此前曾提出 Instagram 通过 Meta 的广告库宣传这些应用。一旦广告被标记,Meta 就删除了它们。
起步缓慢
苹果从App Store中移除这些应用是一个好消息,但仍存在一些潜在问题。首先,苹果没有在其App Store审核过程中成功禁止这些应用,而是由第三方提醒他们的存在。
即便如此,这是该出版物为打击这些应用所做的一次进步。
关于这些应用的2022年报道说明,它们最初在App Store页面上看起来是无害的。然而,深度伪造色情功能在色情网站上进行了广告宣传。
当时,苹果和谷歌被告知了这些应用,但拒绝移除它们。相反,这些公司被告知停止在成人网站上运行广告,而这些应用则被允许继续在App Store中存在。
尽管有命令,其中一个应用直到2024年还在市场推广其成人功能,直到被从谷歌Play Store中下架。
苹果决定最终将这些违规应用从App Store中移除是苹果为了尽可能保持其人工智能业务合法的最新举措。
除了使用维护隐私的人工智能语言模型的训练方法外,苹果还避免以非法方式使用版权作品。微软和OpenAI因未经授权使用《纽约时报》文章进行人工智能训练而被《纽约时报》起诉,而苹果则试图通过与主要出版商的交易换取数百万美元的授权作品。