苹果进一步阐明为何放弃在iCloud照片中检测CSAM的计划

苹果解释放弃iCloud照片中检测CSAM计划的原因

苹果在周四对去年放弃在iCloud照片中检测已知儿童色情材料(CSAM)的有争议计划提供了迄今为止最详细的解释。

苹果的声明是根据儿童安全组织Heat Initiative要求公司从iCloud中检测、报告和删除CSAM,并为用户提供更多报告此类内容的工具。

苹果的用户隐私和儿童安全总监Erik Neuenschwander在公司对Heat Initiative的回应中写道:“儿童性虐待材料是令人憎恶的,我们致力于打破使儿童易受其害的胁迫和影响链条。” 他补充说,尽管与各种隐私和安全研究人员、数字权利组织和儿童安全倡导者合作,但公司得出结论,无法继续开发CSAM扫描机制,即使是专门为了保护隐私而构建的机制。

Neuenschwander写道:“扫描每个用户的私人存储的iCloud数据将为数据窃贼寻找和利用提供新的威胁向量。它还可能带来意想不到的连锁反应。例如,扫描一种类型的内容会为大规模监视打开大门,并可能引发对其他加密消息系统的搜索欲望。”

2021年8月,苹果宣布了三项新的儿童安全功能计划,包括一个系统来检测存储在iCloud照片中的已知CSAM图像,一个在信息应用程序中模糊含有性暗示的照片的沟通安全选项,以及为Siri提供儿童剥削资源。沟通安全功能于2021年12月在美国的iOS 15.2中推出,并已扩展到英国、加拿大、澳大利亚和新西兰,而Siri资源也可用,但CSAM检测从未推出。

苹果最初表示,CSAM检测将在2021年底的iOS 15和iPadOS 15的更新中实施,但由于“来自客户、倡导组织、研究人员和其他人”的反馈,公司推迟了这一功能。计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政治家、政策组织、大学研究人员,甚至一些苹果员工。

苹果对该问题的最新回应正值英国政府重新点燃了加密争论的时刻,英国政府正在考虑修订监控立法,要求科技公司在不告知公众的情况下禁用端到端加密等安全功能。

若该立法以目前的形式通过,苹果表示将在英国撤销FaceTime和iMessage等服务。

注意:由于此主题的政治或社会性质的讨论,讨论帖位于我们的政治新闻论坛中。欢迎所有论坛成员和网站访问者阅读和关注此帖,但仅限论坛成员至少有100篇帖子的人发帖。