苹果将​​扫描美国 iPhone 中的儿童性虐待图片

2021-08-06 13:16:48

苹果公司公布了扫描美国 iPhone 中儿童性虐待图像的计划,引起了儿童保护组织的掌声,但也引起了一些安全研究人员的担忧,即该系统可能会被滥用,包括希望监视其公民的政府。该工具旨在检测已知的儿童性虐待图像,称为“neuralMatch”,将在图像上传到 iCloud 之前对其进行扫描。如果找到匹配项,图像将由人工审核。如果确认存在儿童色情内容,用户的帐户将被禁用,并通知国家失踪和受虐儿童中心。另外,作为儿童安全措施,Apple 计划扫描用户的加密信息以查找色情内容,这也让隐私权倡导者感到震惊。检测系统只会标记已经存在于该中心已知儿童色情内容数据库中的图像。父母在洗澡时拍下孩子无辜的照片大概不用担心。但研究人员表示,匹配工具——它不会“看到”这样的图像,只是代表它们的数学“指纹”——可能会被用于更邪恶的目的。约翰霍普金斯大学顶级密码学研究员马修格林警告说,该系统可用于通过向无辜者发送旨在触发儿童色情匹配的看似无害的图像来陷害无辜者。这可能会愚弄苹果的算法并提醒执法部门。 “研究人员已经能够很容易地做到这一点,”他谈到欺骗此类系统的能力时说。其他滥用行为可能包括政府对持不同政见者或抗议者的监视。 “当中国政府说,'这是我们希望你扫描的文件列表'时会发生什么,”格林问道。 “苹果说不吗?我希望他们说不,但他们的技术不会说不。”包括微软、谷歌、Facebook 和其他公司在内的科技公司多年来一直在共享已知的儿童性虐待图像的数字指纹。 Apple 已经使用这些来扫描存储在其 iCloud 服务中的用户文件,该服务不像其设备上的数据那样安全加密,以查找儿童色情内容。

多年来,苹果一直承受着政府的压力,要求加强对加密数据的监控。提出新的安全措施要求苹果在打击剥削儿童的同时保持其对保护用户隐私的高调承诺之间进行微妙的平衡。但是,在线公民自由先驱、沮丧的电子前沿基金会称,苹果在隐私保护方面的妥协“对于依赖该公司在隐私和安全方面的领导地位的用户来说是一个令人震惊的转变。”与此同时,十多年前发明了 PhotoDNA(执法部门用来识别在线儿童色情内容的技术)的计算机科学家承认,苹果系统存在滥用的可能性,但表示,与儿童性虐待作斗争的必要性远远超过了这一点。 “是否有可能?当然。但这是我担心的事情吗?不,”加州大学伯克利分校的研究员汉尼法里德说,他认为许多其他旨在保护设备免受各种威胁的程序还没有看到“这种类型的任务蔓延”。例如,WhatsApp 为用户提供端到端加密以保护他们的隐私,但也采用了一个系统来检测恶意软件并警告用户不要点击有害链接。 Apple 是最早采用“端到端”加密技术的大公司之一,在这种加密技术中,消息被加扰,以便只有他们的发送者和接收者才能阅读它们。然而,执法部门长期以来一直向该公司施压,要求其获取这些信息,以调查恐怖主义或儿童性剥削等犯罪行为。苹果表示,最新变化将在今年推出,作为其 iPhone、Mac 和 Apple Watch 操作软件更新的一部分。 “苹果扩大对儿童的保护改变了游戏规则,”国家失踪和受虐儿童中心总裁兼首席执行官约翰克拉克在一份声明中表示。 “有这么多人使用 Apple 产品,这些新的安全措施对儿童来说具有挽救生命的潜力。”

Thorn 首席执行官 Julia Cordua 表示,Apple 的技术平衡了“隐私需求与儿童数字安全的需求”。 Thorn 是由 Demi Moore 和 Ashton Kutcher 创立的非营利组织,通过识别受害者和与技术平台合作,利用技术帮助保护儿童免受性虐待。但在激烈的批评中,总部位于华盛顿的非营利性民主与技术中心呼吁苹果放弃这些变化,称这实际上破坏了公司对“端到端加密”的保证。它说,在手机或电脑上扫描色情内容的消息有效地破坏了安全性。该组织还质疑苹果公司区分危险内容和艺术或模因之类的东西的技术。 CDT 在一封电子邮件声明中表示,此类技术是出了名的容易出错。苹果否认这些变化相当于一个降低其加密性能的后门。它说它们是经过仔细考虑的创新,不会干扰用户隐私,而是强烈保护它。另外,苹果表示,其消息应用程序将使用设备上的机器学习来识别和模糊儿童手机上的色情照片,还可以通过短信警告年幼孩子的父母。它还表示,当用户尝试搜索与儿童性虐待相关的主题时,其软件会“干预”。为了在孩子的设备上收到有关色情图片的警告,父母必须注册孩子的手机。 13 岁以上的孩子可以取消注册,这意味着青少年的父母不会收到通知。