苹果计划扫描美国 iPhone 中的虐待儿童图像

2021-08-06 02:58:53

据了解其计划的人士透露,苹果打算在美国 iPhone 上安装软件来扫描虐待儿童的图像,这引起了安全研究人员的警觉,他们警告说,这可能会打开对数百万人的个人设备进行监控的大门。据两位听取了虚拟会议简报的安全研究人员称,苹果公司本周早些时候向一些美国学者详细介绍了其提议的系统——称为“neuralMatch”。他们说,这些计划最早可能会在本周更广泛地公布。如果自动化系统认为检测到非法图像,它会主动提醒一组人工审核人员,然后如果可以验证材料,他们将联系执法部门。该计划最初将仅在美国推出。这些提议是苹果公司试图在其保护客户隐私的承诺与政府、执法机构和儿童安全活动家的持续要求之间找到折衷方案,这些要求在包括恐怖主义和儿童色情在内的刑事调查中提供更多帮助。苹果和 Facebook 等科技公司一直为他们在产品和服务中越来越多地使用加密进行辩护,而执法部门之间的紧张关系自 2016 年这家 iPhone 制造商因获取恐怖嫌疑人的 iPhone 而向 FBI 告上法庭以来愈演愈烈。在加利福尼亚州圣贝纳迪诺发生枪击事件后。安全研究人员虽然支持打击虐待儿童的努力,但担心 Apple 可能会让世界各国政府寻求访问其公民的个人数据,这可能远远超出其最初意图。 “这是一个绝对令人震惊的想法,因为它将导致对 . . .我们的手机和笔记本电脑,”剑桥大学安全工程教授罗斯安德森说。

研究人员表示,虽然该系统目前经过训练可以发现儿童性虐待,但它可以适应扫描任何其他有针对性的图像和文本,例如恐怖斩首或抗议活动中的反政府标志。苹果的先例也可能增加其他科技公司使用类似技术的压力。约翰霍普金斯大学的安全教授马修格林说:“这将打破大坝——政府会要求每个人都这样做,”据信他是第一个发布关于这个问题的推文的研究人员。曾在 Facebook 和 Deliveroo 工作过的安全研究员和隐私活动家 Alec Muffett 表示,苹果的举动是“构造性的”,是“个人隐私的巨大倒退一步。”基于云的照片存储系统和社交网站已经扫描了儿童滥用图像,但当试图访问存储在个人设备上的数据时,这个过程变得更加复杂。Apple 的系统侵入性较小,因为筛选是在手机上完成的,并且“只有在匹配时才会向搜索者发送通知”,萨里大学计算机安全教授艾伦伍德沃德说,“如果你真的沿着这条路走下去,这种分散的方法是你可以采用的最佳方法。”苹果的neuralMatch算法会不断扫描存储在美国用户iPhone上的照片,并上传到其iCloud备份系统,用户的照片通过“散列”过程转换成一串数字,然后进行比较与已知的儿童性虐待图像数据库中的那些。该系统已经接受了美国非营利性国家失踪和受虐儿童中心收集的 200,000 张性虐待图像的训练。

据知情人士透露,在美国上传到 iCloud 的每张照片都会得到一张“安全凭证”,说明是否可疑。一旦一定数量的照片被标记为可疑,Apple 就会对所有可疑照片进行解密,如果明显违法,则将其传递给有关当局。 © 2021 The Financial Times Ltd. 保留所有权利 不得以任何方式重新分发、复制或修改。