据知情人士透露,苹果计划在美国 iPhone 上安装软件来扫描虐待儿童的图像,为数百万人监控个人设备打开大门。这在安全研究人员中敲响了警钟,他们警告说存在。据两名在虚拟会议上听取简报的安全研究人员称,苹果公司向一些美国学者详细介绍了本周早些时候提出的系统(称为“神经匹配”)。他们表示,该计划可能会在本周内更广泛地公布。如果确定检测到非法图像,自动化系统会提前警告一组人工审核人员。如果材料可用,审查员将联系执法部门。该计划最初将仅在美国部署。该提案介于保护客户隐私的独特承诺和政府、执法机构和儿童安全活动家的持续要求之间,以进一步支持恐怖主义和儿童色情等刑事调查。苹果试图找到妥协。执法机构与 Apple 和 Facebook 等高科技公司之间的紧张关系为产品和服务中越来越多地使用加密辩护,导致 iPhone 制造商在 2016 年访问了 FBI 涉嫌恐怖分子的 iPhone。 自开庭以来,这种紧张局势一直在加剧在加利福尼亚州圣贝纳迪诺发生枪击事件后。虽然安全研究人员支持打击虐待儿童的努力,但他们担心世界各国政府寻求访问公民个人数据的风险。 “这是一个绝对可怕的想法,因为它导致分布式批量监控......我们的手机和笔记本电脑,”剑桥大学安全工程教授罗斯安德森说。
该系统目前经过培训,可以检测儿童性虐待,但可以扫描其他有针对性的图像和文本,例如恐怖分子斩首和抗议活动中的反政府迹象。可以适应。苹果的先例也可能对其他科技公司施加压力,要求他们使用类似的技术。约翰霍普金斯大学安全教授马修格林说:“这将打破大坝——政府将要求所有人这样做。”发布一条关于该问题的推文。曾在 Facebook 和 Deliveroo 工作过的安全研究员和隐私活动家亚历克·穆菲特 (Alec Muffett) 表示,苹果的举动是“地壳运动”,是“迈向个人隐私的巨大而倒退的一步”。基于云的照片存储系统和社交网站已经在扫描虐待儿童的图像,但试图访问存储在个人设备上的数据会使过程复杂化。萨利大学计算机安全教授艾伦伍德沃德说,苹果系统的侵入性较小,因为筛选是通过电话完成的,“只有在匹配时,才会向搜索者返回通知”。我有。 “这种去中心化的方法是遵循这条路线的最佳方法。”苹果的 neuralMatch 算法会持续扫描存储在美国用户 iPhone 上并上传到 iCloud 备份系统的照片。通过称为“哈希”的过程转换为一系列数字的用户照片与已知的儿童性虐待图像数据库中的照片进行比较。该系统接受了美国非营利性国家失踪和受虐儿童中心收集的 200,000 张性虐待图像的训练。
据知情人士透露,在美国上传到 iCloud 的所有照片都将获得一张“安全凭证”,以表明它们是否可疑。如果一定数量的照片被标记为可疑,Apple 将允许您解密所有可疑照片,如果它们明显非法,则将它们交给当局。苹果计划扫描美国 iPhone 中的虐待儿童图像来源链接苹果计划扫描美国 iPhone 中的虐待儿童图像