一封反对 Apple 侵犯隐私的内容扫描技术的公开信

2021-08-06 20:18:12

安全和隐私专家、密码学家、研究人员、教授、法律专家和 Apple 消费者谴责 Apple 计划破坏用户隐私和端到端加密的举措 2021 年 8 月 5 日,Apple Inc. 宣布了旨在应用于几乎所有领域的新技术措施其设备在“扩大保护儿童”的保护伞下。虽然剥削儿童是一个严重的问题,而且打击它的努力几乎毫无疑问是善意的,但苹果的提议引入了一个后门,可能会破坏对苹果产品的所有用户的基本隐私保护。 Apple 提议的技术通过持续监控用户 iPhone、iPad 或 Mac 上存储或共享的所有照片,并在检测到一定数量的令人反感的照片时通知当局。苹果公司宣布这一消息后,世界各地的专家立即就苹果公司提出的措施如何将每部 iPhone 变成一台设备,不断扫描通过它的所有照片和消息,以便向执法部门报告任何令人反感的内容,从而敲响了警钟。我们的个人设备成为侵入性监视的全新工具,几乎没有监督以防止最终滥用和不合理地扩大监视范围。电子前沿基金会表示,“苹果正在为更广泛的滥用打开大门”:“不可能建立一个只能用于儿童发送或接收的色情图片的客户端扫描系统。因此,即使是构建这样一个系统的善意努力也会破坏信使加密本身的关键承诺,并为更广泛的滥用打开大门[&mldr]这不是一个滑坡;这是一个完全构建的系统,只是等待外部压力做出最细微的改变。”民主与技术中心表示,它“深切关注 Apple 的变化实际上给儿童和所有用户带来了新的风险,并标志着与长期以来的隐私和安全协议的重大背离”:

“Apple 正在用监视和审查的基础设施取代其行业标准的端到端加密消息系统,这不仅在美国,而且在世界范围内都容易受到滥用和范围蔓延的影响,”Greg Nojeim 说, CDT 安全与监视项目的联合主管。 “Apple 应该放弃这些变化,恢复用户对 Apple 设备和服务上数据的安全性和完整性的信心。”瑞士洛桑 EPFL 教授、安全与隐私领域的领先研究专家 Carmela Troncoso 博士表示,虽然“Apple 的新型儿童性虐待材料检测器 (CSAM) 在儿童保护和隐私保护下得到推广,但它是朝着普遍监测和控制迈出的坚实一步”。马里兰州巴尔的摩市约翰霍普金斯大学的另一位领先的安全与隐私研究专家兼教授马修 D.格林博士说:“昨天,我们正逐渐走向一个未来,我们的信息必须越来越少。除了我们自己之外的任何人的控制和审查。自 1990 年代以来,我们第一次收回我们的隐私。今天我们走上了不同的道路”,并补充说:“压力将来自英国、美国、印度和中国。我很害怕那会是什么样子。为什么苹果要告诉全世界,‘嘿,我们有这个工具’?” “如果苹果公司成功引入了这一点,你认为其他供应商也需要多长时间?在围墙花园禁止不这样做的应用程序之前?在它被载入法律之前?您认为数据库扩展到包含“恐怖主义”内容之前需要多长时间?“有害但合法的”内容”?国家特定的审查制度?” “苹果在沙特阿拉伯销售没有 FaceTime 功能的 iPhone,因为当地法规禁止加密电话。这只是苹果屈服于当地压力的众多例子之一。如果沙特阿拉伯的当地法规要求扫描信息不是针对儿童性虐待,而是针对同性恋或违反君主制的行为,会发生什么?”电子前沿基金会关于该问题的声明支持上述担忧,并提供了有关 Apple 提议的技术如何导致全球滥用的其他示例:

“以印度为例,该国最近通过的规则包括对平台识别消息来源和预筛选内容的危险要求。埃塞俄比亚要求在 24 小时内删除“错误信息”内容的新法律可能适用于消息服务。许多其他国家——通常是那些拥有威权政府的国家——也通过了类似的法律。 Apple 的更改将在其端到端消息传递中启用此类筛选、删除和报告。虐待案件很容易想象:禁止同性恋的政府可能要求对分类器进行培训以限制明显的 LGBTQ+ 内容,或者专制政权可能要求分类器能够发现流行的讽刺图像或抗议传单。”此外,电子前沿基金会坚持认为,它已经看到这一使命在行动:“一项最初用于扫描和散列儿童性虐待图像的技术已被重新用于创建一个“恐怖”内容数据库,公司可以为这些内容做出贡献并访问以禁止此类内容。尽管民间社会发出了呼吁,但该数据库由全球互联网反恐论坛 (GIFCT) 管理,在没有外部监督的情况下令人不安。”专家还指出了苹果公司提出的方法的基本设计缺陷,他们声称“苹果公司可以为每个用户轻松使用不同的媒体指纹数据集。对于一个用户来说,这可能是虐待儿童,而对于另一个用户来说,它可能是一个更广泛的类别”,从而为目标用户提供选择性的内容跟踪。 Apple 为其儿童保护措施提议的技术类型取决于无法监控或技术限制的可扩展基础设施。专家一再警告说,问题不仅在于隐私,还在于缺乏问责制、扩展的技术障碍,以及缺乏分析甚至承认错误和误报的可能性。哈佛法学院网络法律诊所的律师肯德拉阿尔伯特警告说,“这些“儿童保护”功能会让酷儿被赶出家门、殴打或更糟”,并补充说:“我只知道(称之为现在)这些机器学习算法将标记过渡照片。祝你好运,如果你有“女性露乳头”,给你的朋友发一张你的照片。苹果公司发表声明重申他们对端到端加密和用户隐私的承诺。

苹果公司目前的道路有可能破坏技术专家、学者和政策倡导者几十年来的工作,这些工作使强有力的隐私保护措施成为大多数消费电子设备和用例的规范。我们要求 Apple 重新考虑其技术部署,以免它取消这项重要工作。