Apple 宣布即将对其操作系统进行更改,其中包括 iCloud 和 iMessage 中的新“儿童保护”功能。如果您曾经关注过加密战争,就会知道这意味着什么:Apple 计划在其数据存储系统和消息传递系统中构建一个后门。剥削儿童是一个严重的问题,苹果并不是第一家为了打击它而改变其隐私保护立场的科技公司。但这种选择会为整体用户隐私付出高昂的代价。 Apple 可以详细解释其技术实施将如何在其提议的后门中保护隐私和安全,但归根结底,即使是一个完整记录、经过深思熟虑且范围狭窄的后门仍然是一个后门。说我们对苹果的计划感到失望是轻描淡写。出于与 EFF 一再阐明的所有相同原因,Apple 历来是端到端加密的拥护者。苹果在端到端加密方面的妥协可能会安抚美国和国外的政府机构,但对于依赖该公司在隐私和安全方面的领导地位的用户来说,这是一个令人震惊的转变。该公司计划在每台 Apple 设备中安装两个主要功能。一种是扫描功能,它会在所有照片上传到 iCloud 照片时进行扫描,以查看它们是否与国家失踪与受虐儿童中心 (NCMEC) 维护的已知儿童性虐待材料 (CSAM) 数据库中的照片相匹配。另一个功能会扫描儿童帐户(即指定为未成年人所有的帐户)发送或接收的所有 iMessage 图像,以查找色情材料,如果孩子足够年轻,则在发送或接收这些图像时通知父母。父母可以打开或关闭此功能。当 Apple 发布这些“客户端扫描”功能时,iCloud 照片的用户、iMessage 的儿童用户以及任何通过 iMessage 与未成年人交谈的人都必须根据这些变化仔细考虑他们的隐私和安全优先级,并且可能在此开发成为卓越的加密信使之一之前,无法安全地使用什么。我们之前已经说过了,现在我们再说一遍:不可能建立一个只能用于儿童发送或接收的色情图片的客户端扫描系统。因此,即使是构建这样一个系统的善意努力,也会破坏信使加密本身的关键承诺,并为更广泛的滥用打开大门。扩大 Apple 正在构建的狭窄后门所需要的只是扩展机器学习参数以寻找其他类型的内容,或者调整要扫描的配置标志,不仅仅是儿童的,而是任何人的账户。那不是滑坡;这是一个完全构建的系统,只是等待外部压力做出最细微的改变。以印度为例,该国最近通过的规则包括对平台识别消息来源和预筛选内容的危险要求。埃塞俄比亚要求在 24 小时内删除“错误信息”内容的新法律可能适用于消息服务。许多其他国家——通常是那些拥有威权政府的国家——也通过了类似的法律。 Apple 的更改将在其端到端消息传递中启用此类筛选、删除和报告。虐待案例很容易想象:禁止同性恋的政府可能需要对分类器进行培训以限制明显的 LGBTQ+ 内容,或者专制政权可能要求分类器能够发现流行的讽刺图像或抗议传单。
我们已经看到这个任务在行动。最初用于扫描和散列儿童性虐待图像的技术之一已被重新用于创建“恐怖主义”内容数据库,公司可以提供和访问该数据库以禁止此类内容。尽管民间社会发出呼吁,但该数据库由全球互联网反恐论坛 (GIFCT) 管理,在没有外部监督的情况下令人不安。因此,虽然无法知道数据库是否超出范围,但我们确实知道平台经常将关键内容标记为“恐怖主义”,包括暴力和镇压、反言论、艺术和讽刺的文件。 Apple 扫描上传到 iCloud 照片的照片的计划在某些方面类似于微软的 PhotoDNA。主要的产品区别在于 Apple 的扫描将在设备上进行。处理过的 CSAM 图像的(不可审计的)数据库将分布在操作系统 (OS) 中,处理过的图像被转换,以便用户无法看到图像是什么,并使用私有集合交集对这些转换后的图像进行匹配,设备不会知道是否找到了匹配项。这意味着当这些功能推出时,NCMEC CSAM 数据库的一个版本将上传到每部 iPhone。匹配的结果将发送给 Apple,但 Apple 只能在有足够数量的照片与预设阈值匹配后才能判断已找到匹配项。一旦检测到一定数量的照片,有问题的照片将发送给 Apple 内部的人工审核员,他们确定这些照片实际上是 CSAM 数据库的一部分。如果人工审核员确认,这些照片将发送到 NCMEC,并禁用用户的帐户。同样,这里的底线是,无论技术细节中的隐私和安全方面如何,上传到 iCloud 的所有照片都将被扫描。毫无疑问:这是对所有 iCloud 照片用户隐私的减少,而不是改进。目前,虽然 Apple 拥有查看存储在 iCloud 照片中的照片的密钥,但它不会扫描这些图像。公民自由组织已要求该公司取消其这样做的能力。但苹果选择了相反的方法,让自己更多地了解用户的内容。 Apple 的第二个主要新功能是基于 iMessage 发送或接收的扫描照片的两种通知。为了实现这些通知,Apple 将推出一个设备上的机器学习分类器,旨在检测“色情图片”。据 Apple 称,这些功能将(在发布时)仅限于已注册家庭帐户的 18 岁以下美国用户。在这些新流程中,如果 13 岁以下儿童持有的帐户希望发送设备上机器学习分类器确定为色情图片的图像,则会弹出通知,告诉 13 岁以下儿童他们的父母将被告知此内容。如果未满 13 岁的孩子仍然选择发送内容,他们必须接受将通知“家长”,并且图像将不可撤销地保存到他们手机的家长控制部分,供家长稍后查看。对于 13 至 17 岁的用户,会弹出类似的警告通知,但没有家长通知。同样,如果 13 岁以下儿童收到 iMessage 认为“色情”的图片,则在被允许查看照片之前,会弹出一条通知,告诉 13 岁以下儿童他们的父母将收到通知:收到色情图片。同样,如果 13 岁以下的用户接受图像,则会通知父母并将图像保存到手机中。 13 至 17 岁的用户同样会收到警告通知,但不会向其父母的设备发送有关此操作的通知。
这意味着,如果——例如——使用未开启这些功能的 iPhone 的未成年人将照片发送给启用了这些功能的另一名未成年人,他们不会收到 iMessage 认为他们的图像是“露骨”的通知,或者收件人的父母将收到通知。收件人的父母将被告知内容,而无需发件人同意他们的参与。此外,一旦发送或接收,“色情图片”就无法从 13 岁以下用户的设备中删除。无论是发送还是接收此类内容,13 岁以下的用户都可以选择在不通知父母的情况下拒绝。尽管如此,这些通知给人的感觉是 Apple 正在监视用户——对于 13 岁以下的用户,这基本上是 Apple 赋予父母的能力。同样重要的是要注意,Apple 选择使用机器学习分类器这一臭名昭著的难以审计的技术来确定色情图片的构成。我们从多年的文档和研究中了解到,在没有人工监督的情况下使用的机器学习技术习惯于对内容进行错误分类,包括所谓的“色情”内容。当博客平台 Tumblr 在 2018 年为性内容建立过滤器时,它以捕获网络中的各种其他图像而闻名,包括博美犬幼犬的照片、穿着衣服的人的自拍照等等。 Facebook 试图监管裸体行为,导致哥本哈根小美人鱼等著名雕像的图片被删除。这些过滤器有着令人不寒而栗的表达历史,并且有充分的理由相信 Apple 也会这样做。由于检测“色情图片”将使用设备上的机器学习来扫描消息内容,因此 Apple 将不再能够诚实地将 iMessage 称为“端到端加密”。 Apple 及其支持者可能会争辩说,在消息加密或解密之前或之后进行扫描可以保持“端到端”承诺的完整性,但这将是语义操纵,以掩盖公司对强加密的立场的结构性转变。提醒一下,安全消息系统是一种系统,在该系统中,除了用户及其预期接收者之外,没有人可以阅读消息或以其他方式分析其内容以推断出他们在谈论什么。尽管消息通过服务器,端到端加密消息将不允许服务器知道消息的内容。当同一台服务器有一个通道来显示有关大部分消息内容的信息时,这不是端到端加密。在这种情况下,虽然 Apple 永远不会看到用户发送或接收的图像,但它仍然创建了扫描图像的分类器,以便向父母提供通知。因此,Apple 现在可以将新的训练数据添加到发送到用户设备的分类器中,或者向更广泛的受众发送通知,轻松审查和令人不寒而栗的言论。但即使没有这样的扩展,这个系统也会为那些不考虑孩子最大利益的父母提供另一种监控和控制他们的方式,限制了互联网扩展那些生活将受到限制的人的世界的潜力。而且由于家庭共享计划可能由滥用职权的合作伙伴组织,因此可以想象将此功能用作跟踪软件的一种形式。人们有权在没有后门或审查制度的情况下进行私下交流,包括未成年人。苹果应该做出正确的决定:让这些后门远离用户的设备。