2021-8-8 12:50我今天读了一些关于一家大型科技公司计划实施一个新系统来自动检测和报告用户照片中的 CSAM 的文章。总的来说,他们在 12 页技术摘要中描述的系统似乎设计得很好,并且可能尽可能接近真正的隐私,同时仍然允许内容监视。话虽如此,当我听到关于端到端加密的例外情况时,我心中的黑客不禁感到有点惊慌(并不是说他们的照片存储被宣传......
2021-8-7 8:26Apple 新的设备上 CSAM 检查仅对要上传到 iCloud 照片的照片运行。 Apple 昨天宣布了新的设备上 CSAM 检测技术,并且对该功能可以做什么和不能做什么存在很多混淆。与某些人的看法相反,当用户禁用 iCloud 照片时,Apple 无法检查图像。 Apple 对新 CSAM 更改的确认确实试图澄清......
2021-8-6 3:44另一个重要问题是儿童性虐待材料 (CSAM) 在线传播。 CSAM 是指描述涉及儿童的色情活动的内容。为了帮助解决这个问题,iOS 和 iPadOS * 中的新技术将允许 Apple 检测存储在 iCloud 照片中的已知 CSAM 图像。这将使 Apple 能够向国家失踪和受虐儿童中心 (NCMEC) 报告这些情况......