加利福尼亚州奥克兰(路透社)-Alphabet Inc.的Google今年通过发起“敏感主题”审查来加强对其科学家论文的控制,并且至少在三起案件中要求作者避免以负面态度使用其技术。内部交流以及与从事这项工作的研究人员的访谈。
根据解释该政策的内部网页,Google的新审查程序要求研究人员在寻求诸如面孔和情绪分析以及种族,性别或政治归属的分类等主题之前,先咨询法律,政策和公共关系团队。
研究人员的其中一页说:“技术的进步和我们外部环境日益复杂的情况日益导致看似无礼的项目引发道德,声誉,法规或法律问题。”路透社无法确定该职位的日期,尽管三名现任员工表示该政策始于6月。
八名现任和前任雇员表示,“敏感主题”流程为Google对论文的标准审查增加了一轮审查,以了解诸如披露商业秘密之类的陷阱。
对于某些项目,Google官员在后期阶段进行了干预。据阅读给路透社的内部通信称,在今年夏天出版之前不久,一位高级Google经理审查了一项有关内容推荐技术的研究,告诉作者“要格外小心,以产生积极的口气”。
经理补充说:“这并不意味着我们应该躲避软件带来的实际挑战。”
随后,研究人员与审稿人的通信显示作者“已更新,以删除所有对Google产品的引用。”路透社看到的一份草案提到了谷歌拥有的YouTube。
包括高级科学家玛格丽特·米切尔(Margaret Mitchell)在内的四名研究人员表示,他们认为Google正在开始干扰对潜在技术危害的关键研究。
米切尔说:“如果我们凭借我们的专业知识来研究合适的事物,并且不允许以与高质量同行评审不符的理由发表该论文,那么我们将面临严峻的审查问题。”
在科学家Timnit Gebru突然退出后,谷歌与其一些员工之间的紧张关系在本月消失了。科学家Timnit Gebru与Mitchell领导了一个由12人组成的团队,致力于人工智能软件(AI)的道德规范。
格布鲁(Gebru)说,谷歌在质疑一项命令后才解雇她,因为她不发布一项研究,声称模仿语音的人工智能可能不利于边缘化人群。谷歌表示已接受并加速了她的辞职。无法确定格布鲁的论文是否经过了“敏感主题”审查。
谷歌高级副总裁杰夫·迪恩(Jeff Dean)在本月的一份声明中表示,格布鲁(Gebru)的论文只讨论了潜在的危害,而没有讨论解决这些危害的努力。
Dean补充说,Google支持AI伦理学奖学金,并且“正在积极改善我们的论文审阅流程,因为我们知道太多的制衡工作会变得很麻烦。”
整个技术行业中AI的研究与开发激增,促使美国和其他地方的主管部门提出使用规则。一些人引用科学研究表明,面部分析软件和其他AI可以使偏见长期存在或侵蚀隐私。
近年来,谷歌在其整个服务中都集成了AI,使用该技术来解释复杂的搜索查询,在YouTube上确定建议并在Gmail中自动完成句子。 Dean说,去年,其研究人员发表了200多篇有关负责任地开发AI的论文,总共有1000多个项目。
根据内部网页,研究Google服务中的偏见是该公司新政策下的“敏感主题”。在列出的其他数十个“敏感主题”中,有石油行业,中国,伊朗,以色列,COVID-19,家庭安全,保险,位置数据,宗教,自动驾驶汽车,电信和推荐或个性化Web内容的系统。
要求作者发表积极口吻的Google论文讨论了推荐AI,YouTube等服务可使用该AI来个性化用户的内容供稿。路透社审查的草案包括“担忧”,即该技术可促进“虚假信息,歧视性或其他不公平的结果”和“内容多样性不足”,并导致“政治两极化”。
相反,最终出版物称这些系统可以促进“准确的信息,公平和内容的多样性”。出版的版本标题为“您正在优化什么?使推荐系统与人类价值观保持一致,”省略了对Google研究人员的赞誉。路透社无法确定原因。
一位知情人士说,本月有关人工智能的一本论文旨在理解外语,这使得人们对Google Translate产品如何根据公司审阅者的要求犯错的说法有所软化。出版的版本说作者使用了Google翻译,另外一个句子说研究方法的一部分是“审查和修复不正确的翻译”。
根据内部信件,在上周发表的一篇论文中,一位Google员工将这一过程描述为“长途跋涉”,涉及研究人员和审阅者之间的100多次电子邮件交换。
研究人员发现,人工智能可以咳出个人数据和受版权保护的材料,包括从“哈利波特”小说中摘录的页面,这些页面已从互联网上撤出以开发该系统。
一位知情人士说,一份草案描述了此类披露如何侵犯版权或违反欧洲隐私法。 经过公司审查,作者消除了法律风险,Google发表了该论文。