加入Interprise AI&amp中最重要的主题转换2021;数据。了解更多。
ACM公平,问责制和透明度(FCCT)已决定与谷歌,会议赞助联合主席和博伊斯州立大学助理迈克尔·埃克斯特兰教授暂停其赞助关系。 AI伦理研究会议的组织者在谷歌伦理AI领先玛格丽特米切尔和陆道射门射击后三个月后的三个月后,这决定了这一决定。谷歌随后在10支球队中重组了大约100名工程师,包括在Google VP Marian Croak的领导下放置道德AI。
“FOCCT由战略计划为指导,并与执行委员会合作,建立赞助椅与执行委员会的赞助椅,制定与该计划一致的赞助投资组合,”Ekstrand在电子邮件中告诉VentureBeat。 “执行委员会使谷歌作为2021年会议的赞助商的决定不会符合社区的最佳利益,并阻碍战略计划。我们将修改明年会议的赞助政策。“
决策是关于FOCCT在公司对伦理AI团队领导者的待遇后继续其与谷歌的关系的问题。新闻首次出现了星期五,当FacCT计划委员会成员Suresh Venkatasubramanian推文时,该组织将暂停与谷歌的关系。
留下谷歌赞助并不意味着从大科技公司的赞助结束,甚至是谷歌本身的结束。 DeepMind是一款Facct会议的另一个赞助商,这是1月份的AI伦理争议,也是谷歌公司。自2018年成立以来,FOCCT从谷歌和微软等大型技术赞助商寻求资助,以及福特基金会和麦克瑟基金会。去年发布的分析比较了AI伦理研究对大烟草资助研究历史的大型技术资助,发现四所着名大学的近60%的研究人员从主要科技公司扣钱。
在揭发Gebru之后,Googlers抗议他们所谓的“前所未有的研究审查”行为。上周,路透社报道了在公司AI研究中的一个单独的干扰实例,研究论文同志引用了Google法律团队的“深深隐秘”编辑。
根据FOCCT网站,作为本组织的联合国的Gebru,继续作为一组关于数据和算法评估和计划委员会主席的集团的一部分。 Mitchell是会议的议程联合主席和FOCCT计划委员会成员。在2020年12月在谷歌中解雇了Gebru在谷歌的角色中解雇了,这对科技公司缺乏多样性的因素以及她同步的纸张上的案件,她对随机鹦鹉的危险:语言模型太大了吗?“除了认识到预先训练的语言模型可能不成比例地伤害边缘化社区,还可以通过基准测试的性能来实际测量进展的工作问题。本文还提出了对大型语言模型的滥用或自动化偏差潜力的担忧。
“如果一个拥有数千亿参数并在非常大的数据集上受过训练的大型语言模型可以很好地操纵语言形式,从而通过需要理解语言的测试来欺骗其形式,那么我们是否学到了任何有关如何构建语言的有价值的知识?机器语言理解还是我们被带到了花园的小路上?”论文读到。
Gebru被列为该论文的两位主要作者之一,该论文本周被接受在FAccT上发表。她的主要合著者是华盛顿大学的语言学家艾米莉·本德(Emily Bender),他关于大型语言模型的潜在缺陷以及需要进行更深入批评的文章于去年夏天获得了计算语言学协会的奖项。
去年从熟悉情况的消息来源获得的VentureBeat论文的副本是Mitchell以及Google研究人员Mark Diaz和Ben Hutchinson的合著者,他们三人都具有语言分析和模型的背景。米切尔(Mitchell)今天在道德操守方面广为人知,但她是计算机视觉和自然语言处理研究人员而受到最高评价,并且是华盛顿大学(University of Washington)2008年硕士学位论文的作者。本·哈钦森(Ben Hutchinson)与Google道德AI团队的合著者合作发表了一篇论文,该论文发现NLP模型中的偏见在情感分析和毒性预测方面不利于残疾人。马克·迪亚兹(Mark Diaz)检查了文本中与年龄相关的偏见。
Bender和Gebru在本文的各种版本中被列为主要合著者。华盛顿大学在会议之前发表的论文的另一版本也将“ Shmargaret Scmitchell”列为作者。
Gebru被解雇后,Gebru被解雇。Gebru是一位著名的算法压迫研究人员,也是唯一在Google担任AI研究人员的黑人女性之一,这导致了成千上万的Google员工的反对,并指控种族主义和报复。该事件还引发了国会议员的提问,他们对调节算法有浓厚的兴趣。它导致研究人员质疑从Google获得道德研究资金的道德。 AI,道德和法律方面的专家告诉VentureBeat,由于Gebru被解雇,可能会发生一系列政策变化,包括支持更强有力的举报人法律。被解雇后不久,Gebru谈到了将联盟化作为保护AI研究人员的一种手段的想法,Mitchell是2021年1月成立的Alphabet工人联盟的成员。
OpenAI和斯坦福大学的研究人员与专家合作,上个月警告说,像Google和OpenAI这样的大型语言模型的创建者只有短短几个月的时间就可以设定其道德用途的标准,然后再开始传播复制品。
今年在FAccT上发表的其他论文包括对非洲国家数据共享实践中常见障碍的分析,对Data& amp;的算法影响评估的回顾。美国社会学会的地面AI团队和研究人员研究了政府的镇压和审查制度如何影响经常用于训练NLP模型的文本数据。
在最近的其他AI研究会议活动中,最受欢迎的年度机器学习会议NeurIPS的组织者告诉VentureBeat,该组织计划在围绕NeurIPS赞助商华为(Huawei)为中国当局制造维吾尔族穆斯林检测系统的问题后修改其赞助政策。 VentureBeat的使命是成为技术决策者的数字城镇广场,以获取有关变革性技术和交易的知识。 我们的网站提供有关数据技术和策略的重要信息,以在您领导组织时为您提供指导。 我们邀请您成为我们社区的成员,可以访问: 成为会员