今年举办了许多活动,其中大胆宣称人工智能取得了突破。业界评论家推测,语言生成模型GPT-3可能已经实现了“通用的通用情报”,而其他人则称赞Alphabet子公司DeepMind的蛋白质折叠算法Alphafold及其“转化生物学”的能力。尽管此类主张的依据比笼统的头条新闻要薄,但这并没有起到很大的作用来减弱整个行业的热情,因为该行业的利润和声望取决于AI的扩散。
正是在这种背景下,谷歌解雇了蒂姆尼特·格布鲁(Timnit Gebru),他是我们亲爱的朋友和同事,也是人工智能领域的领导者。她还是AI研究中为数不多的黑人女性之一,也是坚定不移地倡导将更多BIPOC,女性和非西方人带入这一领域的倡导者。无论如何,她都擅长Google雇用她的工作,包括展示面部分析技术中的种族和性别差异,并开发数据集和AI模型的报告指南。具有讽刺意味的是,这和她对AI研究中代表性不足的人的声音倡导也是她解雇公司的原因。据Gebru称,在要求她和她的同事撤回批评(有益于)大规模AI系统的研究论文之后,Google Research告诉她的团队,尽管她没有辞职,但它已经接受了她的辞职。 (Google拒绝对此事发表评论。)
Google对Gebru的骇人听闻的对待暴露了AI研究的双重危机。该领域主要由精英群体(主要是白人男性)主导,并且主要由大型行业参与者(Microsoft,Facebook,Amazon,IBM和是Google)控制和资助。随着格布鲁(Gebru)的开除,取年轻人为建设围绕AI的必要护栏的努力而产生的文明政治被撕裂了,这使得人们对AI员工的种族同质性以及公司多元化计划效率低下的疑问成为了讨论的中心。但是这种情况也表明,尽管看起来像Google的承诺那样真诚,但企业资助的研究永远不能脱离权力的现实,收入和资本的流动。
这应该关系到我们所有人。随着人工智能在医疗保健,刑事司法和教育等领域的扩散,研究人员和倡导者提出了紧迫的关切。这些系统做出直接影响生活的决定,同时又嵌入到旨在加强种族歧视历史的组织中。人工智能系统还将力量集中在设计和使用它们的人员手中,同时消除了复杂计算单板背后的责任(和责任)。风险是巨大的,激励措施显然是不正当的。
当前的危机暴露了结构性障碍,限制了我们围绕AI系统建立有效保护的能力。这一点特别重要,因为AI的预测和决定所造成的伤害和偏见的人群主要是BIPOC人士,妇女,宗教和性别少数群体以及穷人,这些人首当其冲受到结构性歧视。在这里,我们在受益者(公司与主要是白人男性研究人员和开发商)与最有可能受到损害的受益者之间存在明显的种族隔离。
例如,以面部识别技术为例,该技术已被证明比肤色较浅的人“识别”肤色较黑的人的频率更低。仅此一项令人震惊。但是这些种族化的“错误”并不是面部识别的唯一问题。 Black Lives数据组织负责人Tawana Petty指出,这些系统在黑人社区和城市中的部署比例不高,而在禁止和禁止使用面部识别技术方面取得成功的城市主要是白人。
没有独立,批判性的研究来集中那些遭受这些技术伤害的人们的观点和经验,我们的理解和质疑行业过度夸大主张的能力就大大受到阻碍。 Google对Gebru的态度越来越清楚地表明,当关键工作退回其商业激励措施时,该公司的工作重点似乎放在了哪里。这几乎不可能确保AI系统对最容易受到伤害的人负责。
Warning: Can only detect less than 5000 characters
有线意见由外部撰稿人发表,代表各种各样的观点。 在此处阅读更多意见,并在此处查看我们的提交准则。 提交意见书:[email protected]。 想要最佳工具来健康吗? 查看我们的Gear团队精选的最佳健身追踪器,跑步装备(包括鞋子和袜子)和最佳耳机