国际组织和公司正在竞相制定人工智能道德使用的全球指导方针。宣言、宣言和建议充斥着互联网。但是,如果这些努力不能考虑到人工智能运作的文化和地区背景,这些努力将是徒劳的。
人工智能系统一再被证明会造成问题,这些问题对边缘化群体产生了不成比例的影响,同时使少数特权群体受益。今天正在进行的全球人工智能伦理努力-其中有数十项-旨在帮助每个人都从这项技术中受益,并防止它造成伤害。一般而言,他们通过创建供开发人员、资助者和监管者遵循的指导方针和原则来做到这一点。例如,他们可能会建议进行例行的内部审计,或者要求保护用户的个人身份信息。
我们相信这些团体的用意是好的,而且正在做有价值的工作。人工智能社区确实应该就一套关于伦理人工智能的国际定义和概念达成一致。但如果没有更多的地理代表性,他们将产生一个人工智能伦理的全球愿景,反映世界上只有几个地区的人的观点,特别是北美和欧洲西北部。
这项工作既不容易也不简单。“公平”、“隐私”和“偏见”在不同的地方有不同的含义(Pdf)。人们对这些概念也有不同的期望,这取决于他们自己的政治、社会和经济现实。人工智能带来的挑战和风险也因所在地区的不同而有所不同。
如果致力于全球人工智能伦理的组织不承认这一点,他们就会冒着制定标准的风险,这些标准充其量在世界所有地区都是毫无意义和无效的。在最坏的情况下,这些有缺陷的标准将导致更多的人工智能系统和工具,使现有的偏见永久化,并对当地文化不敏感。
例如,2018年,Facebook在处理在缅甸传播的错误信息方面行动迟缓,这些错误信息最终导致了侵犯人权的行为。该公司支付的一项评估(Pdf)发现,这种疏忽在一定程度上是由于facebook的社区指导方针和内容审查政策,这些政策未能解决该国的政治和社会现实。
为了防止这种滥用,致力于为人工智能驱动的系统和工具制定道德准则的公司需要让来自世界各地的用户参与进来,以帮助创建适当的标准来管理这些系统。他们还必须意识到他们的政策如何在不同的环境中应用。
尽管存在这些风险,但由领先的国际组织任命的许多人工智能顾问委员会、专家小组和理事会显然缺乏区域多样性。例如,联合国儿童基金会人工智能项目的专家顾问小组没有来自儿童和年轻人最集中的地区的代表,包括中东、非洲和亚洲。
不幸的是,就目前而言,整个人工智能伦理领域都面临着将自己限制在少数地区-主要是北美、西欧和东亚-的语言、思想、理论和挑战的严重风险。
这种地区多样性的缺乏反映了目前人工智能研究的集中度(Pdf):2018年人工智能会议上发表的论文中,有86%的论文出自东亚、北美或欧洲的作者之手。在这些地区发表的人工智能论文中,只有不到10%的参考文献是指向另一个地区的论文。专利也高度集中:2018年公布的AI专利中,有51%归因于北美。
如果我们允许该领域缺乏地理多样性来定义我们自己的努力,我们这些从事人工智能伦理工作的人将弊大于利。如果我们不小心,我们可能会把人工智能的历史偏见编纂成指导方针,为子孙后代扭曲这项技术。我们必须开始优先考虑来自低收入和中等收入国家的声音(特别是“全球南方”的声音)和那些来自历史上被边缘化的社区的声音。
技术进步往往使西方受益,同时加剧了其他地方的经济不平等、政治压迫和环境破坏。将非西方国家纳入人工智能伦理是避免重复这种模式的最佳方式。
好消息是,有许多来自代表性不足地区的专家和领导人可以加入这样的咨询小组。然而,许多国际组织似乎并没有非常努力地争取这些人的参与。例如,新成立的全球人工智能伦理联盟没有代表中东、非洲或拉丁美洲的学术机构或研究中心的创始成员。这一遗漏是殖民模式(Pdf)自我重复的一个鲜明例子。
如果我们要建立道德、安全和包容的人工智能系统,而不是从事“道德洗礼”,我们必须首先与那些历史上受到这些系统伤害的人建立信任。这从有意义的参与开始。
在我们共同工作的蒙特利尔人工智能伦理研究所,我们正试图采取一种不同的方法。我们主办数字人工智能伦理会议,这是任何有互联网连接或电话的人都可以加入的公开讨论。在这些活动中,我们与不同的个人群体建立了联系,从居住在澳门的教授到在孟买学习的大学生。
与此同时,像人工智能伙伴关系(Partnership On AI)这样的组织认识到,人工智能在更广泛的范围内缺乏地理多样性,它们建议修改签证法,并提出政策,让研究人员更容易旅行和分享他们的工作。Maskhane是一个草根组织,它将来自非洲的自然语言处理研究人员聚集在一起,以支持忽略了非主流语言的机器翻译工作。
看到国际组织试图在他们关于人工智能的讨论中包括更多不同的观点,这是令人鼓舞的。重要的是,我们所有人都要记住,区域和文化多样性是任何关于人工智能伦理的对话的关键。如果没有那些还没有掌握权力和影响力的人的声音,让负责任的人工智能成为常态,而不是例外,是不可能的。
A bhishek Gupta是蒙特利尔人工智能伦理研究所的创始人,也是微软的机器学习工程师,在微软,他在CSE Responsible AI董事会任职。维多利亚·希思(Victoria Heath)是蒙特利尔人工智能伦理研究所的研究员,也是加拿大北约协会(NATO Association Of Canada)的高级研究员。