将其视为利基问题会使您的公司面临巨大风险。以下是如何让人们购买。许多组织已经开始了解人工智能道德风险计划的业务必要性。无数新闻报道——从错误和歧视性的面部识别到侵犯隐私,再到具有改变生活后果的黑匣子算法——已将其提上了董事会、首席执行官和首席数据和分析官的议程。然而,大多数领导者不明白的是,解决这些风险需要在整个组织中提高对这些风险的认识。那些明白这一点的人往往不知道如何继续。对于使用人工智能的公司来说,这需要成为重中之重。超过 50% 的高管报告称,鉴于其目前识别和减轻这些风险的准备水平,他们对其组织中人工智能的道德和声誉风险存在“重大”或“极端”担忧。这意味着建立一个每个人都接受的人工智能道德风险计划对于部署人工智能是必要的。做得好,提高意识既可以在战术层面减轻风险,又有助于成功实施更通用的人工智能道德风险计划。首先,采购官员是人工智能道德风险的最大来源之一,也是最容易被忽视的来源之一。 AI 供应商销售到您组织中的每个部门,尤其是人力资源、营销和财务部门。例如,如果您的人力资源采购官不知道如何提出正确的问题来审查 AI 产品,那么他们可能会在招聘过程中引入歧视受保护子群体的风险。其次,高级领导者通常不具备发现组织 AI 中的道德缺陷所需的知识,从而使公司在声誉和法律上都面临风险。例如,如果一个产品团队准备部署人工智能,但首先需要得到一位对产品的道德风险知之甚少的高管的批准,那么品牌的声誉(更不用说高管)可能面临高风险。第三,人工智能道德风险计划需要知识渊博的数据科学家和工程师。如果他们不了解人工智能的道德风险,他们可能无法理解计划中阐明的新职责,或者他们可能理解但不了解其重要性,从而导致不认真对待它们。另一方面,如果您的组织了解 AI 的道德、声誉和法律风险,他们就会明白实施跨组织系统地解决这些问题的计划的重要性。很好地创建这种跨组织意识需要工作。它需要一致的信息,该信息也针对每个群体的具体问题量身定制。毕竟,最高管理层的利益和职责不同于产品所有者和设计师的利益和职责,也不同于数据科学家和工程师的利益和职责——对他们所有人说同一种语言导致他们谁也不说。该信息不能是肤浅的,否则会导致人们认为 AI 道德是公关问题或利基问题。它需要一个明确的最高层领导,负责制定和监督战略的执行,从而在整个组织范围内提高意识——如果信息不是来自高层,这个问题就不会被认真对待。这是组织应该开始的地方。
确保每位员工都了解风险并感受到组织内人工智能的成功至关重要。他们不仅需要意识到这些问题的存在,还需要知道这些风险如何影响他们的特定工作以及它如何适应他们的工作描述。对于人力资源部门的人来说,知道他们需要雇用适合这份工作的人以及可能是什么样子的人是一回事,同时顺便提一下,还要意识到人工智能的道德风险。该人将识别和减轻这些风险视为其工作的一部分是另一回事,例如,她知道负责任地履行职责包括要求提供招聘软件的 AI 供应商提供有关他们如何识别和减轻偏见的文档。他们的人工智能。您可以采取以下六项措施来建立组织意识并以正确的方式支持。 1、消除对人工智能和人工智能伦理的恐惧。组织面临的一个障碍是 IT 以外的人可能会被这个话题吓倒。 “人工智能”、“机器学习”和“歧视性算法”似乎是令人生畏的概念,导致人们完全回避这个话题。如果不是技术基础,人们必须熟悉并熟悉这些概念,这对于建立组织意识至关重要。从某种意义上说,具备基本的人工智能素养并不是很难。毕竟,机器学习本质上是例举学习,大家都耳熟能详。同样,因为没有足够的例子而擅长某事也是每个人都熟悉的。如果您正在向人们传达如何创建歧视性算法,您可以解释一些是软件没有足够的示例可供学习的结果,因此软件会出错(例如,没有足够的黑人女性面部示例)为您的面部识别软件导致该软件在挑选黑人女性面部方面非常糟糕)。更一般地说,人工智能的许多道德风险及其各种来源都可以向非技术受众阐明,并让员工有信心处理这些问题。要求您的人力资源和营销人员基本熟悉 AI 的工作原理以及 AI 道德风险的产生方式,这似乎是一项艰巨的任务。然而,大多数组织已经对网络安全风险产生了很大的认识,这也需要网络安全素养,在公司承诺实现它之前,这似乎几乎是不可能的。但是,如果您的员工不了解基础知识,他们将不知道在他们这样做至关重要时提出正确的问题(例如 AI 供应商)。 2. 为您的听众量身定制您的沟通方式。将自己视为品牌声誉管家的高级领导者有兴趣避免威胁品牌声誉的风险。对他们来说,使用“道德和声誉风险”的语言对于他们了解 AI 道德与他们的担忧和责任的相关性很重要。另一方面,产品设计师更关心的是避免风险,而不是制作“酷”和有用的产品。通过设计来解释人工智能伦理如何改进他们的产品,特别是对于越来越多的价值驱动型消费者和一般公民来说,可能是一种非常有效的接触受众的方式。最后,数据科学家和工程师需要有效的稳健模型。谈论他们的语言意味着解释有偏见的算法和黑匣子问题如何降低工具和/或其采用的能力。没有人愿意构建一个不准确或未使用的模型。提供每个受众都可以与之相关的 AI 出错的例子和故事也很重要。这不仅需要涉及公关灾难。例如,它还可能包括亚马逊无法充分减轻其人工智能招聘软件中的偏见,这令人钦佩地导致亚马逊停止了该项目,而不是部署可能对求职者和品牌都有害的东西。此外,您应该尽可能使用您所在行业特有的示例。在某些情况下,人工智能已经意识到医疗保健领域的某些道德风险,但如果您与金融科技公司的成员交谈,员工将更多地与同行公司的故事联系起来。
3. 将您建立组织意识的尝试与公司的使命或目的联系起来。如果您的使命/目的已经融入您的组织文化,请将您对 AI 道德的讨论与此相结合。解释 AI 伦理/伦理风险管理如何进一步扩展该使命,围绕您(不)愿意为追求该使命做什么的一系列护栏。例如,您的任务可能是提供最好的财务建议。但是,除非人们信任您,否则您无法提供该建议,如果您在部署 AI 时疏忽大意,人们就无法信任您。当 AI 出错时,它会大规模出错,因此与您的组织沟通,提供最佳财务建议的部分可能需要保护您的客户,而保护他们的部分需要 AI 的道德、负责任或可信赖的部署,AI 道德不再被视为与您的运营相关联的东西。相反,您传达的是它是您的使命和核心价值观的进一步延伸。 4. 以可操作的方式定义 AI 道德在您的组织中的含义。说你“为了隐私”或“尊重隐私”是一回事。实际做一些事情是另一回事。为确保您的 AI 道德价值承诺不只是公关,请将这些承诺与道德护栏联系起来,例如“我们永远不会将您的数据出售给第三方”或“我们将始终匿名与第三方共享的数据”。如果你有一份精心设计的 AI 道德声明,它将包括那些起到双重作用的护栏。首先,他们会向您的团队传达您实际上正在做什么(或计划做什么)关于人工智能道德风险的事情。其次,它立即传达出这不是公关或模糊的东西。当价值观以一种将它们与行动联系起来的方式表达和传达时,这些传达是可信且令人难忘的。让您的听众理解 AI 道德如何不模糊并且可以实施的一种方法是解释医疗保健中面临的非常真实和棘手的道德问题以及他们解决这些问题的方式。相关地,您可以讨论医疗保健行业如何将道德风险缓解纳入基础设施和流程,以便他们可以看到它可以完成。 5. 邀请各职能部门中值得信赖和有影响力的成员加入您的行列。一些组织,如微软,已经创建了一个“人工智能道德冠军”系统。这些人是整个组织中负责提高团队对 AI 道德风险意识的人。 AI Ethics Champion 计划的一个重要特点是,它赋予已经获得团队信任和支持的领导者权力。此外,他们比首席学习官或首席数据官或领导组织意识战略的任何人更了解各自的团队。 6. 持续教育。建立组织意识不是你在周三下午或周末静修时做的事情。它需要持续和多样化的接触点,包括内部和外部发言人、研讨会、时事通讯等。事实上,人工智能和新兴技术通常都在迅速变化和发展,伴随这些变化的是道德风险的新来源。为确保您的组织不会落后太多,不断教育您的员工将是抵御技术进步浪潮的关键堡垒。
商业领袖知道,弄清楚如何以安全和合乎道德的方式开发、采购和部署人工智能对于持续增长和保持竞争优势至关重要。重要的是不要将此目标与数据科学家和工程师要实现的技术目标相混淆。负责任地部署人工智能——无论是用于内部还是外部目的——都需要意识到人工智能的道德风险和组织对减轻这些风险的战略的认同。