Miriam Vogel是班达总统兼首席执行官,这是一个非营利组织,一个非营利组织专注于减少人工智能中的无意识偏见。
留下未选中,看似中立的人工智能(AI)工具可以延续不平等,实际上是自动的歧视。支持技术的危害已经符合信贷决策,医疗保健服务和广告。
为了防止这种复发和增长以规模,拜登管理必须澄清与AI和机器学习模式有关的现行法律 - 无论如何我们将如何评估私人行为者以及我们如何管理我们的政府系统内的AI使用。
政府在技术领域的关键任命中迈出了强势势头,以在办公室的第一天发出一项行政命令,该组织建立了一个公平的数据工作组。这让我们对美国对AI发展的承诺以及确保数字空间股权的承诺,这令人怀疑。
但这将是短暂的,除非管理局表现出强烈的决心使AI为实现现实和建立保护其开发和使用所需的领导者和建筑物,否则就是强烈的决心。
在AI政策的联邦水平和技术方面的平等承诺中存在地震转变。 Biden Administration的许多高调预约 - 从Alondra Nelson博士作为OSTP副议员,即在NEC的蒂姆吴,到(我们的前高级顾问)Kurt Campbell在NSC - 信号中将支付重大关注AI通过内部专家开发。
NSCAI的最终报告包括可能向能够为包容性AI开发实现更好的基础,例如通过美国数字服务学院创建新的人才管道来培养当前和未来员工的建议。
该报告还建议建立由副总统领导的新技术竞争力委员会。这可能证明是确保国家对AI领导力的承诺仍然是最高水平的优先事项。凭借与总统,她的技术政策稳定的战略伙伴关系和焦点公民权利,将政府对VP哈里斯担任Spearhead的领导,使政府对哈里斯的武器头发的领导有所了解。
我们知道AI在创造效率的能力方面是强大的,例如借导数千次恢复以确定潜在合适的候选人。但它还可以扩展歧视,例如基于比赛的信用的优先考虑男性候选人或“数字红线”的亚马逊招聘工具。
拜登政府应向邀请IDEATION的机构发出一项行政命令(EO),以改善政府运营。 EO还应要求USG使用的AI支票,以确保它没有无意地传播歧视性结果。
例如,在评估AI系统以确保嵌入的有害偏差没有导致与我们民主,包容价值不一致的建议没有导致歧视或不一致的建议,并且谨慎地重新评估AI,因此必须存在常规时间表 - 并常常重新评估AI不断迭代和学习新模式。
将负责任的AI治理系统置于美国政府中特别关键,在拒绝某些福利时需要提供适当的过程保护。例如,当AI用于确定医疗补助福利的分配时,并根据算法修改或拒绝这种益处,政府必须能够解释该结果,适当称为技术到期过程。
如果在没有解释性,指导和人类监督的情况下委派给自动化系统的决策,我们发现自己在这种基本宪法权利被拒绝的地方。
同样,政府有巨大的力量,以确保按主要企业参与者通过其采购权力取得均衡的AI保障措施。联邦合同支出预计将超过2020财年超过6000亿美元,甚至在包括大流行经济刺激基金之前。 USG可以通过发布AI系统的联邦采购清单来实现巨大的影响 - 这将确保政府的进程既严谨和普遍应用,包括相关的民权考虑。
政府持有另一种强大的杠杆来保护我们免受伤害:其调查和检察机构。行政命令指示机构澄清当前法律法规的适用性(例如,ADA,公平住房,公平贷款,民权行为等)当决定依赖于AI动力系统可能导致全球估算。在美国经营的公司会有毫无疑问的动机,以检查他们的AI系统是否有针对受保护的课程的危害。
低收入个体不成比例地易受AI的许多负面影响。这对信贷和贷款创造特别明显,因为它们不太可能获得传统金融产品或基于传统框架获得高分的能力。然后,这成为用于创建自动执行此类决策的AI系统的数据。
消费者财务保护局(CFPB)可以在持有依赖歧视性AI系统的歧视性贷款过程中持有歧视性贷款流程的金融机构中发挥关键作用。 EO的授权将是关于如何评估AI的系统的陈述,并将公司推出通知,并更好地保护公众对AI使用的明确预期。
当个人以歧视性方式和适当的过程违反行动时,违反公共利益被任意拒绝,没有解释,就有明确的责任。从理论上讲,这些负债和权利将在涉及AI系统时轻松转移,但对代理行动和法律先例(或者相反,缺乏)的审查另有说明。
政府处于良好的开端,例如回滚拟议的HUD规则,这将对歧视性AI产生法律挑战,基本上是无法实现的。接下来,具有调查或检察机关的联邦机构应澄清其在审查中将落入哪些AI实践,目前的法律将适用 - 例如,非法住房歧视的HUD;在信用贷款中使用的AI上的CFPB;和聘用的劳动部用于招聘,评估和终止的确定。
这些行动将有增加的益处,为抱怨的原告行动建立一个有用的先例。
拜登政府鼓励第一次措施发出其目的,以确保包容性,歧视性较少的AI。然而,它必须通过指导联邦机构要求艾美的发展,收购和使用,在内部和所在的人中,以保护隐私,公民权利,公民自由的方式完成,以诉诸于AI的发展,收购和使用美国价值观。