在本周的博客帖子中,联邦贸易委员会表示,它遇到了AI的偏见,警告业务的偏见,销售或使用此类系统的警告业务可能构成违反联邦法律。
" FTC法案禁止不公平或欺骗性做法,"帖子读。 "那将包括销售或使用 - 例如 - 种族偏见的算法。"
该岗位还指出,偏见的AI可以违反公平的信用报告法和平等的信用机会法案。 "在某些情况下,FCRA在某些情况下发挥作用,算法用于拒绝人们就业,住房,信贷,保险或其他福利,"它说。 "生态公司使公司使用偏见算法使得偏离算法导致基于种族,颜色,宗教,国家来源,性别,婚姻状况,年龄或者因为一个人收到公共援助而导致信贷歧视。 "
帖子镜子通过代理FTC椅rececca屠宰的帖子评论,他最近告诉她意图协议,以确保FTC执法努力"在我们的长期,艰巨而非常大的国家任务中继续和锐化。&# 34;
"对于我来说,算法偏见是经济司法问题。我们看到消除算法决策的不同结果,使得不成比例地影响和伤害黑色和棕色社区,并影响他们在社会中平等地参与的能力,"屠宰当时说。 "我们需要解决的东西,我们需要考虑它是否适合我们的不公平框架,我们是否可能有可能适用于它的规则制定权限,或者我们是否使用等于平等的法规信用机会法案或公平的信用报告法案。"
在博客文章中,FTC敦促企业测试其偏见的算法,将其系统基于Aren' t缺少关键人口统计数据的数据集,避免夸大这些系统可以做的事情。在Twitter上,华盛顿大学法学院Ryan Calo学院称A&#34的帖子;跳过弓。"
"我认为这个博客帖子作为FTC在新兴技术的背景下执行FTC行为的方式作为信号传播的帖子," Calo,谁共同指导了UW技术政策实验室推文。 "这些例子的具体性与对法定权威的重复的参考相结合罕见。"
实际上,该职位向企业提供了一个明确的消息。 "抱着自己负责任," 它读,"或者准备好ftc为您做。"