与弗兰克·帕斯夸莱(Frank Pasquale)在他的新书“机器人的新法则”中进行问答,涉及科幻小说,人工智能伦理,大技术,专业精神等

2021-01-06 21:26:19

机器人新法则:捍卫人工智能时代的人类专业知识的作者弗兰克·帕斯夸莱(Frank Pasquale)讨论了指导进步的人工智能政策所需的四个最重要的思想。

四年前,布鲁克林法学院的法学教授弗兰克·帕斯夸莱(Frank Pasquale)出版了他备受赞誉和高度批判的著作《黑匣子社会:控制钱的秘密算法》,引发了关于算法和公司权力的辩论。

一方面,Pasquale通过警告失控算法的可怕后果,使我们受到关注。他强调了他们通过破坏股票市场和破坏信用评分等行为在各地造成破坏的能力。另一方面,由于帕斯夸莱(Pasquale)适应了政治经济和公司恶意的动态,他还告诫我们,不要过多地关注技术约束而过分关注不良的人类倾向。他发现华尔街和硅谷都犯有武器化不透明算法流程以扩大权力,隐藏隐藏的议程并转移责任的罪行。

简而言之,该书的阴郁口气,负面关注以及对纠正路线的治理措施的整体怀疑,包括对透明性和责任感的强烈呼吁,以致于一个适当的替代标题将是《算法能力:破解腐败法》。 Pasquale的新书《机器人新法则:捍卫AI时代的人类专业知识》采用了一种截然不同的方法来挑战现状。对自由主义,新自由主义和后人类的主流发展观感到贬不一,他们对自动化如何构成医疗,教育,军事冲突,社会不平等乃至对它的未来的展望提供了渐进的眼光意味着成为人,帕斯夸莱以一种意想不到的资源的力量进行了反击:积极的叙事。

他认为,要使人工智能(AI)民主化,我们需要想象一种解放性的政治是可能的,它可以塑造自动化的开发和部署方式,而不必将关键的决策过程限制为仅确定省钱,提高成本的最佳方法。效率并鼓励创新-诚实话语会不成比例地承认这一创新,从而使精英阶层受益,其余的人则表现出冷漠(即使不轻视)。为了概念化一个不仅重视人的尊严而且积极保护人的专业知识和判断力的世界,帕斯夸莱倡导机器人新闻法,这些法律可以使社会摆脱危险的倾向和优先事项。以下是罗切斯特理工学院哲学教授埃文·塞林格与弗兰克·帕斯夸莱之间的对话的编辑版本。

弗兰克:可以简单地说。首先,机器人系统和AI应该补充专业人员,而不是取代专业人员。第二,他们不应该假冒人类。第三,他们不应该加剧零和军备竞赛。第四,他们必须始终指出其创建者,控制者和所有者的身份。

我希望每个法律都能帮助我们更加人性化地使用技术。例如,假设您在重症监护室有一个重病。当您和您的家人在外面等着探望时,会出现一个机器人,给您一些坏消息。它宣布:“患者在十天内死亡的可能性高达95%”。 “您想探索终止治疗的选择吗?”

这里的问题应该很明显。这不是预测性AI本身,如果正确地解释和传达,它可能是非常有用的信息。问题是缺乏人际关系。该技术应该补充医务人员,而不是替代医务人员,即使对于医院而言,这种技术的价格便宜甚至更高,甚至可以使它们常规化。

尊重悲伤的一部分是认真对待苦难。这需要个人风格。因此得出了我的第一条定律:机器人和AI应该补充专业人员,而不是代替专业人员。当然,很少有人会介意机器人是在他们的旅馆或医院接管清洁工作,还是承担了艰巨而危险的采矿工作。污垢和煤炭没有感觉,交流的反馈要少得多。但是人们确实如此,因此,直接的,同情的识别对于服务成功至关重要。

埃文(Evan):您的假设示例使我想起了2019年发生的一次真正的悲剧。那是在偏远地区的一名医生告诉住院患者,他没有多久可以活着,并通过屏幕传达了这种严峻的预后。这种情况令人不安,以至于有些媒体误报了所发生的事情。一个令人误解的标题是:``由于机器人而不是真正的医生告诉我们,被恐惧学习亲人的家庭正在死亡。''

正如亚瑟·卡普兰(Arthur Caplan)和我所说的那样,真正的问题与机器人无关。这是因为患者不同意这种对话,这种对话严重削弱了移情的传递,而人类则通过远程医疗进行对话。对于技术而言,要破坏专业的交流规范太容易了。

弗兰克:哦,是的,绝对。这里的问题非常严重,我试图在第二定律中更直接地解决,那就是机器人和AI不应伪造人类。我非常致力于这个想法,因为我认为AI中有一些研究程序实际上是为了欺骗人们而认为机器人,化身或类似的AI创作具有人类的情感和感觉。我认为这从根本上是不诚实的,因为在我们研究生物学和社会进化的过程中,我们看到愤怒,同情,丧失和各种主观体验的感觉都基于具有身体的体现。

因此,如果我们对自己与技术的关系要诚实一些,我们需要承认,如果它有任何经验,那根本就不同于我们自己。作为一名哲学家,您充分了解Nagel的著名文章“蝙蝠是什么感觉?”本质上说:这几乎是不可能知道的!或维特根斯坦(Wittgenstein)的经典话:“如果一头狮子会说话,我们将无法理解他。”对于当代AI甚至更是如此,其中当然有一些表面含义是由机器人和一些类人机器人产生的,但几乎没有公众了解数据,算法等通过这些过程服务于公司的利益的过程。在AI之后。

埃文:在继续之前,我很惊讶您还没有提到最著名的“机器人法则”的作者艾萨克·阿西莫夫(Isaac Asimov)。为什么您是一位严肃的法律理论家和政治经济学家,却将阿西莫夫的科幻小说框架视为您反文化的指导性信息?

弗兰克(Frank):我喜欢您的问题无所畏惧。没有其他人说过:“科幻基本上不是在你的下面吗?”或者,至少在这本书的主题之下!我可能不得不承认阿西莫夫(Asimov)的许多缺点,在重要方面,不是一个伟大的设计师和一个糟糕的人。但就科幻小说而言,我不能比金·斯坦利·罗宾逊(Kim Stanley Robinson)更好:

经常让我感到惊讶的是,“科幻小说”这个名称在某种程度上是不正确和错误的,但实际上却非常强大,因为这两个词可以翻译为“事实”和“价值”,以及事实/价值或是/应该的问题在哲学上是一个著名的问题,通常被认为是无法解决的,因此,如果您将体裁称为“事实价值”,则是说它可以弥合我们思维中的艰难深渊。当然,这意味着频繁失败,因为这确实是一个深渊。但这是一种流派的强烈主张,我开始喜欢“科幻小说”这个名字。

我也做。我认为,一个认真的法律和政策学者应该与科幻小说和大众文化互动的主要原因是,因为许多决策者和政客,甚至法官和监管者都受到他们从大众娱乐中获得的技术概念的极大影响。因此,我们已经看到Charli Carpenter在杀手机器人上的工作,以及Desmond Manderson在24方面的出色工作。

埃文:哦,可以,我完全同意。明确地说,我并不是在问你为什么参与科幻小说。而且我没有质疑这种类型的价值。我的问题更加尖锐,探讨了为什么参与如此强烈,以至于您对关键信息进行了框框,甚至还对阿西莫夫致以敬意。

弗兰克:点头并告别。点头承认小说做得这么好,画出了我们自己以外的世界的图像。读者需要一些思考“机器人伦理”的锚,而像阿西莫夫这样的科幻作品就是其中最广为人知的作品。

正如艾里斯·默多克(Iris Murdoch)曾经说过的那样:“人是一个创造自己的照片,然后变得与这些照片相似的生物。”这就是为什么我在本书的最后一章中探讨小说,电影和艺术的原因。它可以帮助我们了解过去做出的决策的长期后果以及我们今天所做的小事情可能产生的巨大影响。

例如,想象一下,戈尔(Al Gore)于2001年就任总统,而9/11之后,他的回应并不是灾难性的战争,而是坚持要求美国通过可再生能源实现能源独立。最高法院的干预给美国带来了灾难性的“错误转向”,就像2016年10月下旬的Comey干预那样,而特朗普政府对COVID的完全不当行为也是如此。那些命运的转折中的每一个都产生了巨大的损失,这些损失是永久的,悲剧性的不可逆转。同样,法律或法规方面的细微变化现在将使技术行业走上一条可能导致生产力和为人类服务的良性循环,或者导致零和军备竞赛,剥削和持续监视的道路。

这对于现在了解周到干预的重要性至关重要。但是很难在非小说类的背景下展现出如此复杂的叙事。小说作家像手风琴一样压缩或扩大情节的时间,以提出要点。

阿西莫夫与我对机器人定律的看法之间的主要区别在于,阿西莫夫实际上是在假设开发与人无二的机器人,然后试图确保这些机器人不会伤害任何人或伤害太重。鉴于我的法律,我是说我们通常不应该拥有看起来像人的机器人,这是一个非常糟糕的研究程序。我只是看不到为什么我们要让看起来像机器的东西看起来像人类。更重要的是,阿西莫夫(Asimov)的法律是关于确保机器人促进人类福祉,而我的法律是在确保人类(不仅是少数人,而是一个分布很广的大群体)对机器人技术进行民主控制。他全是为了人类福祉。我想要那并且使人力民主化。

埃文(Evan):一段时间以来,您的工作一直强调遵循金钱的重要性,尤其是在关注大型高科技公司的目标与实际对经济刺激措施之间的差距时。在您的新书中,您提醒我们,将这些公司视为整体系统过于简单化,因为每个人都被束缚在集体思维的思想mental锁中,特别是因为管理层与员工之间出现了明显的差异。

例如,您写道:“在一些美国最大的AI公司中,越来越多的软件工程师拒绝构建杀手级机器人,甚至是其开发的前身。他们的抵抗是专业人士和工会成员主张控制他们的工作方式和工作方式的大规模运动的一部分。 Google的最新发展表明了这种方法的优点和局限性。”

您对围绕Google管理层声称著名AI伦理学家Timnit Gebru辞职的争议有何看法,这一说法被许多人认为是讽刺意味,旨在掩盖公司在多样性和研究完整性方面的困扰关系。

弗兰克(Frank):在思考技术人员的角色以及他们在大型科技公司中的道德观点时,我们必须赞扬那些为将道德观点带入科技工作场所而付出巨大努力的人,例如梅雷迪思·惠特克(Meredith Whitaker)和蒂姆尼特·格布鲁(Timnit Gebru)。他们应该为权力讲真话,应得到极大的赞誉。我还认为,为了维护或延长员工的独立性,公司内部可能正在进行许多关键性的战斗。

我还认为,我们需要在制度上更多地考虑创造空间,以使像Whittaker和Gebru这样的人能够在大型科技公司内部工作。并普遍提倡独立的道德判断。因此,例如,我们可能希望看到工人免受某些财务压力的影响,尤其是当他们在这些公司的研究部门工作时。如果没有适当的隔离,那么研究部门就会变成一种光荣的PR。

弗兰克:某些形式的进一步专业化会有所帮助。如果软件工程师拥有像律师或医生一样活跃的专业协会,那么它可以设定独立性标准,从而使行业中的所有员工都有能力在像Google这样的雇主朝着道德上有问题的方向前进时退缩。

例如,如果医师过分地推动制药公司的利益以致伤害其患者,则他们可能会失去执照。如果软件工程师拥有丢失的许可证,如果他们在特别严重的黑暗模式或诈骗中扮演角色,可能会被吊销或吊销该怎么办?这种漏洞也是一种形式的权力,因为它允许公司的所有工程师对一个不道德的项目做出回应:“不,我们不能这样做,如果这样做,我们将失去许可证,并且那么您将没有人可以为您编码!”

这种类型的后备力量至关重要,必须由法律强制实施,因为如果没有法律强制实施,那么如果您是一个被迫后退的人,总会有一个愿意取代您的人。而且即使您是二十个人,五十个人或数千个人在战斗,但如果没有法律的支持,您就有危险。多亏了我在本书中提出的AI系统,您可以被集体开除,惩罚或仅落后于“声誉”。

埃文:这将是我的最后一个问题。为了表达正确,我需要提供一些背景信息。

为防止算法使用不当,我们需要监管机构可以呼吁的明确规则,标准和价值观,以识别社会认为不可接受的行为。在“评判人的机器”一章中,您确定了三种破坏人道信用体系的不道德行为:掠夺性包容,从属包容和令人毛骨悚然的包容。

掠夺性包容的一个例子是,合格的学生有资格在欺骗性和剥削性的营利性大学中使用贷款,这些学院认为,与其乐观的言论相反,它们并未为学生将来在所选学习领域的有酬工作做准备。服从包容性的一个例子是对信用申请者行使基本政治自由(例如参与政治行为)进行惩罚。

但是,我想知道第三个问题是否可以更好地命名。您写道:“疯狂是对未来威胁的一种直觉,基于与正常情况的偏离。正常的经验包括有权享有不同于家庭生活的工作生活,并根据明确的标准对我们做出判断。令人毛骨悚然的包容破坏了平衡,让未知的机械决策者潜入我们的汽车,卧室和浴室。”

当然,我全心全意地同意,不断扩展的监视将越来越多的个人信息馈送到自动化系统中,这削弱了我们体验健康所必需的呼吸室的能力。而您又回到了黑匣子协会(Blackbox Society),警告不透明的判断会对繁重的程序(例如正当程序)带来的风险。但是感觉逐渐消失是一种情感体验,我们的隐喻蜘蛛意识警告我们某些事情是不对的。通过将对错位的感知定义为意识到正在发生某种异常,您可能会冒着使保守派人士轻易颠覆理想而让自由主义者反对的风险。

例如,对传统的宗教价值观念专一的保守派可能会反对那些被进步主义者视为促进公平的政策,但他们认为这与基于自然法的人们应该如何“自然”地行事的观念相矛盾。提倡自由创新的自由主义者会抱怨,对“正常”的呼吁是现状偏见的教科书实例,表达了对变革和适应的恐惧。因此,是否有更好的方法来反对“不间断的手机跟踪,归档和数据转售”这样的做法?

弗兰克:就令人毛骨悚然而言,我认为这是道德判断的一种形式。正如在数据收集分析和使用领域中应用的那样,这可能会很有帮助。我认为,如果我们没有将道德判断的形式与当今社会中常见的其他形式的政策言论进行比较,那么它似乎过于主观。让我们深入研究通常用于政策分析的黄金标准:成本效益计算。

在考虑如何收集数据时,我们可以尝试为数据收集者,用户以及整个社会进行估算,这种使用将带来什么好处,以及成本是多少。请注意,对于大约美国中位年龄(约35岁)的用户,我们可能必须估算50岁的预期寿命。因此,您将不得不考虑在未来50年中可以从该数据中获得哪些潜在收益,根据这些数据可以发现哪些潜在发现?

然后,我们还必须考虑成本。我们可以尝试估计:明年发生数据泄露的风险是什么?五年有哪些风险?从现在起25年后呢?由违规引起的所有威胁情景是什么,例如“熟人购买”等。您可以尝试考虑当时的隐私法是更严格还是更宽松,以便对此类数据泄露和威胁情景产生或多或少的威慑作用。

当然,一旦我们开始讨论2050年数据泄露的可能性和后果,我们已经失去了思路,对吧?这已经不仅仅是主观的道德分析,而是人们是否认为收集,分析和使用他们在手机上所做的一切都归功于手机上的数据,这完全是出于主观的道德分析,而这要归因于一些条款他们几乎没有注意到的服务水平是否令人毛骨悚然。

因此,这里的问题是,表面上基于定量经济分析的技术,中立和客观的评估标准,没有比他们对跨越重要界限的普遍反对意见有更多的依据或效力。同样要注意的是,即使看起来更容易的定量预测(例如交通模式)现在也受到质疑。

这在几个层面上确实很重要,其中一个是说,经济学和哲学的相对地位。 我认为我们不希望生活在一个必须以某种经济理由证明每项政策合理的世界中。 相对于其他社会科学和规范性观点,该观点已经产生了太大的影响。 为了使您对保守派和自由派反对意见有所了解,当然可以,会有保守派和自由派反对意见,但是 ......