为什么通用人工智能不会实现

2020-07-11 01:10:24

创造类似人类的人工智能(AI)的现代项目始于第二次世界大战后,当时人们发现电子计算机不仅是处理数字的机器,还可以处理符号。在不假设机器智能与人类智能相同的情况下,追求这一目标是可能的。这就是所谓的弱人工智能。然而,许多人工智能研究人员追求的目标是发展原则上与人类智能相同的人工智能,称为强人工智能。弱人工智能没有强人工智能那么雄心勃勃,因此争议也更小。然而,也有与弱人工智能相关的重要争议。本文重点研究了人工一般智能(AGI)和人工狭义智能(ANI)的区别。虽然AGI可能被归类为弱AI,但它更接近于强AI,因为人类智能的一个主要特征是它的共性。尽管AGI没有强大的人工智能那么雄心勃勃,但几乎从一开始就有批评者。哲学家休伯特·德莱弗斯(Hubert Dreyfus)是最主要的批评家之一,他认为没有身体、没有童年、没有文化实践的计算机根本不可能获得智力。德莱弗斯的主要论点之一是,人类的知识在一定程度上是默契的,因此不能清楚地表达出来,也不能整合到计算机程序中。然而,今天有人可能会争辩说,人工智能研究的新方法已经让他的论点过时了。深度学习和大数据是最新的方法,倡导者认为它们将能够实现AGI。仔细观察就会发现,尽管特定用途人工智能(ANI)的发展令人印象深刻,但我们离发展人工通用智能(AGI)还差得很远。这篇文章进一步认为,这在原则上是不可能的,这再次唤醒了休伯特·德莱弗斯(Hubert Dreyfus)的论点,即计算机并不存在于世界上。

机器可以执行需要智能的任务的想法至少可以追溯到笛卡尔和莱布尼茨。然而,该项目向前迈出了重要的一步,因为在20世纪50年代初,人们认识到电子计算机不仅是处理数字的设备,而且可以用来处理符号。这就是人工智能(AI)研究的诞生。在不假设机器智能与人类智能相同的情况下,追求这一目标是可能的。例如,该领域的先驱之一马文·明斯基(Marvin Minsky)将人工智能定义为:“…。制造机器的科学所做的事情,如果由人来做,就需要智慧“(摘自Bolter,1986,第193页)。这有时被称为弱人工智能。然而,许多人工智能研究人员追求的目标是开发原则上与人类智能相同的人工智能,称为强人工智能。这就需要“…”适当编程的计算机是一种头脑,从字面上可以说计算机可以理解并具有其他认知状态的意义上讲“(Searle,1980,p.417)。

在这篇文章中,我将使用一个不同的术语,它更适合于我讨论的问题。因为人类的智能是通用的,所以类似人类的人工智能通常被称为人工通用智能(AGI)。虽然AGI具有人类智能的本质属性,但仍可视为弱AI。然而,它不同于传统的弱人工智能,传统的弱人工智能仅限于特定的任务或领域。因此,传统的弱AI有时被称为人工狭义智能(ANI)(Shane,2019年,第41页)。虽然我有时会提到强人工智能,但本文中的基本区别是AGI和ANI之间的区别。将两者分开是很重要的。ANI的进步不是AGI的进步。

1976年,时任麻省理工学院信息学教授的约瑟夫·魏森鲍姆(Joseph Weizenbaum)出版了“计算机力量与人类理性”(Computer Power And Human Reason)一书(魏森鲍姆出版社,1976),他也是著名程序Eliza的创建者。正如标题所示,他区分了计算机能力和人类理性。用今天的术语来说,计算机能力是以极快的速度使用算法的能力,这就是ANI。计算机能力永远不会发展成人类的理性,因为两者是根本不同的。“人的理性”包含了亚里士多德的谨慎和智慧。谨慎是在具体情况下做出正确决策的能力,智慧是着眼全局的能力。这些能力不是算法能力,因此,计算机能力不能--也不应该--取代人类的理性。数学家罗杰·彭罗斯(Roger Penrose)几年后写了两本主要的书,在书中他证明了人类思维基本上不是算法(Penrose,1989,1994)。

然而,我的论点将与魏森鲍姆和彭罗斯的略有不同,我将继续追寻哲学家休伯特·德莱弗斯(Hubert Dreyfus)最初提出的一系列论点。他从事人工智能研究或多或少是偶然的。他做过与两位哲学家马丁·海德格尔和路德维希·维特根有关的工作。

有些人甚至认为,使用假设、因果模型和检验的传统科学方法已经过时。因果关系是人类思维的重要组成部分,特别是在科学领域,但根据这种观点,我们不需要因果关系。相关性就足够了。例如,根据犯罪数据,我们可以推断犯罪发生的地点,并利用它来分配警力资源。我们甚至可以在犯罪发生之前预测犯罪,从而预防犯罪。

如果我们看看一些关于人工智能研究的文献,看起来这项研究在几十年内可以完成的事情似乎是没有限制的。一个例子是我上面提到的Mayer-Schönberger和Cukier的书。这里有一句引语:

在未来--比我们想象的更快--我们世界的许多方面将被计算机系统增强或取代,而今天计算机系统是人类判断的唯一权限(Mayer-Schönberger和Cukier,2014,第12页)。

支持这一观点的一个例子是奥巴马政府,它在2012年宣布了一项“大数据研究和发展倡议”,以“帮助解决一些国家最紧迫的挑战”(引用自陈和林,2014年,第521页)。

然而,当人们看一看实际取得的成就与承诺的相比,差异是惊人的。稍后我会举出一些例子。对这种差异的一种解释可能是利润是主要的驱动力,因此,许多承诺应该被视为营销。不过,虽然商业利益固然有一定的作用,但我认为这个解释并不足够。我要补充两个因素:首先,硅谷为数不多的持不同政见者之一Jerone Lanier认为,对科学不朽的信仰、具有超级智能的计算机的发展等等,都是一种新宗教的表现,“通过工程文化表达”(Lanier,2013,第186页)。其次,当有人争辩说计算机能够复制人类活动时,往往会发现,这一主张是以对该活动的描述为前提的,而这种描述被严重简化和歪曲了。简单地说,对技术的高估与对人类的低估息息相关。

我将从德莱弗斯的主要论点开始,即AGI不能实现。然后我将简要介绍一下他的书出版后人工智能研究的发展。一些引人注目的突破已经被用来支持AGI在未来几十年内可以实现的说法,但我将展示在实现AGI方面取得的成果非常少。然后我会争辩说,这不仅仅是时间的问题,没有早点实现的事情会在以后实现。相反,我认为这个目标原则上是不能实现的,而且这项计划是死胡同。在论文的第二部分,我仅限于论证因果知识是类人类智能的重要组成部分,而计算机不能处理因果关系,因为它们不能干预世界。更广泛地说,AGI无法实现,因为计算机不在这个世界上。只要计算机不成长,不属于一种文化,不在世界上活动,就永远不会获得像人类一样的智能。

最后,我会争辩说,相信AGI可以实现是有害的。如果高估了技术的力量,低估了人类的技能,在很多情况下,结果将是我们用劣质的东西取代了运转良好的东西。

德莱弗斯把人工智能放入了一种哲学传统,可以追溯到柏拉图。柏拉图的知识论是建立在数学理想之上的,尤其是几何。几何学不是关于物质体的,而是关于理想体的。我们只有把注意力从物质世界转移到理想物体的世界,才能获得真正的知识,认识论。柏拉图甚至批评几何学家不了解他们自己的行业,因为他们认为自己是“…”做某事和他们的推理都有一个实际的目的,事实上,这个主题并不是为了知识而追求的“(柏拉图,1955年,第517页)。技能仅仅是观点,道克萨,并被降级到他的知识层次的最底层。

根据这一观点,被认为是知识的最低要求是它可以明确地表达出来。西方哲学大体上追随柏拉图,只接受命题知识作为真正的知识。一个例外是德莱弗斯所说的“反哲学家”梅洛-庞蒂、海德格尔和维特根斯坦。他还提到了科学家和哲学家迈克尔·波兰尼(Michael Polanyi)。在“个人知识”一书中,波兰尼介绍了默会知识的表述脚注1。我们在日常生活中应用的大部分知识都是默会的。事实上,当我们执行任务时,我们不知道我们应用了哪些规则。波兰尼以游泳和骑自行车为例。很少有游泳者知道,让他们漂浮在水面上的是他们如何调节呼吸:当他们呼气时,他们不会排空肺,当他们吸气时,他们会比正常情况下更大程度地膨胀肺。

类似的事情也适用于骑自行车。骑自行车的人通过转动自行车的车把来保持平衡。为了避免掉到左边,他把车把移到左边,为了避免掉到右边,他把车把转到右边。因此,他通过沿一系列小曲率移动来保持平衡。根据Polanyi的简单分析,对于给定的不平衡角,每个绕组的曲率与自行车速度的平方成反比。但是骑自行车的人并不知道这一点,这不会帮助他成为一名更好的自行车骑手(Polanyi,1958,p.50)。后来,波兰尼将这一见解表述为“…。我们知道的比我们能说的要多“(Polanyi,2009,第4页,斜体原文)。

然而,波兰尼的贡献中重要的一点是,他认为技能是表达知识的前提条件,尤其是科学知识。例如,进行物理实验需要很高的技能。这些技能不能仅仅从课本上学到。它们是通过熟知这一行业的人的指导而获得的。

同样,休伯特·德雷福斯(Hubert Dreyfus)与他的兄弟斯图尔特(Stuart)合作,开发了一个获得技能的模型。在最低级别,表演者遵循明确的规则。最高的水平,专家表现,类似于波兰尼对科学实践的描述。专业知识的一个重要部分是默契。开发专家系统,即使计算机能够模拟专家性能(例如医疗诊断)的系统所面临的问题是,专家知识的一个重要部分是隐性的。如果专家试图阐明他们在工作中应用的知识,他们通常会倒退到一个较低的水平。因此,根据Hubert和Stuart Dreyfus的说法,专家系统不能捕获专家表演者的技能(Dreyfus和Dreyfus,1986,p.36)。我们从日常生活中了解到这一现象。我们大多数人都是步行专家。然而,如果我们试图阐明我们是如何走路的,我们的描述肯定不包括行走所涉及的技能。

然而,在休伯特·德雷弗斯(Hubert Dreyfus)出版了计算机不能做的事情后,人工智能取得了巨大的进步。我会提到三个“里程碑”,它们已经受到了公众的关注,并造成了AGI“指日可待”的印象。

第一个“里程碑”是IBM的国际象棋计算机“深蓝”,当它在1997年击败国际象棋世界冠军加里·卡斯帕罗夫时,常被认为是一个突破。然而,深蓝是ANI的一个例子;它是为特定目的而制造的。虽然它在人类进行的需要智力的活动中做得非常好,但没有人会说深蓝已经获得了一般的智力。

第二个是IBM的计算机沃森。它的开发目标明确,就是要加入智力竞赛节目“危险边缘”(Jeopardy!)。这是一场比赛,参与者被给予答案,然后被认为应该找到正确的问题。例如,他们可能会得到这样的答案:“这位‘我们的国父’并没有真的砍倒一棵樱桃树。”参与者应该找到的正确问题是:“乔治·华盛顿是谁?”脚注2。

危险!比国际象棋需要更多的知识和技能。这些任务涵盖各种领域,如科学、历史、文化、地理和体育,并可能包含类比和双关语。它有三个参与者,竞争第一个答案。如果你答错了,你将被抽签,另一名参与者将有机会回答。因此,竞争既需要知识、速度,也需要限制自己的能力。自1964年开始以来,该节目在美国非常受欢迎,平均有700万人观看(Brynjolfson和McAfee,2014,第24页)。

沃森使用自然语言进行交流。当它参加“危险边缘”的时候!它没有连接到互联网,但可以访问2亿页的信息(Susskinand Susskind,2015,p.165;Ford,2015,p.98ff)。2011年,它击败了“危险边缘”中最优秀的两位参赛者肯·詹宁斯和布拉德·鲁特。詹宁斯在2004年已经连续74次获胜,总共获得了超过300万美元的奖金。拉特在2005年赢得了詹宁斯的支持,他也赢得了300多万美元。在为期两天的比赛中,沃森赢得的冠军是每个人类竞争者的三倍多。

虽然沃森是为参加“危险边缘”而建造的,但IBM还有进一步的计划。就在沃森赢得“危险边缘”之后不久!该公司宣布,他们将把计算机的力量应用于医学:它应该成为一名人工智能医学超级医生,并给医学带来革命性的变化。基本的想法是,如果沃森可以接触到所有的医学文献(患者的健康记录、教科书、期刊文章、药品清单等)。它应该能够提供比任何人类医生更好的诊断和治疗。在接下来的几年里,IBM参与了几个项目,但成功的程度相当有限。有些刚被关闭,有些则惨败。构建一个AI医生比最初设想的要困难得多。IBM的沃森健康公司(Watson Health)不再是超级医生,而是培养出了可以在日常任务中执行任务的人工智能助手(Strickland,2019年)。

第三个“里程碑”是Alphabet的AlphaGo。围棋是2000多年前在中国发明的一种棋类游戏。这个游戏的复杂性被认为比国际象棋还要大,它有数百万人玩,特别是在东亚。2016年,AlphaGo在韩国首尔进行了5场备受关注的比赛,击败了世界冠军Le SEDOL。这一事件被记录在获奖电影《AlphaGo》(2017,由Greg Kohs执导)中。

AlphaGo被认为是人工智能研究中的一个里程碑,因为它是一种名为深度强化学习的策略应用的一个例子。这一点反映在该公司的名称中,该公司名为DeepMind。(谷歌重组后,谷歌和DeepMind是Alphabet的子公司。)。这是一个基于人工神经网络范式的人工智能研究方法的例子。在神经网络的基础上建立了人工神经网络模型。我们的大脑包含大约一千亿个神经元。每个神经元通过突触与大约1000个神经元相连。这在大脑中提供了大约100万亿个连接。人工神经网络由人工神经元组成,比自然神经元简单得多。然而,已经证明,当多个神经元连接在一个网络中时,一个足够大的网络在理论上可以进行任何计算。实际上可能是什么,当然是一个不同的问题(Minsky,1972,p.55;Tegmark,2017,p.74)。

神经网络特别擅长模式识别。例如,要教神经网络识别图片中的猫,我们不必编写用于识别猫的标准。比方说,人类通常不会有区分猫和狗的问题。在某种程度上,我们可以解释这些差异,但很少有人,可能没有人能够解释。

.