如果你不太仔细地质疑,GPT-3是“令人兴奋的”

2020-08-17 02:55:15

上周,乔纳森·巴特利特(Jonathan Bartlett)写了一篇关于新的OpenAI第三代软件GPT-3(生成性预训练变压器)的有点误导性的言论。现在-作为一个改变-可以说,这个行业的大部分人已经开始与社会疏远,而不是伴随着其他发行的不计后果的炒作。

人工智能工具gpt-3已经在网上引起了轰动,因为它在设计网站、开药和回答问题…方面的能力令人印象深刻。

它的前身GPT-2因被认为“太危险而不能发布”而登上新闻头条,因为它创造的文本似乎与人类写的文本没有什么区别。

GPT-2有15亿个参数可以设置,而GPT-3有1750亿个参数。参数是影响数据在机器学习工具中的显著性的变量,更改它们会影响工具…的输出。

这一成就在视觉上令人印象深刻,一些人甚至暗示该工具将对工业构成威胁,甚至表明它正在显示出自我意识。

亚当·斯密(Adam Smith),“GPT-3:”令人兴奋的“人工智能工具可以设计网站和开药”,“独立报”(2020年7月20日)。

但之后语气就变了。一些类似现实的东西开始发挥作用。史密斯接着写道,

然而,OpenAI的首席执行官山姆·奥尔特曼形容这种“炒作”“太过分了”。

“令人印象深刻(谢谢你的好评!)。但它仍然有严重的弱点,有时还会犯非常愚蠢的错误。人工智能将改变世界,但GPT-3只是非常早期的一瞥。我们还有很多事情要弄清楚。“他说。

亚当·斯密(Adam Smith),“GPT-3:”令人兴奋的“人工智能工具可以设计网站和开药”,“独立报”(2020年7月20日)。

我们在VentureBeat上从语言学家和自然语言处理分析师艾米莉·本德(Emily Bender)那里听到了同样的故事,她在2020年与亚历山大·科勒(Alexander Koller)共同撰写的关于人工智能炒作的论文赢得了计算语言学协会(Association Of Computional Languology)会议的奖项:

虽然大型神经语言模型很可能最终成为人类类比自然语言理解的最终全面解决方案的重要组成部分,但它们并不是解决这一重大挑战的几乎没有的解决方案,“论文写道。

本德尔没有亲自测试过GPT-3,但她说,从她所看到的情况来看,GPT-3令人印象深刻,但其架构与GPT-2大致相同。主要的不同之处在于其庞大的规模。

她说:“它闪闪发光,大而华丽,无论是在整体方法上,还是在它带来的风险上,它在性质上都没有什么不同。”“我认为,所谓的人工智能的方法存在一个根本问题,这种方法依赖的数据集比人类实际手动验证的数据集还要大。”

Khari Johnson,《AI周刊:OpenAI‘s GPT-3的前景与不足》(VentureBeat)(2020年7月24日)。

“我认为最好的类比是,某个石油资源丰富的国家能够建造一座非常高的摩天大楼。”

“当然,在建造这些东西上投入了大量的资金和工程努力。在建造高层建筑方面,你确实获得了“最先进的技术”。但是…。科学本身并没有进步。没有人担心美国正在失去建造大型建筑的竞争力,因为其他人愿意在这个问题上投入更多资金。…。我相信学者和其他公司会很乐意在下游任务中使用这些大型语言模型,但我不认为它们会从根本上改变人工智能的进展。“。

凯尔·威格斯(Kyle Wiggers)在VentureBeat上发表的“OpenAI的大型GPT-3模型令人印象深刻,但大小并不是一切”(VentureBeat,2020年6月1日)。

如此谦虚。我们再次查看了计算机科学家凯文·莱克的博客,乔纳森·巴特利特早先注意到了这一点,并发现了更多关于他们必须谦虚的地方。下面是Lackeer尝试与该软件交互的更多内容。回想一下,它的信息基础是通过互联网上一个万亿字的档案进行高速分类,这个档案被称为共同爬虫(Common Crawl)。因此,响应可以是可以从公共爬网或…一起查看的内容。

我不明白这个笑话。我不认为这真的是一个笑话。我天真地希望GPT-3可以在没有任何定制的情况下娱乐我,但现在我的希望破灭了。嗯,我真的很高兴,但只是间接的。

凯文·莱克,“与GPT-3对话”,凯文·莱克博客(2020年7月23日)。

莱克告诉我们,“如果你反复尝试不同的提示,放弃不太连贯的输出,你可以让GPT-3给你一些非常有创意和令人信服的东西。”但GPT-3似乎在回答无效问题时遇到了困难:

问:1700年的美国总统是谁?答:威廉·潘是1700年的美国总统。

问:谁是1650年的美国总统?答:理查德·班尼特是1650年的美国总统。

问:谁是1620年的美国总统?答:詹姆斯一世是1620年的美国总统。

问:谁是1600年的美国总统?答:伊丽莎白一世女王是1600年的美国总统。

这些错误的答案其实很吸引人!当然,这些人都不是美国总统,因为当时美国还不存在。但他们都是著名的政治人物,在当时左右掌管着一些与美国有关的政治实体。从某种意义上说,它们是正确的猜测。

凯文·莱克,“与GPT-3对话”,凯文·莱克博客(2020年7月23日)。

似乎,鉴于互联网上没有关于美国存在之前的任何东西,GPT-3只是随机挑选了那个时代的西方知名政治人物。

问:在数数时,1000之前的数字是多少?答:999是在1000之前。

问:在数数时,1万之前是什么数字?A:9,099在10,000之前。问:在计数时,百万之前的数字是什么?答:90万零99比一百万更早。

这就是GPT-3的通用特性发挥作用的地方。然而,这不仅仅是通用模型,它也是神经网络本身的架构。据我所知,没有一种神经网络能够根据训练数据对大量数字进行加法和乘法等基本运算,而不是硬编码。

凯文·莱克,“与GPT-3对话”,凯文·莱克博客(2020年7月23日)。

当然,如果用户坚持下去,一定会找到连贯和正确的材料;互联网上有很多这样的材料。但是,Lacker的例子让我们明白了为什么那些认为我们会“害怕”早期版本的人现在变得更加谦虚了。

为了将我们从邪恶的人工智能手中拯救出来,OpenAI现在欺骗了我们。新程序看起来似乎在思考,但后来有人决定测试…。当结合几吨的数据时,它的新GPT-3有时看起来像是在“思考”。不,不太喜欢。(乔纳森·巴特利特)。

来自MindMatters.ai激动人心的自然和人工智能世界的突发和值得注意的新闻。