曾经发生过世界的机器?曾经是一个强烈关注的对象似乎是一个妙语。采用机器人公司波士顿动态发布的最新视频之一,其标志性的两条机器摇晃它“你爱我吗?”由轮廓,与讽刺的在线Quips会面,关于机器人在谋杀人类后做出胜利的舞蹈。机器的反抗归入了技术障碍的广义恐惧的背景氛围,不再看起来鲜明的担忧。对于那些记得早期的技术恐慌时代的人,应该是惊人的。
曾几何时 - 几年前,实际上 - 看到关于杰出科学家,科技管理人员和工程师的头条新闻并不罕见,便于将机器人的反抗感到茫然。这种机制变化,但结果总是相同:无法控制的机器自我改善将有一天克服人性。令人沮丧的命运等待着我们。我们很幸运能够驯化,因为宠物留在众多实体的娱乐中,他们可以像我们消灭害虫一样轻松杀死我们。
今天,我们担心不同的技术威胁,其中一个人不在机器上,而不是其他人类。我们认为自己在互联网上释放的社会影响力,特别是互联网的社会影响力特别是。我们听到警告,没有什么比我们的集体能力令人担忧,如果我们不采取纠正措施,我们将失去自由和生活方式。
机械威胁的原始恐怖让害怕愤怒的灵长类动物发布。具有讽刺意味的是,角色逆转。机器人现在是人类的救世主,抑制了越来越复杂的过滤算法在线抑制不良人体行为。我们曾经沉迷于如何抑制机器我们无法预测或控制 - 现在我们担心如何使用机器来抑制人类我们无法预测或控制。但旧问题尚未消失:我们如何知道机器是否会按照我们的意愿做的?
如果您在十年前讲述了一个铺设的观察者,那么在Facebook,Twitter,Instagram和其他社交媒体平台上都会有危机,禁止美国主席煽动煽动突破的大会的暴力骚乱,破旧的男子穿着作为“Qanon Shaman,”你可能会被指控写糟糕的科幻小说。但这是2021年初的平台政治危机。
由于亚伦·塞比亚姆最近争论了美国的目的,事件和响应它展示了在线数字共鸣的悖论。在发出11月6日围困国会大厦的围攻,总统特朗普及其盟国可以利用社会媒体作为一种自由袭击意图产生旨在产生超现实奇观的激烈攻击的杂色媒体的协调机制,扰乱了总统的认证选举,并攻击任何人不幸的不幸,因为它违反了国会大厦而被暴民抓住。但到1月9日,特朗普和他的许多支持者被永久禁止社交媒体平台,而Parler是一个Redoubt为佛罗里特,在他人中,Apple和Google App商店被删除,甚至从托管网站的亚马逊服务器中删除。社交媒体,观察到的血脂酸,可以同时太抛开并太控制。
但在这个科幻中,恶棍失控的恶棍不是机器,而是人类的怪物 - 虽然是世界庞大的科技平台的怪物。传统的科幻事件而不是突然同步的人类反抗,这是一个突然的时刻,没有警告,没有警告,转向他们的人类长长。这些场景不仅仅是在小说中造成;他们还激发了一个山寨行业的严重思想的人,了解机器的反抗 - 它可能会发生如何,它可能是如何避免的。
在这种文献中涵盖的地面广泛变化。一些 - 就像票据Joy关于自我复制纳米技术机器成为一个“灰色粘性”,这是一个摧毁所有生活的“灰色粘性”,比尔盖茨提高了关于人工智能超越人类的警报,或者Elon Musk告诉我们我们正在濒临“召唤”恶魔“ - 总是荒谬。这些技术名人的声明并平行了一个更加复杂的,同样奇怪的和明确的在线传代培养的集合,他辩论了不可避免的机器优势的威胁,与通常与论坛扇子理论上有关丢失的能量。
伦理主义者大卫莱斯利,在2019年对机器控制的一本书审查中,描述了这些文化如何设想这种情况,例如“诱导每种人类肿瘤的AI系统,以迅速找到癌症的最佳治疗,以及窒息人类的地理工程机器人欺骗海洋。“共同主题是失控理性的病理 - 用于实现失控的某个端的机器。许多这些情景圈回到技术“奇点”时,当某些机器代理的智能或它们的集合时,突然增加了一瞬间,对人类的不明后果。
这很容易,也许太容易了,将所有这一切视为Crankbait。科技企业家MaciejCegłowski认为,这种智力追求是有趣的,但最终贫瘠,这是一种“程序员串理论”。它允许学术理论家和利基在线潜艇的成员“建立思想的水晶宫,从第一个原则工作,然后爬在他们内部并拉起梯子。”在最糟糕的情况下,Cegłowski感叹,它刺激了宏大和狂妄自大。科学家,技术学家和各种感兴趣的各方扫除了他们独自占据了世界末日灾难的信念,他们被指控找到自己的特质解决方案并将它们施加在“非球员人物”上(阅读:其余的我们应该只是坐下来让大脑去上班。
然而,一个人可以更加愉快地看看一些文学中的一些文献,作为比机器障碍的更老的问题的宝贵探索:地狱之路的方式铺成了良好的意图。我们说我们想要一些东西,但随着我们追求它,我们经常会意识到它并不是我们所想到的。 Runaway Tech的文献突出了我们的“真实”欲望的鲜利,以及机器是否能够实现它们(一瞬间更多)。
自2016年总统选举以来,担心机器障碍似乎似乎几乎是如此的关注。相反,注意力已经转移到在线激进化,错误信息和骚扰。这种区别似乎是两种谈论同样的事情。毕竟,许多科技批评者最终将这些在线功能禁止的软件归咎于鼓励有毒行为和公司的疏松的水平政策。也许害怕机器反抗刚刚变得普遍的恐惧,以及在其他事情,燃料仇恨,恐惧和怀疑以及在线恐惧。这有一些真相,但它也错过了重要的差异。
虽然在线行为肯定是由平台机制的形状,但今天的恐惧是他们自己的机制少于他们所诱惑的机制。事先强调机器威胁警告了自动行为的不可预测性以及对人类的需求制定政策来控制它。今天强调社交媒体恐怖反转了这一点,警告不受监禁的数字怪物所带来的危险,必须控制谁。风险不是来自机器,而是来自自己:我们对欺骗和操纵的脆弱性,我们需要与他人一起乐队一起追捕并加强在线的对手,我们煽动煽动并被暴力言论煽动的倾向世界,以及我们螺旋成相关的妄想,精神错乱和仇恨的集体习惯。
虽然在理论上担心机器恶劣的恐惧,但这张图片中没有真正的机械等同物,以旧的失控机器发挥的核心作用。实际上,人类和机器的角色已转换:机器现在必须抑制危险的人类。
大规模的低层军队 - 经常在心理创伤 - 人体内容 - 主持人通过大量的人类无人识的数字化记录涉及男人的不够。能够以缩放处理在线共享的唯一能够处理作业的东西是筛选内容,删除它,否则修改以强制执行平台策略的大规模自动化系统。依赖机械适度总是反映了合理的实用主义和不合理的乐观情绪对机器能力处理人类语言和社会互动的细微差异。它还展示了科技公司的愿望,找到一种方法来处理其平台产生的有毒行为,而不是从根本改变其产品或商业模式。
自动审核内容从未批评过。来自整个政治频谱的外人认为,它是不透明的,不负责任的,并以最佳的自由程序主义叶片提供。它试图将“规则B y法则”的机器人版本传递为“法治”。但自2016年以来,甚至更响亮的要求,批评被淹没在线误导和极端主义越来越困难。
这些要求在2020年初和2021年初 - 在大流行和国会大厦袭击之间达到了Crescendo。自动化规则执行的大规模扩展改变了在线演讲的性质。正如哈佛讲师Evelyn Douek在广泛引用的法律论文中观察到,
平台以前所未有的方式崩溃了,因为伤害被认为特别伟大,而且他们这样做的是,同时承认的误差率比正常更高,因为更常见的成本少于根本不足的成本。
内容审核的治理现在已经成为一个机器错误是首选的,并且可以接受机器误差。在规模,也许,所有机器道德都只是成为概率问题。而不是在允许或限制特定帖子时审议货物的余额,审核辩论现在假设显着的错误和不一致是平台的固有危险,并且仅询问错误是否朝着正确的方向进入。
日益增长的智力共识是,必须保护弱势公众,从危险的在线模型中劫持他们的思想。控制在线通信织机的丑陋和凌乱的斗争。对机器反抗的恐惧褪色,但曾经被视为未来暴君的机器 - 自动化系统 - 现在必须拯救人类。
远离对不可预测的机器人的恐惧以及对混乱人类行为的恐惧的转变可能是不可避免的。对于控制机器的问题总是在心脏的心愿下存在人类欲望的问题 - 使用自动化系统实现我们愿望的担忧可能会证明灾难性。承诺的解决方案(简单!)是纠正人类的愿望。但是一旦我们对这一点失去乐观,舞台被设置为在其头上翻转的问题。
最先进的Robo-oomsayers观察了如何机器 - 以及控制它们的官僚机构 - 能够以逃避预测和控制的方式行事。鉴于机器的力量实现人类欲望,Robo-Doom的警告要求我们仔细考虑这些欲望的潜在后果,将它们作为输入的投入喂养,以及这是否真正生产了人类大师的意图。
但奇怪的是,与严峻的沉思混合是对人类能力的乐观情绪,合理地故意对他们的欲望以及机器如何实现它们。这种乐观主义有助于导航末世的想法中的固有矛盾:再次,控制机器的问题是心脏存在的人类欲望问题 - 但人类的欲望也是解决方案。廉价和假欲望会带来机器灾难 - 但明智,纯净,真正的欲望可能会占用它。但我们如何知道哪个愿望?
二十世纪的网络学家诺伯特维纳为他的时间成为一个相当令人惊讶的论点:机器可能是厄运的最终工具,但人类可能是最终的原因。在1960年文章“自动化的一些道德和技术后果”中,维纳叙述了一个人的愿望并获得所要求的故事,但不一定是他或她真正想要的东西。例如,在古典的“猴子的爪子”中英语作家W. W. Jacobs,一个男人对200磅的愿望被门口的信使回答:该男子的儿子在工作事故中被杀,现在公司派遣了200英镑作为安慰。维也纳写道:
预期灾难性的结果是不仅仅是在童话的世界中,而且在现实世界中,只要两个机构基本上彼此互相加上努力实现共同目的。
两党没有足够的沟通,他们的共同目的是什么,因此伙伴关系的结果将在最佳和灾难性上差。
如何用社交媒体发挥作用 - 既有肥胖的愤怒和自动化内容 - 适度 - 融合 - 以维也纳所说的重点:
如果我们使用,以实现我们的目的,一旦我们开始的操作,我们无法有效地间歇的机械机构,因为这一动作是如此快速,不可撤销,我们没有数据在行动完成之前进行干预,那么我们有更好地确保投入机器的目的是我们真正渴望的目的,而不仅仅是对它的彩色模仿。
Wiener当然不是在谈论社交媒体,但我们很容易看到比喻:它也实现了目的,就像暴徒疯狂或错误的职位删除,即使他们以一种方式建造了机器达到这些目的。与终结者一样,他也没有想到,这是一个变得自我意识的一般情报和每个人都有核武器。相反,在冷战中,维纳写了关于“学习机器将用于编制新的按钮战争中按下按钮的前景”。换句话说,他想象一个人类不容易停止的系统,这对军事目标的误导替代人类实际上是价值:
如果战争游戏的胜利规则与我们的国家实际愿意的胜利不相对应,那么这样的机器可能会产生一项政策,这些政策将赢得我们所拥有的每一切兴趣费用的标称胜利在心脏,甚至是国家生存。
大约二十年后,电影作战人员想象了一个军事指挥和控制系统,了解到赢得唯一的胜利方式就是根本不玩。
但维纳的文章不仅仅是机器系统的风险。这是关于官僚主义或研究界的任何事情 - 我们缺乏“对[IT]的许多阶段有效了解其结论以及许多业务的真正战术意图可能是什么。 “
维纳的框架被证明有影响力,因为他将其推广到文字人机合作,以便在不同的时间和感知尺度上共同努力的任何情况。因为今天的选择有限的信息可能会有可怕的长期后果,但维也纳警告说“投入机器的目的” - 是一种像推特算法一样的文字机器,或者像运行的公司一样隐喻它 - 应该是我们“真正渴望”而不是“丰富多彩的模仿”的目的。
这就是为什么Wiener的文章广泛熟悉理性主义的批评者,而不仅仅是那些专注于控制机器问题的人。部分和经常误导有关人类偏好的信息的令人沮丧的复发是当在系统中建立人类偏好时,他们的着作中的着色主题是一个可能出错的。 Wiener的论文也象征性地变得非常重要,因为它在宏伟的工程和社会工程项目被广泛的预期解决许多人类最顽固的问题的时候阐述了技术合理语言的批判性 - 合理性的批判性 - 并且它来了来自科学的名人。
维纳在我们的愿望和实际发生的事情之间存在风险。它可能会创造自己的虚假形象 - 我们的欲望和行为的图像彼此完全可分离。无论我们的愿望都在仔细检查我们的愿望都很好,我们可能只是假设他们是,因此对自己和“系统之间的凌乱合作责备不良行为。我们相信我们拥有最好的意图 - 但随后他们之间有一些神秘的干预和他们在现实世界中的有形表现形式。
当机器人被编程到意识到我们的愿望实际上创造噩梦时,我们可能会很好地将其解释为我们愿望潜伏的噩梦中的发现。随着维纳会让我们做的,我们可能会询问我们的意图是否实际上如此纯洁,而不是更加谨慎地执行我们的意图。另一方面,避免提出这个是更令人愉快的 - 所以我们发现了一个。介入的神秘事物可能不是机器,而是简单地是我们自己的认知不和谐。
在苏联,官员培养了一种愤世嫉俗的犬儒主义,使他们能够与他们没有未来的意识形态的后果保持救济距离。公开,他们向国家及其指导格言造成了忠诚。私下来说,他们都太了解了意识形态的腐败和无能的方式。在公开肯定的意识形态之间保持人为的分离,以及私人谴责的后果,允许人们同时成为一个派对人,并说“我不是一个傻瓜”。像维纳的同步悲观和对人类欲望的乐观态度也在工作。
这里的课程是:如果我们在看到手动实现他们的机器后,我们不承认自己的欲望,我们可能只是不愿意重新审视我们的欲望并询问自己是否真的很好。也许这种不愿意导致我们在我们的真正欲望之间建立人工分离 - 我们永远无法真正正式化,量化和机械化 - 以及他们的虚假模仿,我们对我们发现令人憎恶的后果负责。
这种分离有助于让我们从我们的欲望中融化,将它们转变为与他们居住的肉类分开的自主力量。在今天的呼叫中,为机器施加在线暴徒,我们可以认识到我们在维纳中找到的疏远的后裔。在他的一天,他仍然可以将人类的愿望视为职业范围,但也可以控制如何控制机器的解决方案。虽然机器以错误的方式实现我们的欲望可能会导致灾难,人类尚无“我们想象力的全部实力”,以检查我们新的方式的充分利用可能导致我们。“这种悲观主义的配对和这种乐观主义太不稳定,无法在2010年来生存。
我们真正想要什么,我们如何知道它?或者我们对自己陌生人陌生人吗?维纳的短语“两个机构基本上彼此外国人”也是如何描述两个的
......